샘 알트먼의 최신 블로그 게시물: 무한한 지능을 가져오는 AI의 시대
샘 알트먼은 블로그 포스팅을 통해 미래의 기술 발전은 우리 조상들이 거의 '마법'이라고 생각했던 일들을 가능하게 할 것이며, 이러한 변화를 주도하는 핵심은 AI의 혁신 가속화가 될 것이라고 강조합니다.
JinseFinance2024년 3월 1일 -- 머스크가 OpenAI의 공동 설립자인 샘 알트먼(Sam Altman)을 법정에 세우면서 실리콘밸리에서 법적 폭풍이 몰아치고 있습니다. <머스크는 상세한 소송 서류에서 알트먼과 다른 피고들이 인류 전체에 도움이 되는 비영리 AI 기술을 개발하기 위해 설계된 OpenAI의 설립 계약을 위반했다고 주장하고 있습니다.
소송장에 따르면 머스크와 다른 원고들은 OpenAI의 경영진이 2023년에 비영리 사명에서 벗어나 Microsoft와 독점 파트너십을 체결하고 고급 AI 기술인 GPT-4를 비밀리에 유출하여 Microsoft의 상업적 이익을 위해 사용했다고 주장하고 있습니다. 이러한 변화는 OpenAI의 비영리적 성격에 대한 노골적인 배신이자 원래의 설립 취지에 대한 위반으로 묘사되었습니다.
머스크는 소송에서 자신이 알트만, 그렉 브록맨과 함께 OpenAI를 공동 설립했을 때 AI 기술의 잠재적 위험에 대한 공동의 우려와 그 개발이 인류 모두에게 이익이 되도록 하겠다는 약속에 기반했다고 주장했습니다. 그러나 OpenAI가 AI 분야의 리더로 자리 잡으면서, 특히 초기 AGI로 여겨지는 GPT-4 모델을 개발한 후 회사의 방향이 근본적으로 바뀌었습니다.
소송 문서에는 머스크의 초기 자금 지원, 연구 방향에 대한 조언, 최고의 과학자와 엔지니어를 영입하기 위한 노력 등 OpenAI의 설립 과정이 자세히 기록되어 있습니다. 이러한 노력은 OpenAI가 빠르게 두각을 나타낼 수 있었던 핵심 요인으로 꼽힙니다. 그러나 현재 머스크는 자신의 기부금이 원래 의도와는 다른 용도로 사용되었다고 생각합니다.
이 소송의 주요 내용은 다음과 같습니다.
2012년 엘론 머스크는 영리 AI 회사인 딥마인드의 공동 창업자 데미스 하사비스를 만났습니다. 이 무렵 머스크와 핫사비스는 캘리포니아 호손에 있는 SpaceX의 시설에서 만나 사회가 직면한 가장 큰 위협에 대해 논의했습니다. 이 대화에서 핫사비스는 AI의 발전이 사회에 미칠 수 있는 잠재적 위험에 대해 강조했습니다.
해사비스와의 대화 이후 머스크는 AI가 초지능화되어 인간의 지능을 뛰어넘고 인류를 위협할 수 있는 가능성에 대해 점점 더 우려하게 되었습니다. 사실 머스크만이 딥마인드의 AI 연구와 AI의 위험성에 대해 우려하는 것은 아닙니다. 하사비스와 딥마인드의 투자자들을 만난 후 한 투자자는 인류를 위해 할 수 있는 최선의 일은 하사비스를 현장에서 총으로 쏴버리는 것이라고 말한 것으로 알려졌습니다.
머스크는 당시 구글의 모회사인 알파벳의 CEO와 같은 주변 사람들과 이야기를 나누기 시작했고, 그 결과 딥마인드가 인류를 위협할 수 있다는 사실을 알게 되었습니다. 머스크는 페이지와의 대화에서 종종 AI의 위험성에 대해 언급했지만, 놀랍게도 페이지는 이에 대해 걱정하지 않았습니다. 예를 들어, 2013년에 머스크는 페이지와 AI의 위험성에 대해 열띤 대화를 나눈 적이 있습니다. 그는 안전 조치를 취하지 않으면 "AI 시스템이 인간을 대체하여 우리 종을 무의미하게 만들거나 심지어 멸종시킬 수 있다"고 경고했습니다. 이에 대해 페이지는 "진화의 다음 단계일 뿐"이라고 답하며 머스크가 지능형 기계보다 인간 종을 선호하는 '종차별주의자'라고 주장했습니다. 머스크는 "네, 저는 친인간적입니다."라고 대답했습니다.
2013년 말, 머스크는 당시 업계에서 가장 앞선 AI 기업 중 하나였던 구글의 딥마인드 인수 계획에 대해 매우 우려하고 있었습니다. 그 결과 머스크는 딥마인드의 AI 기술이 그 힘을 무심코 바라보고 그 설계와 기능을 숨길 수 있는 누군가의 손에 들어가게 될 것을 깊이 우려했습니다.
이 강력한 기술이 구글의 손에 넘어가는 것을 막기 위해 머스크와 페이팔 공동 창업자 루크 노섹은 딥마인드 인수 자금을 마련하기 위해 노력했고, 머스크와 노섹은 한 시간 동안의 전화 통화에서 하사비스에게 딥마인드 인수를 설득하기 위해 마지막 노력을 다했습니다. 머스크와 노섹은 하사비스에게 "AI의 미래는 래리 [페이지]가 좌지우지해서는 안 된다"며 딥마인드를 구글에 매각하지 않도록 설득하기 위해 최후의 노력을 기울였습니다.
머스크와 노섹의 노력은 성공하지 못했고, 2014년 1월에 딥마인드가 구글에 인수될 것이라는 보도가 나왔습니다. 하지만 그렇다고 해서 머스크가 AI의 안전한 개발과 실용화를 위해 계속 노력하는 것을 막지는 못했습니다.
구글의 딥마인드 인수 이후, 머스크는 "구글과 AI 보안을 강화하는 방안에 대한 일련의 저녁 토론을 직접 주최"하기 시작했습니다. 또한 머스크는 버락 오바마 대통령을 만나 AI와 AI 보안에 대해 논의했고, 2015년에는 오바마를 만나 AI의 위험성을 설명하고 규제를 옹호했으며, 머스크는 오바마가 AI의 위험성을 이해하고 있지만 규제는 실현되지 않았다고 주장합니다.
이러한 좌절에도 불구하고 머스크는 안전한 AI 관행을 계속 옹호했고, 2015년 머스크는 AI에 대한 자신의 우려와 구글 같은 민간 기업 외부에서 최초의 AGI를 유지하려는 자신의 열망을 이해해 주는 사람을 찾은 듯했습니다: 피고인 샘 알트먼입니다.
당시 알트먼은 실리콘밸리 스타트업 액셀러레이터인 와이 콤비네이터의 사장이었습니다. 그 전에는 다양한 스타트업에 관여했습니다.
알트만은 머스크와 AI에 대한 고민을 공유하는 듯했습니다. 2014년 공개 블로그 게시물에서 알트먼은 AGI가 실현된다면 "역사상 가장 큰 기술 발전이 될 것"이라고 주장했습니다. 알트먼은 많은 기업이 AGI를 실현하기 위해 노력하고 있지만 "좋은 기업들은 이에 대해 매우 비밀스럽게 움직이고 있다"고 언급했습니다.
2015년 2월 25일, 알트먼은 "인류의 지속적인 존재에 가장 큰 위협이 될 수 있다"고 생각하는 "초인적인 기계 지능"의 개발에 대해서도 우려를 표명하며 "인류의 지속적인 존재에 가장 큰 위협이 될 수 있다"고 강조했습니다. "라고 말하며 "생존과 번식을 위해 프로그램된 인간으로서 우리는 이에 맞서 싸워야 한다고 생각한다"고 강조했습니다. 또한 알트먼은 "초인적인 기계 지능"이 위험하다고 믿으면서도 "절대 일어나지 않거나 아주 먼 미래의 일"이라고 생각하는 사람들을 비판하며 "느슨한 사고와 위험"이라고 비난했습니다. "
실제로 2015년 초에 알트먼은 "많은 자원을 가진 매우 똑똑한 사람들" 그룹이 "어떻게든 미국 기업들이 "어떻게든 미국 기업"이 "초인적인 기계 지능"을 먼저 달성할 가능성이 가장 높은 그룹이 될 것이라고 말했습니다.
그달 말, 알트먼은 머스크에게 연락해 미국 정부에 AI에 관한 공개 서한 초안을 작성하는 데 관심이 있는지 물었습니다. 두 사람은 서한을 준비하고 기술 및 AI 분야의 영향력 있는 사람들에게 서명을 요청하기 시작했습니다. 곧 업계 전반에 걸쳐 이 서한에 대한 소문이 퍼지기 시작했습니다.
예를 들어, 2015년 4월에 Hassabis는 머스크에게 연락해 머스크가 대통령에게 AI 규제를 촉구하는 서한을 작성 중이라는 소식을 여러 경로를 통해 들었다고 말했고, 머스크는 Hassabis에게 "AI 규제에 대한 아이디어를 옹호하며 다음과 같이 말했습니다. 제대로만 된다면 장기적으로 AI를 가속화할 수 있습니다. 규제 감독을 통해 대중이 안심할 수 없다면, AI가 공공 안전에 위험을 초래해 큰 해를 끼친 후에야 AI 연구가 금지되는 상황이 발생할 수 있다"고 말했습니다.
해사비스가 머스크에게 공개 서한을 보낸 지 5일 후, 구글과 딥마인드가 2년 전 딥마인드 인수 당시 구성하기로 약속한 구글 딥마인드 AI 윤리위원회의 첫 회의가 열렸다고 발표했습니다. 머스크는 위원회의 위원으로 초대되어 캘리포니아 호손의 스페이스X에서 첫 회의를 열자고 제안했고, 머스크는 첫 회의가 끝난 후 이 위원회가 진지한 노력이 아니라 AI 규제를 늦추기 위한 전선임을 분명히 했습니다.
공개 서한은 이후 2015년 10월 28일에 공개되었으며 머스크, 스티븐 호킹, 스티브 워즈니악 등 1만1천여 명이 서명했습니다.
2015년 5월 25일, Sam Altman은 인간의 AI 개발을 막을 수 있는지에 대한 깊은 생각을 표현하는 이메일을 Elon Musk에게 보냈습니다.Altman은 다음과 같이 주장했습니다. 대답은 거의 확실하게 '아니오'입니다. AI 개발이 불가피하다면 애초에 구글이 아닌 다른 누군가가 이를 실현하는 것이 더 나을 것이며, 알트먼은 Y Combinator가 AI 분야에서 "맨해튼 프로젝트"(적절한 명칭으로)를 시작하는 것이 좋겠다는 생각을 가지고 있습니다. 그는 일종의 비영리 단체를 통해 이 기술을 전 세계가 소유할 수 있고, 프로젝트가 성공하면 관련자들에게 스타트업처럼 보수를 지급할 수 있다고 제안합니다. 모든 규제를 준수하고 적극적으로 지원할 것이며, 머스크는 이에 대해 "충분히 이야기할 가치가 있다"고 답했습니다.
더 많은 대화를 나눈 후 2015년 6월 24일, 알트만은 머스크에게 새로운 'AI 연구소'에 대한 자세한 제안서를 보냈습니다. "이 연구소의 임무는 최초의 범용 AI를 만들어 개인의 역량 강화를 위해 사용하는 것, 즉 가장 안전해 보이는 미래의 분산 버전을 만드는 것입니다. 보다 일반적으로 보안은 최우선 요건이 되어야 합니다." "이 기술은 재단이 소유하고 '세상의 선'을 위해 사용할 것입니다." 그는 7~10명으로 구성된 그룹으로 시작하여 거기서부터 확장할 것을 제안합니다. 그는 거버넌스 구조도 제안했는데, 머스크는 "모든 면에서 동의한다"고 답했습니다.
그 후 얼마 지나지 않아 알트먼은 프로젝트 개발을 도울 다른 사람들을 모집하기 시작했습니다. 특히 알트만은 그레고리 브록맨에게 도움을 요청했고, 2015년 11월에 알트만은 이메일을 통해 브록맨과 머스크를 연결해 주었습니다. 이 프로젝트와 관련하여 Brockman은 머스크에게 "중립적인 그룹으로 이 분야에 뛰어들어 폭넓은 협력을 모색하고, 특정 그룹이나 회사가 승리하는 것이 아니라 인간이 승리하는 것으로 대화를 전환했으면 합니다. (이것이 선도적인 연구 기관으로 자리매김하는 가장 좋은 방법이라고 생각합니다.)" 특정 개인이나 집단의 이익보다는 인간에 초점을 맞춘 중립적인 AI 연구팀의 가능성을 낙관한 머스크는 브록맨에게 자금을 지원하겠다고 말했습니다.
머스크는 창립 합의를 반영하여 새 연구소의 이름을 '오픈 AI 연구소' 또는 간단히 '오픈AI. ".
설립 합의의 원칙에 따라 머스크는 알트만, 브록만과 협력하여 프로젝트를 공식적으로 시작하고 진행했으며, 프로젝트가 공식적으로 발표되기 전부터 적극적으로 프로젝트에 참여했습니다. 예를 들어, 머스크는 직원 보상 패키지에 대해 브록먼에게 자문을 제공하고 보상 및 인재 유지를 위한 전략을 공유했습니다.
2015년 12월 8일, 델라웨어주 국무부에 OpenAI, Inc.의 법인 설립 증명서가 제출되었습니다. 이 증서에는 "회사는 1986년 개정된 미국 국세법 501(c)(3)조 또는 향후 미국 국세법의 해당 조항에 따라 자선 및/또는 교육 목적으로만 조직된 비영리 법인이다"라는 설립 계약이 서면으로 명시되어 있습니다. 법인의 구체적인 목적은 AI 관련 기술의 개발 및 배포에 자금을 지원하는 것입니다. 그 결과물은 대중에게 혜택을 줄 것이며, 회사는 해당되는 경우 대중의 이익을 위해 해당 기술을 오픈소스화할 것입니다."
오픈AI는 2015년 12월 11일에 대중에게 공개되었습니다. 이 발표에서 머스크와 알트먼은 공동 의장으로, 브록먼은 최고기술책임자(CTO)로 임명되었습니다. 발표문에서는 OpenAI의 목표가 "인류를 이롭게 하는 것"이며 연구에는 "재정적 의무가 따르지 않는다"는 점을 강조했습니다."OpenAI는 비영리 AI 연구 회사입니다. 우리의 목표는 재정적 수익 창출의 필요성에 구애받지 않고 인류 전체에 가장 큰 혜택을 줄 수 있는 방식으로 디지털 인텔리전스를 발전시키는 것입니다. 우리의 연구는 재정적 의무에 얽매이지 않기 때문에 인류에 미치는 긍정적인 영향에 더 집중할 수 있습니다."
엘론 머스크는 오픈AI의 성공적인 출범에 핵심적인 역할을 했습니다. 공개 발표 당일, 머스크는 이메일을 통해 "우리가 가장 중요하게 생각하는 것은 최고의 인재를 채용하는 것입니다."라고 썼습니다. 그는 채용을 돕는 것이 "24시간 연중무휴 절대적인 우선순위"가 될 것이라고 약속했습니다. 그는 "우리는 여러분이 알고 있는 조직에 비해 인력과 자원이 터무니없이 부족하지만, 우리는 정의의 편에 서 있으며 이는 큰 의미가 있다"고 인정했습니다. 저는 그 확률이 마음에 듭니다." 머스크는 자신의 인맥과 지위, 영향력을 활용해 인재 채용에 힘을 실었습니다. 특히 머스크가 공동의장으로 있는 OpenAI, Inc.가 엘론 머스크가 후원하는 프로젝트였다는 사실은 Google/DeepMind의 반격에 직면한 OpenAI, Inc.의 채용 노력에 핵심적인 역할을 했습니다. 머스크의 참여와 상당한 지원 노력, 자원, 그리고 그가 설립 계약에 부여한 중요성이 없었다면 OpenAI, Inc.는 결코 시작되지 못했을 것입니다.
초기에 가장 중요한 채용 중 하나는 수석 과학자 직책으로, 알트만, 브록만, 머스크 모두 이 프로젝트에 참여하기 위해 구글을 떠나기를 주저하던 구글의 연구 과학자 일리야 수츠케버가 맡기를 원했습니다. Sutskever는 프로젝트에 참여하기 위해 구글을 떠나는 것을 주저했지만, 공개 발표 당일 머스크의 전화 한 통으로 인해 OpenAI의 수석 과학자로서 프로젝트에 참여하기로 결심하게 되었습니다.
그 후 몇 달 동안 머스크는 OpenAI, Inc.에 공격적으로 채용을 진행했고, 구글/딥마인드는 스타트업을 견제하기 위해 OpenAI, Inc.의 채용 담당자에게 점점 더 유리한 제안을 했습니다. 2월 말, 머스크는 브록맨과 알트먼에게 이메일을 보내 "우리는 최고의 인재를 확보하기 위해 필요한 일을 해야 한다. 제안을 올리자. 언젠가 현재 직원들의 급여를 다시 생각해야 한다면 그건 괜찮습니다. 세계 최고의 인재를 확보하지 못하면 딥마인드에 밀리게 될 테니까요. 어떤 대가를 치르더라도 최고의 인재를 유치하는 건 괜찮아요. 딥마인드는 저에게 많은 정신적 압박을 주죠. 만약 그들이 이기면 세계를 지배하고 싶다는 그들의 철학에 매우 나쁜 소식이 될 것입니다. 재능의 수준을 고려할 때 그들은 분명히 상당한 진전을 이루고 있습니다."
머스크는 브록맨과 알트먼에게 "최고의 인재를 확보하기 위해 필요한 일을 하라"고 지시할 때 자신의 인맥과 영향력을 OpenAI를 대신해 채용하는 데만 사용한 것이 아닙니다. 그는 더 높은 제안에 자금을 지원했습니다. 2016년에만 머스크는 다른 어떤 기부자보다 많은 1,500만 달러 이상을 OpenAI, Inc.에 기부했습니다. 는 그가 제공한 자금으로 최고의 인재들로 구성된 팀을 구성할 수 있었습니다. 마찬가지로 2017년에도 머스크는 다른 어떤 기부자보다 많은 2천만 달러에 가까운 금액을 OpenAI에 기부했습니다. 2016년부터 2020년 9월까지 전체적으로 머스크는 OpenAI, Inc.에 4,400만 달러 이상을 기부했습니다.
또한, 머스크는 머스크 인더스트리즈 LLC를 통해 샌프란시스코의 파이오니어 빌딩을 OpenAI, Inc.의 초기 사무실 공간으로 임대하고 매월 임대료를 지불하고 있습니다. 머스크는 정기적으로 OpenAI, Inc.를 방문하고 있습니다. 를 정기적으로 방문하여 2016년 첫 번째 DGX-1 AI 슈퍼컴퓨터를 OpenAI에 기증했을 때와 같이 회사의 중요한 이정표에 참석하며, 머스크는 OpenAI의 진행 상황에 대한 업데이트를 받고 피드백 및 권장 사항을 제공합니다.
2017년, 그렉 브록만과 다른 사람들은 오픈AI Inc. 를 비영리 단체에서 영리 회사로 전환할 것을 제안했습니다. 몇 주간의 소통 끝에 일론 머스크는 브록맨, 일리야 수츠케버, 샘 알트먼에게 "직접 무언가를 하든지 아니면 비영리 단체로 OpenAI를 계속 운영하든지 둘 중 하나를 선택하라. 여러분이 계속하겠다는 확고한 약속을 하지 않는 한 저는 더 이상 OpenAI에 자금을 지원하지 않을 것이며, 그렇지 않으면 저는 스타트업에 공짜로 돈을 주는 바보가 될 것입니다. 더 이상 논의하지 않겠습니다."
이에 대해 알트먼은 머스크에게 "여전히 비영리 조직에 대한 열정이 남아있다"고 말했습니다. 결국, 브록먼과 서츠커는 자신들도 비영리 구조에 헌신하고 있으며 내년에 비영리 단체를 위한 기금 마련을 위해 노력할 것임을 머스크에게 분명히 밝혔습니다.
2018년 2월 21일, 머스크는 OpenAI의 공동 회장직에서 사임했습니다. 그럼에도 불구하고 머스크는 설립 계약에 따라 OpenAI, Inc.에 자금을 계속 제공했습니다. 예를 들어, 2018년에 머스크는 OpenAI에 약 350만 달러를 기부했습니다. 또한 그는 브록맨, 서츠케버, 알트먼으로부터 OpenAI, Inc.에 대한 업데이트를 지속적으로 받고 있습니다.
2018년 4월, 알트먼은 머스크에게 OpenAI 헌장 초안을 보내 피드백을 요청했습니다. 초안에는 OpenAI의 사명이 "모든 인류에게 혜택을 주는 것"이라고 선언했습니다. "우리는 모든 인류의 이익을 위해 사용될 수 있도록, 그리고 인류를 해치거나 권력을 과도하게 중앙 집중화할 수 있는 AI 또는 AGI의 사용을 피하기 위해 AGI 배포에 대해 우리가 가진 모든 영향력을 사용하기 위해 최선을 다할 것입니다. 우리의 일차적인 신탁 책임은 인류에 대한 것입니다. 우리의 사명을 달성하기 위해 상당한 자원을 동원해야 할 것으로 예상하지만, 더 넓은 이익을 훼손할 수 있는 이해 상충을 최소화하기 위해 항상 노력할 것입니다."
2019년 3월 11일, OpenAI는 영리 자회사인 OpenAI, L.P.를 설립한다고 발표했습니다. 잠재적 투자자들은 요약 투자 설명서 상단의 '중요 경고'에서 이 영리 법인이 "안전한 AGI를 개발하여 모든 인류에게 혜택을 제공한다는 OpenAI Inc.(비영리 단체)의 사명을 발전시키기 위해 존재한다"는 사실을 알 수 있습니다. 이 사명과 OpenAI Inc. 헌장에 명시된 원칙에 대한 일반 파트너의 의무는 모든 영리 의무보다 우선합니다." 따라서 투자자들은 "OpenAI LP에 대한 모든 투자를 기부로 간주"할 것을 명시적으로 권고합니다.
발표 후 머스크는 알트만에게 연락하여 "나는 OpenAI의 영리 부문에 대해 금전적 이해관계가 없음을 분명히 해달라"고 요청했습니다. 그러나 머스크는 2019년에도 348만 달러를 추가로 기부하며 비영리 단체로서 OpenAI를 계속 지원했습니다.
2020년 9월 22일, OpenAI는 자사의 일부 사전 AI 기술을 마이크로소프트에 독점 라이선스했다고 발표했습니다. 설립 계약에 따라 OpenAI의 웹사이트는 AGI가 "대부분의 경제적으로 가치 있는 노력에서 인간의 성과를 능가하는 고도로 자율적인 시스템"이라고 선언했습니다(대부분의 경제적으로 가치 있는 노력에서 인간의 성과를 뛰어넘는 고도로 자율적인 시스템). OpenAI의 웹사이트는 설립 계약에 따라 "대부분의 경제적으로 가치 있는 작업에서 인간을 능가하는 고도로 자율적인 시스템"인 AGI는 "AGI 이전 기술에만 적용되는 Microsoft와의 지적 재산권 라이선스 및 기타 상업적 조건에서 제외된다"고 명시하고 있습니다. 그러나 OpenAI의 이사회는 "AGI에 도달하는 시기를 결정한다."
OpenAI는 초기 작업에서 딥마인드로부터 많은 것을 차용했습니다. OpenAI는 체스 대신 체스보다 움직임이 많은 전략 비디오 게임인 도타 2로 경쟁했고, OpenAI 팀은 세계 챔피언 팀을 이긴 새로운 모델을 빠르게 구축하여 "자가 페어링 강화 학습이 어려운 작업에서 초인적인 성능을 달성할 수 있다"는 것을 입증했습니다.
한편, 구글에서는 트랜스포머라는 알고리즘을 통해 딥러닝이 긴 텍스트 시퀀스를 이해할 때 직면하는 많은 문제를 해결하고 있습니다. 이 알고리즘은 소스 언어의 단어 간에 연결을 형성하고 이러한 연결을 대상 언어에 매핑하여 텍스트를 번역하는 '대규모 언어 모델'의 한 예입니다.
OpenAI 연구원들은 이 연구를 계속하여 곧 또 다른 놀라운 결과를 만들어냈습니다. Google의 트랜스포머 아키텍처의 전반부를 사용하여 심층 신경망을 대규모 텍스트 코퍼스로 사전 학습시키고 새로운 텍스트를 생성하는 데 사용할 수 있다는 것이었습니다. 2018년 1월, OpenAI는 이 생성형 사전 학습 트랜스포머(GPT)의 소스 코드와 훈련 모델을 공개했으며, 이 모델과 그 기능을 자세히 설명하는 논문도 함께 발표했습니다.
2019년에 OpenAI는 2세대 모델인 GPT-2를 출시했습니다. 이 릴리스에는 이전 모델과 달리 이 모델은 특정 작업을 위해 훈련할 필요가 없으며 "충분히 크고 다양한 데이터 세트에서 대규모 언어 모델을 훈련할 경우. 많은 도메인과 데이터 세트에서 우수한 성능을 발휘할 수 있습니다." 이러한 모델은 이전의 AI 시스템과는 매우 다릅니다. 특정 작업을 수행하도록 시스템을 훈련시키는 대신 자연어로 새로운 작업을 수행하도록 '요청'할 수 있기 때문입니다.
설립 계약에서 예상한 대로 OpenAI는 GPT-2의 정식 버전을 공개적으로 출시했습니다. 특히 "인간은 GPT-2의 출력이 설득력이 있다는 것을 발견했고", "GPT-2는 오용을 위해 미세 조정될 수 있으며", "[GPT가 생성한] 텍스트를 감지하는 것은 어려운 일"임에도 불구하고 OpenAI는 여전히 GPT-2의 정식 버전을 공개적으로 출시했습니다. "라는 지적에도 불구하고 OpenAI는 여전히 공개를 결정했습니다. 당시 OpenAI는 "향후 강력한 모델을 개발하는 개발자들에게 도움이 되기를 바란다"고 밝혔습니다. 공개와 함께 OpenAI 과학자들과 독립적인 사회 및 기술 과학자들이 공동 집필한 상세한 논문이 첨부되어 모델을 비공개로 유지하는 대신 공개적으로 공개할 때 얻을 수 있는 많은 이점에 대해 설명했습니다.
이 논문은 미래의 강력한 모델을 개발하는 데 매우 유용하다는 것이 입증되었습니다. OpenAI가 공개한 모델을 개선하고 확장하기 위한 완전한 커뮤니티가 등장했습니다. 이러한 커뮤니티는 오픈 소스, 풀뿌리 노력, 상업적 단체로 확장되었습니다.
2020년에 OpenAI는 "이전의 모든 비희소 언어 모델보다 10배나 많은 1,750억 개의 파라미터를 사용하는" 세 번째 버전의 모델인 GPT-3를 발표했으며, 이 모델의 개발을 발표하는 연구 이 모델의 개발을 발표하는 논문에서 다른 사람들이 구축할 수 있도록 전체 구현을 설명합니다.
2022년, Google의 연구원들은 이 결과를 바탕으로 "대규모 언어 모델이 복잡한 추론을 수행할 수 있도록" 하는 연쇄적 사고 힌트라는 작은 수정을 시연했습니다. 도쿄대학과 Google의 연구원들은 Google의 결과를 빠르게 확장하여 OpenAI의 GPT-3가 인간처럼 "각 답변 앞에 '한 번에 한 단계씩 생각해 봅시다! '"
AI의 경로가 가시화됩니다. 그리고 이 지점에 도달하기 위한 타임라인이 크게 압축되고 있습니다.
2023년 3월 14일, OpenAI는 추론뿐만 아니라 평균적인 인간보다 더 뛰어난 차세대 모델인 GPT-4를 출시했습니다. GPT-4는 변호사 시험에서 90백분위수, GRE 말하기 평가에서 99백분위수, 심지어 고급 레벨에서 높은 점수를 기록했습니다. GPT-4는 통일 변호사 시험에서 90번째 백분위수, GRE 말하기 평가에서 99번째 백분위수, 심지어 고급 소믈리에 시험에서 77번째 백분위수에 속하는 점수를 받았습니다. OpenAI의 자체 객관적인 측정에 따르면, GPT-4는 경제적으로 가치 있는 다양한 작업에서 인간보다 뛰어난 지능을 입증할 수 있었습니다.
연구계에서도 이러한 발전은 주목하지 않을 수 없었습니다. Microsoft 연구원들은 'AGI의 불꽃: GPT-4의 초기 실험'이라는 제목의 자세한 분석에서 "GPT-4는 수학, 프로그래밍, 시각, 의학, 법률, 심리학 등 여러 영역에서 새롭고 어려운 작업을 특별한 자극 없이도 해결할 수 있다"고 언급했습니다. 특별한 프롬프트 없이도요. 또한 이러한 모든 작업에서 GPT-4의 성능은 놀라울 정도로 인간 수준에 근접하며, 종종 [GPT-3.5] 기반 ChatGPT와 같은 이전 모델의 성능을 훨씬 뛰어넘습니다."
연구진은 GPT-4의 성능을 GPT-3 기반 시스템과 비교한 결과 GPT-4의 성능이 훨씬 우수하다는 사실을 발견했습니다. 그들은 GPT-4의 성능을 GPT-3 기반 시스템의 성능과 비교한 결과 "GPT-4의 출력과 비교할 수 없다"는 것을 발견했습니다. 수학 문제의 경우, "GPT-4는 정답을 제시하고 논증도 타당한 반면, GPT-3 기반 ChatGPT는 잘못된 해를 산출하는데, 이는 사람이라면 함수 반전 개념에 대한 이해 부족을 반영하는 것"이라고 설명합니다. 또 다른 예로 "GPT-4는 올바른 솔루션을 제공하는 반면, ChatGPT는 목적 없이 용어를 재배열하기 시작하여 잘못된 솔루션으로 끝난다"는 것을 보여줍니다.
마이크로소프트의 자체 과학자들은 GPT-4가 "일종의 일반화된 지능을 달성"하고 있으며 "GPT-4의 기능의 폭과 깊이를 고려할 때 AGI 시스템의 초기(아직 불완전하지만) 버전으로 합리적으로 간주할 수 있다"고 말했습니다.
AGI 임계값에 도달한 후, 피고들은 설립 계약에 따라 영리 기업이나 개인의 이익이 아닌 인류의 이익을 위해 AGI를 개발해야 하는 자신들의 사명에서 근본적으로 벗어나 설립 계약을 위반했다.GPT-4는 완전히 폐쇄적인 모델이며, GPT-4의 내부 설계는 비밀로 유지되며 어떠한 코드도 공개되지 않았다.OpenAI. OpenAI는 내부 설계의 어떤 측면도 설명하는 논문을 발표하지 않았으며 성능을 자랑하는 보도 자료만 발표했습니다.GPT-4의 내부 세부 사항은 OpenAI와 아마도 Microsoft에게만 알려져 있습니다. 따라서 GPT-4는 "개방형 AI"와는 정반대입니다. 이 기술은 상업적 독점적 이유로 폐쇄되었습니다. Microsoft는 GPT-4를 일반에 판매하여 큰 이익을 얻었는데, OpenAI가 의무적으로 이 기술을 일반에 무료로 제공했다면 이는 불가능했을 것입니다. 창립 계약과 달리 피고는 인류의 이익을 위한 것이 아니라 세계 최대 기업의 이익을 극대화하기 위한 독점 기술로 GPT-4를 사용하기로 결정했습니다. 또한 OpenAI의 전체 개발 과정은 현재 비밀로 유지되고 있으며, 대중은 다음에 공개될 내용에 대한 소문과 단편적인 정보만 접할 수 있습니다.
로이터 통신에 따르면 OpenAI는 Q*라는 비밀 알고리즘을 개발 중이라고 합니다. 로이터에 따르면 Q*의 구체적인 내용은 알려지지 않았지만, 몇몇 OpenAI 직원들이 Q*의 잠재적 위력을 경고하는 편지를 보냈다고 합니다. Q*는 현재 또는 미래에 OpenAI가 개발 중인 보다 명확하고 가시적인 AGI의 일부가 될 것으로 보입니다. AGI로서, 이는 명백히 Microsoft와의 OpenAI 라이선스 밖에 있으며 더 광범위한 공익을 위해 제공되어야 할 것입니다.
마이크로소프트와의 라이선스 계약과 관련하여 OpenAI의 이사회는 OpenAI가 AGI를 충족했는지 여부를 결정하며, 아래에서 자세히 설명하는 일련의 충격적인 사건으로 인해 2023년 11월 22일 OpenAI 이사회의 대다수가 강제로 사임하게 되었습니다. 의 이사회 멤버 대부분은 2023년 11월 22일에 강제로 사임했으며, 이들의 후임은 알트만과 마이크로소프트가 직접 고른 것으로 알려져 있습니다.
2023년 11월 17일, OpenAI 이사회는 알트만을 해고했습니다. 블로그 게시물에서 OpenAI는 알트만이 해고되었으며 "그의 퇴사는 이사회의 신중한 검토 절차에 따른 것"이라고 발표했습니다. "이사회는 알트먼이 이사회와의 소통에 있어 항상 솔직하지 않았고, 이로 인해 책임을 다하는 데 방해가 되었다는 결론을 내리고 신중한 검토 절차를 거쳤습니다." 알트먼의 퇴사는 이사회에 의한 신중한 검토 절차에 따른 것입니다. 이사회는 더 이상 그의 지속적인 OpenAI 리더십에 대한 확신을 갖지 못했습니다."
브록맨도 이사회에서 해임되었지만 OpenAI에서의 역할은 계속 유지할 것으로 알려졌습니다.
당시 이사회는 헬렌 토너, 아담 단젤로, 타샤 맥컬리, 서츠케버 박사, 브록맨, 알트먼으로 구성되었습니다. 토너는 이사회에서 활동하는 것 외에도 AI 거버넌스 센터(GovAI)의 펠로우 겸 고문이자 조지타운대학교의 보안 및 신흥 기술 센터의 전략 디렉터로 활동하고 있으며, 맥컬리는 공공 정책 의사 결정을 전문으로 하는 비영리 단체인 RAND Corporation의 수석 관리 과학자로 일하고 있습니다. 또한 알트먼의 복귀 후 유일하게 남은 이사회 멤버인 GovAI의 고문으로 기술 CEO이자 기업가입니다.
오픈AI의 이사회에 AI 정책 경험이 풍부한 학계 및 공공 정책 전문가를 다수 포함시킨 것은 의도적인 선택으로, 이들 대부분은 회사에 대한 재정적 지분이 없습니다. 재정적으로 이해관계가 없고 공익을 위해 헌신한 이들로 구성된 이사회는 비영리 단체의 주요 수혜자인 인간을 재정적 성공보다 우선순위에 두도록 보장합니다. 이러한 안전장치는 영리 기업의 금전적 이익이 아닌 인류에 도움이 되는 AGI를 안전하게 개발한다는 OpenAI, Inc.의 비영리 사명과 설립 계약에 따른 것입니다.
알트만은 부분적으로는 OpenAI의 획기적인 AGI 달성으로 인해 해고된 것으로 추정됩니다. 실제로 뉴스 보도에 따르면 보안 문제와 OpenAI의 차세대 Q*가 초래할 수 있는 잠재적 위협에 대해 OpenAI 이사회 멤버와 경영진 간에 의견 차이가 있었다고 합니다.
알트만의 해고 소식은 빠르게 퍼졌습니다. 이사회가 알트만의 해고를 발표한 후 브록먼은 알트만과 함께 OpenAI를 떠날 것이라고 발표했습니다.
알트만의 해고 소식을 접한 마이크로소프트 CEO 사티아 나델라는 분노한 것으로 알려졌습니다. OpenAI 영리 부문의 49% 주주인 나델라는 알트먼을 해고하기 전에 마이크로소프트와 상의했어야 한다고 생각했습니다. 그러나 당시 OpenAI 이사회는 알트만 외에 마이크로소프트와 아무런 관계가 없었고 영리 부문의 투자자에 대한 신탁 의무도 없었습니다. 알트만은 Microsoft와 OpenAI, Inc. 사이의 주요 연락책이었던 것으로 알려져 있습니다.
나델라는 알트만과 브록먼에게 OpenAI의 인도주의적 사명에 제약을 받지 않는 새로운 Microsoft AI 연구소를 이끌도록 했습니다. 나델라는 OpenAI를 떠나는 직원들이 동일한 급여로 Microsoft의 새로운 연구소에 합류할 수 있다는 점을 분명히 했습니다.
마이크로소프트는 OpenAI의 영리 부문에 대한 실질적인 소유권을 통해 회사가 없어져도 OpenAI의 연구를 완전히 분리할 수 있다고 확신합니다. 실제로 알트먼이 해고된 직후 인터뷰에서 나델라는 "우리는 우리의 능력에 대해 매우 자신감이 있습니다. 우리는 모든 지적 재산과 모든 역량을 갖추고 있습니다. 내일 OpenAI가 사라지더라도 혁신을 계속할 수 있는 모든 권리를 가지고 있기 때문에 고객이 걱정하지 않았으면 합니다. 단순히 제품을 제공하는 것뿐만 아니라 그동안의 협업을 계속할 수 있습니다. 우리는 인재, 컴퓨팅 파워, 데이터, 모든 것을 갖추고 있습니다."
오픈AI 없이도 계속 운영할 수 있다는 마이크로소프트의 발언에도 불구하고, 마이크로소프트는 알트먼을 다시 오픈AI의 CEO로 복귀시키려는 계획을 포기하지 않았습니다. 알트먼이 해고된 지 며칠 후, OpenAI 이사회는 변호사들과 Microsoft를 비롯한 주요 주주들로부터 알트먼을 복귀시키라는 압박에 직면했습니다.
토너는 특히 알트먼의 복직을 위해 노력하는 과정에서 표적이 되었습니다. 이러한 노력 중에 OpenAI를 대표하는 변호사는 토너에게 알트먼이 해고되어 OpenAI가 실패할 경우 토너와 이사회가 투자자에 대한 신탁 의무를 위반한 혐의를 받을 수 있다고 말했습니다.
그러나 OpenAI의 이사회는 투자자에 대한 신탁 의무를 위반한 적이 없습니다. 실제로 영리 부문의 모든 투자자는 회사의 사명에 대한 책임이 투자자에 대한 책임보다 우선하며, OpenAI, Inc.의 웹사이트는 인간에 대해서만 신탁 의무를 진다는 점을 분명히 밝히고 있습니다.
변호사의 행동을 협박 전술로 묘사한 토너는 알트먼의 지속적인 해임이 오히려 이익보다는 인간의 안전을 강화함으로써 회사의 사명을 발전시킬 수 있다고 주장했습니다. 하지만 주주들과 알트먼의 복직 요구는 그 어느 것도 막지 못했습니다.
또한 Microsoft는 OpenAI와 그 이사회에 상당한 강압적인 권한을 가지고 있습니다. 알트먼이 해고되는 동안 나델라는 마이크로소프트와 OpenAI의 관계에 대해 "우리는 바로 거기 있습니다. 우리는 그들 아래에 있고, 그들 위에 있고, 그들 주변에 있습니다. 커널 최적화를 하고, 도구를 만들고, 인프라를 구축합니다. 그래서 많은 업계 분석가들이 '와우, 이건 정말 Microsoft와 OpenAI의 공동 프로젝트구나'라고 말하는 것 같습니다. 사실 앞서 말했듯이 우리는 이 모든 분야에서 매우 자급자족하고 있습니다."
또한 해고 당시 Microsoft는 OpenAI에 약속한 100억 달러의 투자금 중 일부만 지불했기 때문에 '독립적인' 비영리 이사회에 상당한 영향력을 행사할 수 있었습니다. 또한 Microsoft가 OpenAI가 의존하고 있는 클라우드 컴퓨팅 시스템을 철수하면 OpenAI는 더 이상 운영할 수 없게 됩니다.
알트먼이 복귀한 후, 그는 이전 이사회와 비슷한 기술 전문성이나 AI 거버넌스에 대한 실질적인 배경 지식이 부족한 새 이사회를 직접 선정한 것으로 추정됩니다. 기술 CEO이자 기업가인 디안젤로는 알트먼이 복귀한 후 남은 유일한 전직 이사회 멤버입니다. 새 이사회에는 AI 윤리 및 거버넌스보다는 수익 중심의 비즈니스나 정치 분야에서 더 많은 경험을 가진 위원들이 포함되어 있습니다. 이들은 또한 "알트먼의 열렬한 팬"인 것으로 알려졌습니다. 새로운 이사회 멤버 중에는 브렛 테일러와 래리 서머스도 포함되어 있습니다. 테일러는 실리콘 밸리에서 낯선 사람이 아니며 베이 지역의 다양한 영리 중심 벤처에 깊이 관여해 왔으며, 2024년 2월 14일에는 전 구글 임원 클레이 베이버와 함께 기업용 AI 챗봇 구축에 중점을 둔 스타트업을 출범시켰습니다. 서머스 박사는 경제학자이며 2023년 11월 이전에는 AI 기반 비즈니스에서 일한 경험이 없는 것으로 알려져 있습니다. Microsoft는 또한 이사회에서 관찰자 지위를 부여받아 표면적인 비영리 캐시카우를 면밀히 주시할 수 있게 되었습니다.
알트먼의 재임명과 이사회 재구성으로 비영리 부문, 영리 부문, 이사회, CEO 간의 균형 잡힌 시스템으로 설계된 OpenAI의 기업 구조는 원래 비영리 의 신중하게 설계된 비영리 구조는 순수하게 이윤을 추구하는 CEO와 인공지능 및 인공지능 공공 정책에 대한 기술적 전문성이 부족한 이사회로 대체되었습니다. 이제 이사회는 Microsoft의 옵저버 자리를 확보했습니다. 이번 조직 개편을 통해 OpenAI는 더 많은 인류를 위해 AGI를 개발한다는 비영리 사명을 포기하고, 막대한 권력이 부적절하게 집중되는 거대 영리 기업에서 벗어나고자 합니다.
오픈AI 이사회의 AI 기술에 대한 전문성, 중립성, 비영리 사명에 대한 헌신은 OpenAI의 미션에 특히 중요한데, 이는 OpenAI가 Microsoft의 라이선스 계약 목적에 따라 AGI를 충족했는지 여부를 결정하는 것이 이사회이기 때문입니다. 즉, 이사회는 OpenAI의 가장 강력하고 진보된 기술이 실제로 Microsoft의 독점 라이선스에서 제외되는지 여부를 결정해야 할 책임이 있습니다. 공개 액세스의 문을 닫아두는 데 상당한 금전적 이해관계를 가진 마이크로소프트의 입장을 고려할 때, OpenAI의 새 이사회는 포획, 충돌, 복종으로 인해 OpenAI가 AGI를 충족했다는 결론을 내리지 않을 충분한 이유가 있을 것입니다. 대신, 애니의 '내일'처럼 OpenAI의 AGI 달성은 언제나 먼 훗날의 일이 될 것이며, Microsoft는 창립 계약과 정반대로 대중이 배제된 상태에서 OpenAI의 최신 기술을 라이선스할 수 있게 될 것입니다.
오픈AI의 행동은 실리콘밸리에 큰 영향을 미칠 수 있으며, 만약 허용된다면 기술 스타트업의 패러다임 전환을 가져올 수 있습니다. 비영리 스타트업이 공익을 위한 AGI 기술 개발이라는 명시적인 목적으로 수천만 달러의 기부금을 모았고, 회사가 설립된 목적을 달성하기 직전에 회사가 세계 최대 기업의 폐쇄형 영리 파트너로 변신하여 피고인들에게 개인적으로 이익을 가져다준 이 사건은 중요한 의미를 지닙니다. 이 비즈니스 모델이 성공한다면 캘리포니아를 비롯한 다른 지역에서 벤처 캐피탈이 운영되는 방식을 완전히 재정의할 것입니다. 현명한 투자자들은 영리 기업으로 시작하는 대신 비영리 단체를 설립하고, 세전 기부금을 사용하여 연구 개발 자금을 조달한 다음, 기술이 개발되고 효과가 입증되면 그 결과물인 지적 재산 자산을 새로운 영리 벤처에 이전함으로써 자신과 이익을 극대화하는 기업 파트너를 풍요롭게 할 수 있습니다. 이는 캘리포니아나 이 나라에서 법이 작동하는 방식이 아니며, 법원이 이와 달리 판단한 첫 번째 사례도 아닙니다.
이 문제가 중요한 이유를 더 이해하기 위해 OpenAI의 새로운 비즈니스 모델이 작동한다면, 투자자가 비영리 단체에 '투자'를 통해 1달러를 받을 때마다 투자자는 주 및 연방 정부로부터 소득세 감면 형태로 약 50달러를 받게 됩니다. OpenAI의 새로운 비즈니스 모델이 성공하면 투자자가 비영리 단체에 '투자'하여 1달러를 벌 때마다 주 및 연방 정부로부터 약 50센트의 소득세 감면 혜택을 받게 되므로 투자자의 순 비용은 투자한 1달러당 50센트에 불과합니다. 그러나 OpenAI의 새로운 비즈니스 모델을 통해 이들은 전통적으로 영리 기업에 투자하여 즉각적인 세금 감면 혜택을 받지 못하는 사람들과 마찬가지로 정부 및 궁극적으로 대중의 지원을 받아 동일한 '수익'을 얻게 됩니다. 투자 관점에서 볼 때, 새로운 OpenAI 비즈니스 모델을 채택한 기업들과 경쟁하는 것은 상대 팀이 나보다 두 배나 많은 골밑 득점을 올리는 농구 게임과 같습니다. 법원이 이번 소송에서 OpenAI의 행동을 승인한다면 실리콘밸리에서 경쟁력을 유지하려는 모든 스타트업은 기본적으로 OpenAI 전략을 따라야 하며, 이는 스타트업의 표준 운영 절차가 되어 합법적인 비영리 단체, 정부 세수, 궁극적으로는 캘리포니아 주민과 그 밖의 사람들에게 손해를 끼치게 될 것입니다. 특히 OpenAI의 영리 부문은 최근 800억 달러에 가까운 가치를 인정받았습니다.
대중은 계속해서 이사회의 '심의 검토 과정'에 대해 어려움을 겪고 있습니다. 대중은 알트먼의 최초 해임으로 이어진 이사회의 '심의적 검토 절차'가 무엇인지는 여전히 베일에 싸여 있습니다. 그러나 한 가지 분명한 것은 머스크와 일반 대중에게 OpenAI가 영리를 위해 '돌이킬 수 없는' 비영리 사명을 버렸다는 것입니다. 많은 지도자와 지식인들이 OpenAI가 '폐쇄적인 영리 AI'가 된 아이러니와 비극에 대해 공개적으로 언급했습니다.
예를 들어, 2023년 11월 29일 MIT 경제학자들은 OpenAI의 새로운 수익 중심 지침에 대해 우려를 표명하는 오피니언 기고문을 Los Angeles Times에 게재했습니다. 이들은 "혁신과 무분별한 성장은 기술 업계의 종교가 되었고, 알트먼은 가장 충실한 선임 목사 중 한 명이었다"고 말했습니다. 경제학자들은 새로운 이사회가 아무리 심각한 사회적 비용이 발생하더라도 알트만이 OpenAI를 최대한 빠르게 확장할 수 있도록 할 가능성이 높다고 강조합니다.
시민 옹호 단체인 Public Citizen의 대표는 올해 초 캘리포니아 법무장관 Rob Bonta에게 공개 서한을 보내 OpenAI의 영리 자회사가 비영리 단체에 과도한 통제력을 행사하고 있는지, 비영리 단체의 목적이 알트만과 마이크로소프트의 리더십 아래 수익성으로 전환된 것은 아닌지 의문을 제기했습니다. 이 서한은 비영리 단체가 원래의 사명을 포기했다면 해산하고 자산을 다른 자선 단체에 양도해야 한다고 제안합니다.
2024년 1월 WIRED의 조사에 따르면 OpenAI는 최근 이전에 공개되었던 '주요 문서'에 대한 공개 액세스도 중단한 것으로 나타났습니다. 투명성에 대한 OpenAI의 원래 약속에 따라 OpenAI의 IRS 문서는 설립 초기부터 모든 일반인이 거버넌스 문서, 재무제표 및 이해 상충 규정의 사본을 볼 수 있다고 명시해 왔습니다. 그러나 WIRED가 이러한 문서를 요청했을 때 OpenAI는 정책을 변경했다고 밝혔습니다. 그 결과, 투명성에 대한 OpenAI의 오랜 약속에도 불구하고 대중은 2023년 11월의 사건을 밝히는 정보에 대한 접근을 거부당했습니다.
OpenAI의 문서에 접근할 수 있었다면 대중은 OpenAI가 Microsoft와 다른 주주들을 만족시키기 위해 지배 구조를 변경했는지 확인할 수 있었을 것입니다. 최소한 알트만이 글로벌 AI 칩 제조업체 네트워크를 개발하기 위해 중동 투자자와 7조 달러에 달하는 자금을 조달하기 위해 논의 중인 상황에서 마이크로소프트의 이사회 의석을 수용하기 위해 변경이 이루어져야 할 것입니다. Microsoft가 100억 달러만 투자해도 이사회 의석을 확보할 수 있다면, 이 새로운 잠재적 투자가 투자자들에게 미칠 영향력을 상상해 보세요. 특히 잠재적 기부자 중 한 명이 아랍에미리트의 국가 안보 보좌관이고 미국 관리들이 아랍에미리트와 중국의 관계 때문에 우려하고 있다는 점은 문제가 됩니다. 또한 알트만은 아랍에미리트를 AI 기술을 테스트할 수 있는 '규제 샌드박스'로 만들 가능성에 대해서도 언급했습니다.
또한, OpenAI의 이해상충 정책에 대한 접근 권한은 알트만이 개인의 재정적 이익을 위해 OpenAI를 사용하는 것을 통제할 수 있는 이사회의 능력을 드러내는 데 매우 중요한데, 지금까지는 이를 견제하지 않은 것으로 보입니다. 예를 들어, 2019년 알트만이 CEO로 재직하던 당시 OpenAI는 알트만이 거액을 투자한 스타트업으로부터 5,100만 달러 상당의 칩을 구매하겠다는 의향서에 서명했습니다.
OpenAI는 한때 대중과의 열린 소통을 기반으로 안전하고 책임감 있는 AGI 개발의 선구자였지만, 지금은 영리 자회사의 최대 투자자를 인류에 대한 신탁 책임을 가진 유일한 이사회에 영입하는 문을 닫고 수익 중심적인 인류에게 잠재적으로 재앙적인 결과를 초래할 수 있는 미래를 향해 비밀리에 움직이고 있습니다.
머스크는 알트만, 브록만과 함께 영리 기업이 아닌 인류에게 도움이 되는 AGI를 만들겠다는 설립 계약에 따라 OpenAI, Inc.를 공동 설립하고 자금을 지원했습니다. 2023년에 사건이 전개되면서, 그가 OpenAI, Inc.에 기부한 금액은 피고와 세계 최대 기업의 이익을 위해 왜곡되었습니다. 이는 설립 계약에 대한 명백한 배신이며, 이를 거꾸로 뒤집고 OpenAI, Inc.의 사명을 왜곡한 것입니다. 아마존 열대우림을 보호하는 것이 사명이라고 주장하는 비영리 단체에 기부했는데, 그 비영리 단체가 기부금으로 아마존 벌목 회사를 설립해 열대우림을 벌목하는 데 사용한다고 상상해 보세요. 이것이 바로 OpenAI의 이야기입니다.
샘 알트먼은 블로그 포스팅을 통해 미래의 기술 발전은 우리 조상들이 거의 '마법'이라고 생각했던 일들을 가능하게 할 것이며, 이러한 변화를 주도하는 핵심은 AI의 혁신 가속화가 될 것이라고 강조합니다.
JinseFinance샘 알트먼,OpenAI,일론 머스크,권력과 배신: 머스크와 알트먼이 형제애에서 비즈니스 라이벌로 거듭난 방법 골드 파이낸스,한때 영웅, 이제는 라이벌
JinseFinance엘론 머스크,OpenAI,샘 알트먼,기술계의 법정 드라마: 머스크, 알트먼, OpenAI의 파워 플레이 골든 파이낸스,머스크와 알트먼의 수년간의 복잡한 관계.
JinseFinance초기 협업부터 복잡한 불화까지 샘 앨트먼과 일론 머스크의 복잡한 관계의 여정을 살펴보세요. 두 사람의 의견 차이가 리더십, 혁신, 기술 업계의 역학 관계에 미치는 영향에 대해 자세히 알아보세요. 기술 리더십의 진화와 주목할 만한 업계 분쟁의 광범위한 영향에 대한 인사이트를 얻으세요.
Brian내부 혼란과 직원들의 반대, 리더십의 변화로 인해 샘 알트먼이 예상치 못하게 OpenAI의 CEO로 복귀했습니다.
Hui XinMicrosoft CEO 사티아 나델라(Satya Nadella)는 penAI의 공동 창립자인 샘 알트먼과 그렉 브록먼이 Microsoft에 합류했다고 발표했습니다.
Olive축출된 CEO 샘 알트먼이 복직을 모색하면서 OpenAI의 내부 갈등이 심화되고 있습니다. 이사회의 저항, Microsoft의 역할, 불확실한 리더십의 미래가 균형을 이루고 있습니다.
BerniceOpenAI의 갑작스러운 CEO 해임은 업계 전반의 추측을 불러일으키며 조직의 미래 방향과 기술 발전에 대한 우려를 불러일으켰습니다.
Hui Xin인도네시아는 새로 도입된 황금 비자 프로그램의 첫 번째 수혜자가 된 OpenAI의 CEO인 샘 알트먼을 열렬히 환영했습니다.
Kikyo어제 Worldcoin 네트워크는 생체 인식 디지털 ID를 전 세계에 제공한다는 원대한 목표를 가지고 공식적으로 가동되었습니다...
Ledgerinsights