마일스 브런디지 수석 고문이 모호한 퇴사 서한을 남기고 떠나면서 OpenAI의 사임 추세가 눈덩이처럼 불어나고 있습니다.
또 다른 OpenAI 경영진이 떠납니다
OpenAI의 AGI 준비 부문 수석 고문인 마일스 브런디지(Miles Brundage)가 6년간의 임기를 마치고 물러났습니다.
에 게시된 게시물에서X(이전의 트위터) 및에세이를 뉴스레터를 통해 공유했습니다, 브런디지는 비영리 부문에서 연구자이자 옹호자로서 더 큰 영향력을 발휘할 수 있다는 신념을 밝히며, 자유롭게 출판할 수 있다고 생각했습니다;
그는 기술 산업 외부의 AI 정책 연구에 집중할 계획입니다.
브루디지 표현:
"이 어려운 결정을 내리게 된 이유 중 하나는 OpenAI에서 일하는 것이 그 어느 때보다 영향력이 큰 기회라는 점입니다. OpenAI는 사명에 대해 깊은 관심을 갖고 개발 및 배포(시간이 지남에 따라 점점 더 중요해질 내부 배포 포함)에 대한 엄격한 의사 결정 문화를 유지하기 위해 헌신하는 직원을 필요로 합니다."
방금 동료들에게 이 메시지를 보냈고, 블로그 게시물에서 저의 결정과 다음 단계에 대해 자세히 설명했습니다(다음 트윗 참조):pic.twitter.com/NwVHQJf8hM
마일스 브런디지 (@Miles_Brundage)2024년 10월 23일
그의 움직임은 다음과 같은 시점에 발생합니다.CEO 샘 알트먼의 OpenAI 는 AI 발전에 박차를 가하기 위해 일관성 모델과 같은 새로운 제품을 도입하는 등 내부 문제와 혁신에 고심하고 있습니다.
브런디지의 OpenAI 시간
브런디지는 2018년에 OpenAI에 합류하여 ChatGPT와 같은 고급 AI 시스템과 관련된 정책 및 안전 문제를 해결하는 데 중추적인 역할을 담당했습니다.
그는 이러한 기술을 책임감 있게 관리하고 배포하는 데 주력했습니다.
OpenAI에서 근무하기 전에는 옥스퍼드 대학교의 인류의 미래 연구소에서 연구원으로 근무했습니다.
브루디지는 OpenAI에서 근무하는 동안 회사의 레드팀 프로그램 개발에 크게 기여했으며, AI 모델의 강점과 약점을 평가하는 '시스템 카드' 보고서를 작성하는 데 중요한 역할을 했습니다.
AGI 준비 팀의 일원으로서 그는 언어 생성 시스템의 윤리적 배포를 강조하고 다음과 같은 지침을 임원진에게 제공했습니다.Altman 를 통해 AI와 관련된 윤리적 문제에 대해 알아보세요.
브런디지는 중요한 성장기에 조직 내에서 강력한 안전 문화를 조성하는 데 도움을 주었습니다.
주목할 만한 퇴사 소식: 충실한 정책 연구원이자 OpenAI의 수석 고문인 마일스 브런디지가 이 거대 기술 기업에 작별을 고합니다. 그 이유는 무엇일까요? 더 큰 영향력과 출판의 자유를 위해 비영리 부문에 대한 소명 때문입니다. 📚💡
인터믹스테크 (@IntermixTech)2024년 10월 23일
2018년 OpenAI에 입사한 브런디지는 ...
브런디지는 자신의 경험을 되돌아보며 OpenAI에서의 시간을 매우 영향력 있는 기회였다고 설명하며 사임 결정이 어려웠음을 인정했습니다.
그는 회사의 사명을 높이 평가하면서 AI 정책 논의에 더 많은 독립적인 연구자들을 포함시켜야 한다고 주장했습니다.
이제 OpenAI의 연속 사직이 일반화되었습니다.
브런디지의 사임은 최근 몇 주 동안 최고기술책임자 미라 무라티, 최고연구책임자 밥 맥그로우, 연구 부사장 바렛 조프가 떠나는 등 OpenAI의 리더십이 크게 변화하는 가운데 이루어졌습니다.
올해 초 저명한 연구 과학자 안드레이 카르파티가 떠났고, 이어서공동 창립자이자 전 수석 과학자 일리아 수츠케버(Ilya Sutskever) 와 전 안전 리더 얀 라이크.
지난 8월에는 공동 창업자 존 슐먼이 퇴사를 발표했으며, 현재 사장인 그렉 브록먼은 장기 휴직 중입니다.
#OpenAI 와 CEO 샘 알트먼에게 숨겨진 문제가 있습니다. 공동 창립자인 일리야 수츠케버와 존 슐만이 떠난 후 CTO인 미라 무라티가 떠납니다.
에단 에반스 (@EthanEvansVP)2024년 9월 25일
저는 샘 알트먼을 잘 모르지만 경영진은 잘 알고 있습니다.
최근 뉴욕타임스는 자신이 개발을 돕던 기술이 득보다 실이 많을 수 있다는 우려로 퇴사한 전 OpenAI 연구원 수치르 발라지를 조명하며 이러한 소란을 더했습니다.
발라지가 10월 23일에 블로그 게시물을 작성했습니다. 에서 공정 사용 및 생성형 AI의 핵심 사항에 대해 자세히 알아보세요.
OpenAI의 논란! 회사에서 4년간 근무했던 전 직원 수치르 발라지는 저작권이 있는 데이터를 사용하는 것은 법을 위반하는 것이며 ChatGPT가 인터넷에 피해를 주고 있다고 주장합니다. 그는 2024년 8월에 퇴사했는데, 이 대담한 고발에 대해 어떻게 생각하시나요?#OpenAI#ChatGPT ...pic.twitter.com/IzLLHn9gyB
푸푸웹 블로그 (@cheinyeanlim)2024년 10월 24일
브런디지의 탈퇴에 대한 대응입니다,Altman 는 브런디지의 결정에 지지를 표하며, 브런디지가 앞으로 대외 정책 연구 분야에서 수행할 작업이 OpenAI에 도움이 될 것이라고 제안했습니다.
그러나 최근 전직 직원과 이사회 멤버들의 비판에 따르면 OpenAI가 점점 더 AI의 안전보다 상업적 이익을 우선시한다는 분위기가 확산되고 있습니다.
에 게시한 글에서X 브런디지는 회사의 미래 방향과 책임감 있는 AI 개발에 대한 헌신에 대해 중요한 질문을 제기하면서 조직이 어떻게 개선할 수 있는지에 대해 OpenAI 직원들에게 '자신의 생각을 말하라'고 독려했습니다.
그는 이렇게 썼습니다:
"어떤 사람들은 제가 떠나는 것이 슬프다고 말하기도 하고, 제가 여기 있는 동안 우려나 질문을 자주 제기해줘서 고맙다고 말하기도 했습니다... OpenAI에는 앞으로 어려운 결정이 많으며 집단 사고에 굴복하면 올바른 결정을 내릴 수 없을 것입니다."
브런디지의 다음 계획은 무엇인가요?
브런디지가 떠난 후, AGI 준비팀의 일부였던 OpenAI의 경제 연구 부문은 이제 새로 임명된 수석 이코노미스트인 로니 채터지의 지휘 아래 운영될 예정입니다.
AGI 준비팀이 해체됨에 따라 남은 프로젝트는 OpenAI 내 다른 부서로 재배치될 예정이며, 미션 조정 책임자인 조슈아 아치암이 이러한 이니셔티브 중 일부를 감독할 예정입니다.
OpenAI 대변인은 업계 외부에서 정책 연구를 진행하기로 한 브런디지의 결정에 전폭적인 지지를 표하며, 그의 중요한 기여에 감사를 표했습니다. https://www.coinlive.com/news/openai-sounds-alarm-on-its-ai-models-being-used-in
대변인은 성명에서 이렇게 말했습니다:
"AI 정책에 대한 독립적인 연구에 올인하겠다는 브런디지의 계획은 그가 더 넓은 범위에서 영향력을 발휘할 수 있는 기회를 제공할 것이며, 우리는 그의 연구를 통해 배우고 그 영향을 따라갈 수 있게 되어 기대가 큽니다. 새로운 직책을 맡게 된 마일즈가 업계와 정부의 정책 결정의 기준을 계속 높여나갈 것이라 확신합니다."
그러나 대변인은 누가 브런디지의 책임을 맡을지는 밝히지 않았습니다.
브런디지는 AI 규제와 경제적 영향, 그리고 AI의 미래 안전성에 초점을 맞출 계획입니다.
그는 이러한 영역이 특히 일관성 모델과 같은 모델과 관련하여 AI 애플리케이션이 제기하는 문제를 해결하는 데 매우 중요하다고 생각합니다.
이 글을 꼭 읽어보시길 추천합니다.마일즈_브런디지 는 AI 비영리 독립 연구에 집중하기 위해 OAI를 떠나고 있습니다. 그의 사려 깊고 분열을 일으키지 않는 접근 방식은 정말 칭찬할 만합니다.https://t.co/ZDXTJ0Sg5b
AI 망루 ⏸️ (@FurtherAwayPL)2024년 10월 23일
그의 변화는 책임감 있는 AI 거버넌스의 중요성과 업계 전반에 미치는 영향이 점점 커지고 있음을 강조합니다.
알트만, 지속되는 불안 속에서 일관성 모델과 AI 업데이트 출시
병렬로,Altman의 OpenAI 는 AI의 샘플링 프로세스를 가속화하기 위한 접근 방식인 일관성 모델을 공개했습니다.
이 모델은 기존의 확산 모델보다 더 빠르게 고품질 샘플을 생성하도록 설계되어 AI 기술의 비약적인 발전을 의미합니다.
단순화된 공식, 향상된 교육 안정성 및 확장성을 갖춘 최신 일관성 모델인 sCM을 소개합니다.
OpenAI (@OpenAI)2024년 10월 23일
sCM은 주요 확산 모델에 필적하는 샘플을 생성하지만 두 가지 샘플링 단계만 필요합니다.https://t.co/rHHSE95sjo
이번 출시는 특히 다음과 같은 효율성 문제를 해결하면서 기능을 강화하려는 OpenAI의 광범위한 전략에 부합합니다.66억 달러의 자금을 유치한 데 이어서요.
그러나 이러한 모델의 도입은 회사의 관행, 특히 모델 교육과 관련된 저작권 위반 혐의에 대한 조사가 강화되고 있는 가운데 이루어졌습니다.
발라지를 포함한 전 OpenAI 직원들은 회사의 방식에 대해 우려를 표명하며 AI 기술의 거버넌스에 대한 광범위한 논쟁을 촉발시켰습니다.
발라지는 특히 OpenAI가 허가 없이 지적재산권으로 보호된 데이터를 교육에 활용함으로써 저작권을 침해했다고 비난했으며, 이는 현재 진행 중인 집단 소송에서 다른 사람들도 같은 주장을 하고 있습니다.
저는 최근에 공정 사용과 생성형 AI에 관한 NYT 기사에 참여했으며, 왜 제가 '공정 사용'이 많은 생성형 AI 제품에 대한 그럴듯한 방어책이 될 수 있을지 회의적인지에 대해 설명했습니다. 또한 블로그 게시물(https://t.co/xhiVyCk2Vk ) 공정 사용의 핵심 사항과 그 이유에 대해 자세히 알아보세요.
수치르 발라지 (@suchirbalaji)2024년 10월 23일
유명 리더들의 지속적인 퇴사를 포함한 이러한 변화는 다음과 같은 영향을 미칠까요?OpenAI의 향후 궤적은?