기사 출처
초지능 AI의 출현이 임박했습니다.
ㅏ블로그 게시물 OpenAI의 CEO인 Sam Altman, OpenAI 회장 Greg Brockman, OpenAI 수석 과학자 Ilya Sutskever가 공동 저술한 이 보고서는 잠재적으로 치명적인 시나리오를 방지하기 위해 인공 지능 개발에 엄격한 규제가 필요하다고 경고합니다.
"지금은 초지능의 거버넌스에 대해 생각하기 시작하기에 좋은 때입니다." Altman은 미래의 AI 시스템이 기능 측면에서 AGI를 훨씬 능가할 수 있음을 인정하면서 말했습니다. "현재 우리가 보는 그림을 고려할 때, 향후 10년 이내에 AI 시스템은 대부분의 영역에서 전문가 기술 수준을 능가하고 오늘날 최대 기업 중 하나만큼 생산적인 활동을 수행할 것이라고 상상할 수 있습니다."
Altman이 그의 회의에서 제기한 반향 우려최근 증언 의회 앞에서 세 사람은 전략적 미래 계획에 중요하다고 생각하는 세 가지 기둥을 설명했습니다.
"출발점"
첫째, OpenAI는 제어와 혁신 사이에 균형이 있어야 한다고 믿으며 "안전을 유지하고 이러한 시스템을 사회와 원활하게 통합할 수 있도록 하는" 사회적 합의를 추진했습니다.
다음으로 그들은 "국제적 권위"라는 개념을 옹호했습니다. 시스템 검사, 감사 집행, 안전 표준 준수 테스트, 배포 및 보안 제한을 담당합니다. 국제원자력기구와 유사점을 그리면서 그들은 전 세계 AI 규제 기관이 어떤 모습일지 제안했습니다.
마지막으로 '기술력'의 필요성을 강조했다. 초지능에 대한 통제력을 유지하고 "안전"하게 유지하기 위해. 이것이 수반하는 것은 OpenAI에게도 여전히 모호하지만, 게시물은 초지능 기준 아래로 떨어지는 기술에 대한 라이선스 및 감사와 같은 번거로운 규제 조치에 대해 경고했습니다.
본질적으로 아이디어는 초지능을 트레이너의 의도에 맞춰 유지하여 인간의 통제를 능가하는 AI 기능의 빠르고 제어할 수 없는 폭발인 "거짓말 시나리오"를 방지하는 것입니다.
OpenAI는 또한 AI 모델의 통제되지 않은 개발이 미래 사회에 미칠 수 있는 잠재적으로 치명적인 영향에 대해 경고합니다. 해당 분야의 다른 전문가들은 이미 유사한 우려를 제기했습니다.AI의 대부 AI 기업 창업자들에게스태빌리티 AI처럼 그리고 심지어이전 OpenAI 작업자 과거에 GPT LLM 교육에 참여했습니다. AI 거버넌스 및 규제에 대한 선제적 접근 방식에 대한 긴급한 요구는 전 세계 규제 당국의 관심을 끌었습니다.
"안전한" 초지능의 도전
OpenAI는 이러한 문제가 해결되면 AI의 잠재력을 더 자유롭게 활용할 수 있다고 믿습니다.
저자는 또한 공간이 현재 빠른 속도로 성장하고 있으며 이는 변하지 않을 것이라고 설명했습니다. "그것을 막으려면 글로벌 감시 체제와 같은 것이 필요하며 그조차도 작동한다는 보장은 없습니다."라고 블로그는 말합니다.
이러한 도전에도 불구하고 OpenAI의 리더십은 "초지능을 안전하게 유지하기 위한 기술적 능력을 어떻게 확보할 수 있습니까?"라는 질문을 탐구하는 데 전념하고 있습니다. 지금 세상에는 답이 없지만 ChatGPT가 제공할 수 없는 답변이 반드시 필요합니다.