안전한 초지능을 위한 탐구
인공지능의 혁신적인 발전의 대명사인 일리야 수츠케버는 2024년 5월 AI 커뮤니티의 헤드라인을 장식한 인물입니다.
인공 일반 지능(AGI)의 윤리적 개발에 전념하는 연구 기관인 OpenAI를 공동 설립했습니다,서츠케버는 자신이 만든 조직을 갑자기 떠났습니다. .
그의 퇴사는 '슈퍼 얼라이언스 팀'의 리더 중 한 명이었던 전 동료 얀 라이크와 같은 날 발표되었습니다.
AI 개발에서 안전의 우선순위를 두고 Sutskever와 OpenAI 경영진 사이에 균열이 생겼다는 소문이 돌기 시작했습니다.
하지만 이 극적인 퇴사가 서츠케버의 여정의 끝은 아니었습니다. 불과 한 달 후, 그는 다음 벤처기업인 세이프 슈퍼인텔리전스(SSI)를 발표했습니다.
이 새로운 회사는 무엇보다 안전을 최우선으로 하는 슈퍼 인텔리전스를 구축하는 데 중점을 두고 OpenAI에서 과감하게 출발했습니다.
일리야 수츠케버는 누구인가요?
소셜:X |링크드인
일리아 수츠케버는 이스라엘계 캐나다인 컴퓨터 과학자로 인공지능, 특히 딥러닝 분야에 큰 공헌을 한 인물입니다.
그는 2012년 이미지넷 대회에서 획기적인 성과를 거두며 딥러닝을 주류로 끌어올린 컨볼루션 신경망인 AlexNet을 공동 발명한 것으로 가장 잘 알려져 있습니다.
또한, 안전한 인공 지능을 개발하는 연구 회사인 OpenAI의 공동 창립자이자 전 수석 과학자였습니다.
OpenAI에서 그는 대규모 언어 모델인 GPT 시리즈를 개발하는 데 주도적인 역할을 담당했습니다.
2024년 6월, 서츠케버는 안전하고 유익한 초지능을 만드는 데에만 집중하기 위해 Safe Superintelligence Inc.를 공동 설립하고 수석 과학자로 재직하고 있습니다.
OpenAI와 분리하여 SSI를 구축한 이유
서츠케버가 OpenAI를 떠난 것은 AI 연구 우선순위에 대한 근본적인 의견 불일치에서 비롯되었습니다.
샘 알트만(왼쪽) OpenAI CEO와 수츠케버(오른쪽).
그는 OpenAI가 점점 더 강력해지는 AI 시스템의 안전성을 보장하는 것보다 기능의 빠른 발전을 우선시하고 있다고 생각했는데, 이는 잠재적으로 위험한 ChatGPT 4.0 언어 모델의 출시로 부각된 우려였습니다.
서츠케버는 다른 안전 연구자들과 함께 강력한 안전 프로토콜을 발전과 함께 개발하는 것이 중요하다고 생각했습니다.
서츠케버에 따르면, '반짝이는 제품'에 집중하는 OpenAI의 리더십과 이러한 불일치로 인해 결국 그는 안전한 AI 개발에만 집중하기 위해 세이프 슈퍼인텔리전스(SSI)를 설립하게 되었습니다.
세이프 슈퍼인텔리전스 소개
SSI의 사명 선언문은 안전한 초지능을 개발한다는 놀랍도록 명확하고 간결합니다.
이 특별한 초점은 회사의 구조와 운영의 모든 측면에 스며들어 있습니다.
여러 제품 라인과 상업적 압박을 받는 기존 기술 회사와 달리 SSI는 간소화된 접근 방식으로 운영됩니다.
관리 오버헤드와 제품 주기를 최소화하여 안전한 초지능 구축이라는 핵심 목표에 리소스와 집중력을 집중할 수 있습니다.
또한 새로 만든 X 계정임에도 불구하고 SSI는 첫 게시물을 올린 지 불과 2주 만에 팔로워 수가 68,400명 이상으로 급증했습니다.
이러한 빠른 성장은 이 프로젝트에 대한 높은 기대와 관심을 반영합니다.
초지능으로 안전한 미래를 구축하기 위한 SSI의 접근 방식
수츠케버는 SSI를 이전의 어떤 AI 연구소와도 다른 혁신적인 조직으로 구상했습니다.
다음은 SSI의 접근 방식의 초석입니다:
단일 초점
SSI는 단순한 회사가 아니라 사명 선언문이 실현된 회사라고 할 수 있습니다.
회사의 정체성 전체가 안전한 초지능 구축이라는 핵심 목표를 중심으로 돌아갑니다. 이는 제품 주기나 수익 마진에 신경 쓰지 않고 간소화된 운영으로 이어집니다.
모든 결정과 리소스 배분은 가장 중요한 목표를 달성하기 위해 세심하게 이루어집니다.
안전과 역량: 공생의 춤
SSI의 철학의 핵심에는 안전과 역량이 상호 배타적이지 않다는 개념이 자리 잡고 있습니다.
이들은 AI 기능의 발전과 함께 철저한 안전 대책이 함께 개발되는 미래를 상상합니다.
이를 통해 초지능은 통제할 수 없는 힘이 아니라 선한 목적으로 사용되는 강력한 도구가 될 수 있습니다.
'린, 크랙' 팀과 함께 암호 해독하기
그들이 직면한 엄청난 도전을 인식하고 있는 SSI는 연구자 군대를 구축하려고 하지 않습니다.
대신, 그들은 세계에서 가장 뛰어난 인재들로 엄선된 그룹, 즉 Sutskever가 직접 표현한 대로 '린, 크랙' 팀을 세심하게 구성하고 있습니다.
이 엘리트 그룹은 안전한 초지능 개발에만 집중하여 최고의 아이디어가 번창할 수 있는 협업 환경을 조성할 것입니다.
전략적 위치
SSI는 지리적 위치가 최고의 인재를 유치하는 데 중요한 역할을 한다는 것을 잘 알고 있습니다.
팔로알토와 텔아비브에 전략적으로 지사를 설립했으며, 두 곳 모두 최첨단 연구와 우수한 엔지니어 및 연구 인력으로 가득한 허브입니다.
하지만 왜 텔비비일까요?
X 사용자가 SSI가 그곳에 있는 이유를 공유했습니다.
번역:
일리야의 새 회사 SSI의 사무실이 실리콘밸리뿐만 아니라 이스라엘 텔아비브에도 있다는 사실을 모두가 간과하고 있습니다. 일리야와 다니엘 그로스는 모두 이스라엘 예루살렘에서 어린 시절을 보냈으며 이스라엘의 인재 밀집도를 중요하게 생각하기 때문입니다.
장기적인 관점에서 구축된 비즈니스 모델
SSI는 안전한 초지능을 추구하는 것이 단거리 달리기가 아니라 마라톤이라는 것을 알고 있습니다.
이들의 비즈니스 모델은 단기적인 상업화 압박에서 벗어나도록 설계되었습니다.
이를 통해 분기별 수익의 제약에서 벗어나 장기적인 연구 개발에 집중할 수 있습니다.
SSI를 이끄는 원동력
이 야심찬 벤처에는 서츠커만 있는 것이 아닙니다. 그는 AI 업계에서 두 명의 저명한 인물인 다니엘 그로스와 다니엘 레비와 함께 일하고 있습니다.
다니엘 그로스 전략적 조타수
소셜:X|링크드인
AI 업계의 베테랑인 그로스는 풍부한 경험을 바탕으로 SSI에 합류했습니다. SSI를 공동 설립하고 CEO로 재직하기 전에는 Apple에서 AI 책임자라는 권위 있는 직책을 맡았습니다.
그의 여정은 1991년 그가 태어난 이스라엘 예루살렘에서 시작되었습니다.
2010년, 그로스는 온라인 계정 통합을 위한 선구적인 검색 엔진인 Greplin(이후 Cue로 명칭 변경)을 출시하며 최연소 창업자로 Y Combinator 프로그램에 합격해 화제를 모았습니다.
기업가적 역량을 인정받은 그로스는 2011년 포브스의 '30세 이하 30인'에 선정되었고, 2011년에는 기술 분야의 30세 이하 30인 중 한 명으로 선정되었습니다.비즈니스 인사이더의 '2011년 실리콘 밸리의 25세 이하 25인'은 다음과 같이 선정되었습니다. .
그의 성공은 2013년 Cue가 Apple에 인수된 후에도 계속되었습니다.
그 후 그로스는 Y Combinator의 파트너로 합류하여 AI에 집중하고 2017년에 'YC AI' 프로그램을 시작했습니다. 2018년에는 초기 단계 스타트업 액셀러레이터이자 펀드인 파이오니어를 설립했습니다.
Gross의 AI에 대한 깊은 이해와 함께그의 기업가적 실적 를 통해 SSI의 전략적 방향을 설정하는 데 중추적인 역할을 담당하고 있습니다.
그의 통찰력은 SSI가 AI 안전과 개발의 복잡성을 헤쳐나가는 데 매우 중요한 역할을 할 것입니다.
투자자들은 AI 그랜트 및 안드로메다 클러스터와 같은 획기적인 연구 이니셔티브를 위한 자본 유치에 성공한 Gross의 자금 확보 능력에 확신을 가질 수 있습니다.
다니엘 레비: 기술 거장
소셜:X|링크드인
레비는 선도적인 AI 연구자로 명성이 자자합니다.
OpenAI에서 근무하는 동안 갈고 닦은 대규모 AI 모델 학습에 대한 그의 전문성은 SSI의 귀중한 자산이 될 것입니다.
공동 창립자이자 수석 과학자인 레비의 기술력은 그의 자격을 뛰어넘는 수준입니다.
그는 OpenAI에서 Sutskever와 함께 일한 경험을 바탕으로 이 혁신적인 프로젝트를 추진하면서 원활한 협업을 보장합니다.
레비의 역할은 AI 안전과 기능의 한계를 뛰어넘기 위한 SSI의 확고한 의지를 반영합니다.
AI 부문에 미치는 잠재적 영향
SSI의 미션은 여러 가지 방식으로 AI 분야를 재정의할 수 있는 잠재력을 가지고 있습니다.
첫째, SSI는 안전을 우선시함으로써 책임감 있는 AI 개발을 위한 새로운 기준을 제시합니다.
이러한 성공은 다른 기업들도 이와 유사한 안전 우선 접근 방식을 채택하도록 장려할 수 있습니다.
둘째, SSI의 획기적인 안전 프로토콜은 초지능뿐만 아니라 다양한 AI 시스템에 적용될 수 있습니다.
이는 AI 기술의 전반적인 안전성과 신뢰성 측면에서 상당한 발전을 가져올 수 있습니다.
도전과 반론
야심찬 목표에도 불구하고 SSI는 몇 가지 도전 과제에 직면해 있습니다.
비평가들은 초지능을 개발하는 것 자체가 기술적 어려움으로 가득 차 있으며, 강력한 안전 조치를 통합하는 것은 그 과정을 더욱 복잡하게 만든다고 주장합니다.
기능과 안전 메커니즘을 동시에 개발하는 것은 지나치게 낙관적이어서 계획된 일정 내에 달성하기 어려울 수 있습니다.
또한 일각에서는 안전에만 집중하는 SSI가 끊임없이 변화하는 AI 시장의 역학 관계에 적응하는 데 한계가 있을 수 있다고 주장합니다.
초지능 개발에만 집중하면 새로운 트렌드나 예상치 못한 장애물에 대응하는 SSI의 능력이 제한될 수 있습니다.
또한 소규모의 엘리트 팀에 의존할 경우 잠재적인 위험도 있습니다.
핵심 구성원이 이탈하거나 성과를 내지 못하면 그룹 내 지식과 전문성이 집중되는 것이 취약점이 될 수 있습니다.
SSI는 공적 자금이 지원되나요?
2024년 7월 8일인 오늘 현재, 세이프 슈퍼인텔리전스(SSI)는 자금 조달이나 후원자에 대한 정보를 공개하지 않고 있습니다.
회사 설립자의 배경을 바탕으로 잠재적 투자자에 대한 추측이 있었지만 확인된 바는 없습니다.
그러나 SSI는 재정 상황에 대해 입을 굳게 다물고 있습니다.
안전한 초지능을 위한 대담한 추구
안전한 초지능을 달성하기 위한 탐구는 대담한 도전이며, 기술적 장애물과 철학적 난제로 가득 차 있습니다.
레이저 포커스와 '린, 크랙' 팀으로 구성된 SSI는 이러한 도전에 대한 대담한 접근 방식을 구현합니다.
이 프로젝트가 성공한다면 안전을 우선시하고 책임감 있는 연구에 대한 높은 기준을 제시하는 새로운 AI 개발 시대를 열 수 있을 것입니다.
하지만 앞으로의 길은 불확실성으로 가득 차 있습니다.
소규모 팀이 초지능과 안전의 복잡성을 효과적으로 탐색할 수 있을까요?
한 가지에 집중하는 것만으로는 빠르게 진화하는 이 분야에서 적응하는 데 한계가 있을까요?
AI의 미래와 인류에 미칠 영향을 재정의할 잠재력을 지닌 SSI의 여정을 면밀히 지켜볼 것입니다.