アルトマン、AIに「人類を愛してほしい」と願う。
オープンAI CEO サム・アルトマン AIが人類を愛することだ;
この特性はAIシステムに組み込むことができると確信しているが、確実性はないと彼は認めている。
ハーバード・ビジネス・スクールのデボラ・スパー上級副学長から質問を受けたアルトマンは、「そう思います」と答えた。
アイザック・アシモフの小説からジェームズ・キャメロンの映画大作まで、かつてはサイエンス・フィクションの領域と思われていたものが、今や深刻で差し迫った議論へと発展している。
以前は推測の域を出なかったAIの反乱という考え方は、今や規制当局の正当な懸念事項となっている。
かつては陰謀論に追いやられていたかもしれない会話が、いまや世界中で政策議論を形成している。
アルトマンは次のように強調した。OpenAI's 政府とはかなり建設的な関係を築いており、AIの急速な進化に対応するためには協力が重要であることを認めている。
彼はまた、AIのような大規模なプロジェクトは政府が主導するのが理想的であるとし、AIの開発が社会に与える影響の大きさを強調した。
アルトマンはそう指摘した:
「うまく機能している社会であれば、これは政府のプロジェクトになるだろう。そうなっていないことを考えると、アメリカのプロジェクトとしてこのような形になっているのは良いことだと思う」。
AIの安全ガイドラインはまだまだ
連邦政府はAIの安全性に関する法整備をほとんど進めていない。
カリフォルニア州で最近行われた試みでは、大量破壊兵器の開発や重要インフラへの攻撃など、大惨事を招くような悪用に対してAI開発者に責任を負わせようとするものだった。
法案は州議会を通過したものの、最終的にはギャビン・ニューサム知事によって拒否権が発動された。
AIと人間の福祉との整合性に取り組むことの緊急性は、この分野で最も影響力のある人々によって強調されてきた。
AIのゴッドファーザーと呼ばれるノーベル賞受賞者ジェフリー・ヒントン氏は、AIの安全性を保証する明確な道筋が見えないことを認め、重大な懸念を表明している。
同様に、テスラCEO イーロン・マスク は一貫して、AIは人類に存亡の危機をもたらすと警告してきた。
皮肉なことに、現在のAIのやり方を声高に批判するマスクは、OpenAIの設立の中心人物であり、初期に多額の資金を提供した。
AIの安全性という課題は、こうした懸念に対処するための専門組織の設立に拍車をかけている。
OpenAIの元最高科学責任者が設立したAlignment Research CenterやSafe Superintelligenceのようなグループが登場し、AIシステムが人間の価値観に合致して作動するための戦略を模索している。
このような努力は、AIの急速な発展には、人類の未来を守るために、同様に厳格な保護措置が必要であるという認識の高まりを浮き彫りにしている。
アルトマン、AIが共感を獲得することを期待
アルトマン 現在のAIの設計はアライメントに適しており、AIシステムが人類に害を及ぼさないようにすることは、多くの人が考えているよりも実現可能であると信じている。
彼は言った:
「驚くほどうまくいったことのひとつは、AIシステムに特定の行動をとらせることだ。つまり、さまざまなケースにおいて、それが何を意味するのかを明確にすることができれば、システムをそのように動作させることができるのだ。
彼は、AI開発の指針となるべき原則と価値を定義するための革新的なアプローチを提案している。
アルトマン AIチャットボットを使って数十億人のユーザーにアンケートを取り、彼らの価値観や優先順位に関する洞察を集めることを想定している。
深く広範なコミュニケーションを促進することで、AIは社会的課題のニュアンスを理解し、どのような対策が国民の幸福に最も役立つかを見極めることができるだろう。
彼はこう説明した:
「私は、AIがあなたの価値観について2、3時間おしゃべりをするという思考実験に興味があります。AIは私にも、他のみんなにもそうする。そしてこう言うんだ。「私はすべての人を常に幸せにすることはできない;
アルトマンは、この集合的なフィードバックは、AIシステムを人類のより広範な利益と一致させるために使用され、AIが社会の目標と調和して動作するためのフレームワークを作成する可能性があることを示唆している。
このアプローチは、グローバルな対話を促進するツールとしてのAIの可能性を強調するだけでなく、示唆に富む問題を提起している。
このような方法で、人間の複雑な価値観を本当に捉えることができるのだろうか?
そして、何十億もの人々の多様な視点をバランスさせ、社会的利益という統一されたビジョンを達成することができるのだろうか?
アルトマンのアイデアは、AIが人類に奉仕するだけでなく、人類と協力して最も差し迫った課題に取り組む方法を垣間見せてくれる。
多くの元OpenAIスタッフが、AIの安全性が後回しにされていることを憂慮している
OpenAIにはかつて、将来のデジタル超知能が暴走して壊滅的な被害をもたらすのを防ぐことに焦点を当てた、専門の超整列チームがあった。
2023年12月、研究チームは、ある大規模な言語モデルが別の言語モデルを監督し、セーフガードとして機能する可能性のあるプロセスを概説する初期の研究論文を発表した。
しかし、翌年の春にはチームは、リーダーのイリヤ・スーツケバーとヤン・ライケが退社した後に解散した。
レイケ氏は、同社が人工知能(AGI:Artificial General Intelligence)、つまり人間に匹敵するレベルのAI知能を目指して前進するにつれて、安全性の優先順位に関してオープンAIの首脳陣との意見の相違が大きくなっていることを挙げた。
彼の退社は、AGI開発競争における革新性と安全性のバランスをめぐる緊張の高まりを浮き彫りにした。
レイケが退社する際、アルトマンは彼の貢献に対して感謝の意を表した。エックス しかし、この事態は、OpenAIが今後、安全性に関する重大な懸念にどのように対処するのか、多くの人々に疑問を残した。