つい先週GPT-4oの発売は興奮を呼んだ その魅力的なquot;omni"機能により、リアルタイムのテキスト、オーディオ、ビジュアル処理を組み合わせることで、人間とコンピュータのインタラクションに変革をもたらし、AIの汎用性と効率性の新たな基準を打ち立てることが期待される。
オープンエーアイのチーフ・サイエンティストで共同設立者のイリヤ・スーツケバーが、X.M.A.での退任を発表した。
同じ日、"スーパーアライメント・チーム "のリーダーの一人であるヤン・リークも同様の発表を行った。
両氏が率いる "スーパーアライメント・チーム "は最近、相次いで退社している。この傾向を受け、同社は先週金曜日に重大な決断を下した。人工知能に関連する深遠かつ長期的なリスクを掘り下げるという明確な目的で1年前に設立されたチームを解散させるというのだ。
OpenAIの辞任で安全性への懸念が高まる
Sutskever氏は、安全対策よりも製品開発の優先順位をめぐってOpenAIのCEOであるSam Altman氏と意見が対立し、退任を発表した。
解散した "スーパーアライメント・チーム "の共同リーダーであったレイケは、ソーシャルメディア上でこのような懸念を表明し、十分なコンピューティング・リソースを確保するのに苦労していることや、OpenAI内で安全文化が疎外されていることを強調した。
レイケ氏の批判は特に、GPT-4oのような強力なAIモデルを追求しているOpenAIに焦点を当て、同社はこのような進歩に伴う潜在的なリスクへの備えが不十分であると主張した。彼は、目標を成功裏に達成するためには、より多くのリソースとより強力な安全文化が必要だと強調した。
今回の辞任は、OpenAIの混乱期におけるものだ。同社は安全性よりも製品リリースを優先していると批判されており、テスラのイーロン・マスクCEOは安全性は最優先事項ではないと示唆している。
さらに、OpenAIはチャットボットストアにスパムを溢れさせたり、プラットフォームの利用規約に違反してYouTubeからデータをスクレイピングしていると非難されている。
OpenAI、重要人物の退社後の安全対策について再確認
OpenAIは、高度なAIの安全性に焦点を当てた同社のスーパーアライメントチームを率いていた2人の重要人物が辞任したことを受け、AIの安全性への取り組みについて疑問の声が上がっている。
こうした懸念を受け、オープンエイのサム・アルトマン最高経営責任者(CEO)とグレッグ・ブロックマン社長は、AGIのリスクと可能性に対する認識を強調するメッセージを共著で発表した。
彼らは、国際的なAGI安全基準の提唱と、潜在的な壊滅的脅威に対するAIシステムの検査における先駆的な仕事を指摘した。
アルトマンとブロックマンはまた、高度化するAIシステムを安全に導入するための現在進行中の取り組みにも注目した。
彼らは、プロセス全体を通じて安全対策が実施された例として、大型言語モデルであるGPT-4の開発とリリースを挙げた。さらに、教訓に基づき、モデルの挙動と不正使用の監視を改善するための継続的な取り組みについても言及した。
今回の離脱は懸念を抱かせるが、OpenAIは解散した "スーパーアライメント・チーム "以外にも広範な安全戦略があると主張している。
同社は、さまざまなチームにAI安全スペシャリストを配置し、AIシステムによる潜在的な大惨事リスクの軽減に焦点を当てた準備グループを含む安全専門チームを編成していると報じられている。
さらにアルトマンは、AIの開発を監督する国際機関の設立を公に支持しており、適切に管理されなければ、世界的に大きな損害をもたらす可能性があることを認めている。
OpenAIが新しいチーフ・サイエンティストを任命
ヤクブ・パチョッキがイリヤ・スーツケバーの後任としてOpenAIの新チーフサイエンティストに任命された。パチョッキ氏はGPT-4、OpenAI Five、その他の主要プロジェクトの開発に貢献してきました。
OpenAIのCEOであるサム・アルトマンは、パチョッキ氏のリーダーシップと専門知識を賞賛し、安全で有益な人工知能(AGI)に向けて会社を導く彼の能力に自信を示した。
この発表は、透明性の欠如によりアルトマンが一時的に解任されたOpenAIの最近の混乱の中で行われた。
サツキーバーは、アルトマンの追放と復帰擁護の両面で重要な役割を果たしたため、サツキーバーが未公開情報を知っている可能性があるとの憶測を呼んだ。
ChatGPTプラグインにセキュリティ上の欠陥が見つかる
2023年11月、研究者たちはOpenAIが立ち上げたChatGPTのサードパーティ製プラグインに深刻なセキュリティ脆弱性を発見した。これらの欠陥は、ハッカーがユーザーデータを盗み、オンラインアカウントを制御することを可能にする可能性がある。
最初の脆弱性はインストールプロセスに影響し、ハッカーがユーザーの知らない間に悪意のあるプラグインをインストールし、プライベートメッセージからパスワードのような機密情報を盗むことを可能にした。
つ目の脆弱性は、ChatGPTのカスタムプラグインを作成するためのプラットフォームであるPluginLabに影響を与えた。ハッカーはこの欠陥を悪用して、GitHubのようなサードパーティのプラットフォーム上のユーザーアカウントを制御することができる。
3つ目の脆弱性はOAuthのリダイレクト操作に関するもので、攻撃者は複数のプラグインを通じてユーザー認証情報を盗むことができる。
これらの脆弱性は2023年を通して発見された。最初のものは6月に発見され、7月にOpenAIに報告された。9月にはPluginLab.AIとKesemAIのプラグインで脆弱性が確認され、それぞれのベンダーに報告された。その後、特定された脆弱性はすべてパッチが適用されている。
マスク氏、OpenAIを提訴 約束破りと人間性の裏切りを主張
テスラとスペースXの率直なCEOであるイーロン・マスクは、次のように述べている。2024年3月、OpenAIとそのCEOであるサム・アルトマン氏との法廷闘争を開始 .
この訴訟は、人類の利益のために人工知能(AI)を開発するという野心的な目標を掲げて設立された研究所であるOpenAIの将来についての根本的な意見の相違が中心となっている。
2015年にOpenAIの共同設立者であるマスクは、組織の非営利構造についてアルトマンや他のリーダーと合意に達したと主張している。
サンフランシスコで起こされた訴訟によれば、この契約は会社設立時に交わされた口頭での約束に基づいている。しかし、法律の専門家は、正式な契約書がないことから、このような合意の強制力には疑問を投げかけている。
論争の核心は、オープンエイの最近の営利モデルへの移行にある。
2019年には営利部門を設立し、マイクロソフトとの独占ライセンス契約のもと、これまでで最も強力なチャットボット「ChatGPT-4」をリリースした。
マスクは、これらの行動を創業の使命に対する裏切りであり、人類の幸福よりも利益を優先する方向へのシフトであると考えている。
訴訟では、OpenAIが当初の非営利の道から大きく外れ、マイクロソフトの事実上の子会社になったと主張している。
マスク氏は、アルトマン氏とOpenAIのグレッグ・ブロックマン社長は、会社設立後の数年間に交わされた書面によるメッセージを通じて、非営利モデルへのコミットメントを再確認したと主張している。
訴訟に含まれているそのようなメッセージの1つには、2017年にアルトマンが非営利組織への熱意を表明していることが示されている。
アップルがOpenAIと協業、セキュリティとプライバシーの懸念に直面
アップルの次期iOS 18アップデートは、重要な人工知能(AI)機能を導入する予定だが、ChatGPTを開発したOpenAIとの最近の契約は、iPhoneユーザーのセキュリティとプライバシーに関する問題を提起している。
詳細はまだ明らかになっていないが、アップルがチャットボット機能にOpenAIの技術を活用するとの報道があり、潜在的なリスクについての議論が巻き起こっている。
アップルのAIに対するアプローチの中核には、ユーザーのプライバシーに対するコミットメントがある。彼らのモットーは「プライバシー。That's iPhone,"という彼らのモットーは、データを外部サーバーに送信するのではなく、ユーザーの携帯電話で直接分析するオンデバイス処理に重点を置いていることを反映している。
このアプローチにより、データ漏洩や不正アクセスのリスクを最小限に抑えることができる。
しかし、デバイス上での処理には限界がある。効果的なAIモデルのトレーニングには膨大な量のデータが必要で、ローカルの携帯電話のストレージがボトルネックになる可能性がある。そこで、OpenAIとのパートナーシップの出番となる。
チャットボット開発をOpenAIに委託することで、アップルはデータ保存のハードルを回避しつつ、ユーザーが望む機能を提供できる可能性がある。
アップルのデバイスとOpenAIのサーバー間のデータ転送を考えると、セキュリティ上の懸念が生じる。
このデータ交換の具体的な内容はまだ不明だ。もしチャットボットのトレーニングのためにユーザーデータがOpenAIに送られるのであれば、それがどの程度安全に扱われるのか、またAppleの厳格なプライバシー基準に準拠しているのか、疑問が残る。
このアプローチは、検索機能に関するアップルとグーグルの既存のパートナーシップを反映している。ここでは、数十億ドル規模の契約により、基本的なデータ・プライバシーのレベルは保証されているが、一部のユーザー情報は間違いなくGoogle'のサーバーに転送される。
潜在的なセキュリティリスクの程度は、アップルとOpenAIのコラボレーションの詳細にかかっている。ユーザーデータはOpenAIに届く前に匿名化されるのか?データはどれくらいの期間保持されるのか?これらは、ユーザーのプライバシーが損なわれないようにするために対処しなければならない重要な問題である。
デバイス上の処理に制限があるため、別の複雑な層が発生する。
アップルは最新デバイス向けに強力なAIチップを開発しているが、古いiPhoneでは複雑なAIタスクの要求に対応できない可能性がある。
このため、iOS 18で先進的なAI機能の恩恵を受けるユーザーもいれば、ハードウェアの制約から取り残されるユーザーもいるというシナリオが生まれる可能性がある。
結局のところ、iOS 18におけるアップルのAI戦略は、ユーザーのプライバシー、セキュリティ、機能性の間で綱渡りをしている。デバイス上での処理は安全な環境を提供するが、一部のユーザーにとっては機能が制限される可能性がある。
AIの安全性と調整の複雑さ
AIの不可能な三角形という概念は、効率性、安全性、便益のすべてを同時に完全に最適化することはできないというものだ。OpenAIの最新開発では、効率とユーザーの利益を最大化するために安全性が優先されているように見える。
プライバシー擁護団体や規制当局は、オープンエイのAIチャットボット「ChatGPT」が人々に関する不正確な情報を生成しているとして批判している。
マックス・シュレムスが設立したオーストリアのプライバシー非営利団体Noybは、ChatGPTが人々の個人情報をでっち上げることによってEUの一般データ保護規則(GDPR)に違反しているとして、OpenAIを提訴した。
シュレムス自身、ChatGPTが彼に間違った生年月日を教えたときにこれを経験し、OpenAIはそれを修正できないと言った。
昨年もポーランドでOpenAIに対して苦情が出され、イタリアのデータ当局もGDPR違反について警告している。
米国では、連邦取引委員会がChatGPT'の幻覚による風評被害の可能性を調査している。
メタ社のAIチーフ・サイエンティストからの視点
メタ社のチーフAIサイエンティストであり、オープンAIに対抗する注目すべき存在であるヤン・ルクンは、人工知能(AGI)への道のりは、画期的な出来事ひとつで示されるものではないと断言する。
その代わりに、さまざまな領域にわたる継続的な進歩が特徴になるだろう。
彼は、AIが飛躍的に進歩するたびに、AGIが達成されたと早合点する人が出てくるかもしれないが、後になってその定義や理解が洗練されるだけだと考えている。
レクンは、人間よりはるかに賢いとされるAIシステムを制御する緊急の必要性に取り組む前に、まず家猫の知能さえ凌駕するシステムを設計することが重要だと主張する。
航空技術の発展になぞらえて、安全な長距離用ジェット機を開発するのに何十年もかかったように、高度にインテリジェントなAIシステムの安全性を達成し、確保するためには、同じように何年もの段階的な改良が必要になるだろうと彼は示唆する。
レクンは、大規模言語モデル(LLM)に見られるような現在のAIの能力を、真の知能と混同すべきではないと強調する。
彼は、AIシステムが長期間にわたって改良を繰り返しながら、段階的に賢く、安全になっていく進化を予測している。
強力なAI競争が安全性にブレーキをかける?
最近のOpenAIの混乱は、AI開発の複雑な綱渡りを浮き彫りにしている。
一方には、GPT-4oのような画期的な進歩の魅力がある。
その一方で、確固たる安全対策と倫理的配慮が常に求められている。
適切なバランスを取るには、研究者、政策立案者、一般市民が継続的に協力する必要がある。
安全性とセキュリティを損なうことなく、AIの進歩の恩恵を受けることができるのだろうか?
これこそが、人工知能と私たちの関係の将来を決定づける重要な問題なのだ。