記事の出典
覚悟を決めてください。超インテリジェント AI の出現は近づいています。
あブログ投稿 OpenAI CEOのサム・アルトマン氏、OpenAI社長グレッグ・ブロックマン氏、OpenAI首席研究員イリヤ・サツケヴァー氏の共著で、人工知能の開発には潜在的に壊滅的なシナリオを防ぐための厳しい規制が必要だと警告している。
「今こそ、超知性のガバナンスについて考え始める良い時期です。」アルトマン氏は、将来の AI システムは機能の点で AGI を大幅に上回る可能性があることを認めました。 「私たちが現在見ている状況を考えると、今後 10 年以内に、AI システムはほとんどの分野で専門家のスキル レベルを超え、今日の最大手企業の 1 つと同等の生産的な活動を実行できるようになることが考えられます。」
アルトマン氏が著書で提起した懸念の反響最近の証言 議会の前で、3人は将来の戦略的計画に重要だと考える3つの柱について概説した。
「出発点」
まず、OpenAI は、制御とイノベーションの間にはバランスが必要であると信じており、「安全性を維持し、これらのシステムと社会のスムーズな統合を可能にする」社会合意を推進しました。
次に、彼らは「国際権威」という考えを擁護した。システムの検査、監査の実施、安全基準への準拠テスト、展開とセキュリティの制限を任務としています。彼らは、国際原子力機関との類似点を引き合いに出し、世界規模の AI 規制機関がどのようなものになるかを示唆しました。
最後に彼らは「技術力」の必要性を強調した。超知能の制御を維持し、それを「安全」に保つため。これが何を意味するのかは、OpenAIにとってさえあいまいなままだが、この投稿は、スーパーインテリジェンスの基準を下回る技術に対するライセンスや監査などの面倒な規制措置に対して警告した。
本質的に、このアイデアは、超知能をトレーナーの意図に合わせて維持し、「フームシナリオ」、つまり人間の制御を超えた AI 能力の制御不能な急速な爆発を防ぐことです。
OpenAI はまた、AI モデルの無制御な開発が将来の社会に及ぼす可能性のある壊滅的な影響についても警告しています。この分野の他の専門家もすでに同様の懸念を表明している。AIのゴッドファーザー AI企業の創業者へ安定性AIのような そしてさらに以前の OpenAI ワーカー 過去に GPT LLM のトレーニングに参加しました。 AI のガバナンスと規制に対する積極的なアプローチを求めるこの緊急の呼びかけは、世界中の規制当局の注目を集めています。
「安全な」スーパーインテリジェンスの挑戦
OpenAI は、これらの点が解決されれば、AI の可能性はより自由に善のために活用できると信じています。「このテクノロジーは私たちの社会を改善することができ、これらの新しいツールを使用するすべての人の創造的能力は間違いなく私たちを驚かせるでしょう」と彼らは述べています。
著者らはまた、この宇宙は現在加速したペースで成長しており、それが変わることはないと説明した。 「それを阻止するには世界規模の監視体制のようなものが必要だが、それさえ機能する保証はない」とブログには書かれている。
これらの課題にもかかわらず、OpenAI のリーダーシップは、「超知能を安全に保つ技術的能力をどのようにして確保できるか?」という問題の探求に引き続き取り組んでいます。世界は現時点で答えを持っていませんが、間違いなく答えを必要としています。それは ChatGPT では提供できません。