記事の出典
暗号通貨と AI はどちらも、ここ数年で目覚ましい進歩を遂げています。
暗号通貨は次のような成功を祝いましたDeFi 、そして最近ではデジ 。
AI は次のような成功を祝いましたアルファフォールド2 、そして最近ではチャットGPT。
2018年に遡ります、ピーター・ティール尖った 仮想通貨の分散化勢力と AI の中央集権化勢力の間の緊張を表現し、「仮想通貨は自由主義者、AI は共産主義者」という言葉を生み出しました。ここで私は、この 2 つを組み合わせることで何かを学べるかもしれない、ということを主張したいと思います。
なぜ?なぜなら、セキュリティおよび暗号通貨コミュニティによって磨かれたスキルとアプローチには、AI の有用なアプリケーションを解放し、AI のリスクを軽減する可能性があるからです。
私たちは皆死ぬことになるのでしょうか?
AI の安全性における著名な人物であるエリエザー・ユドコウスキー氏は、最近、テレビ番組に驚くべき出演を果たしました。バンクレスポッドキャスト 、明らかに Web3 ポッドキャストです。
これは次の 2 つの理由から驚くべきことでした。
第一に、人間が行うほぼすべてのタスクを実行できる汎用人工知能 (AGI) の開発への急速な道を私たちは進んでおり、そのような AGI が私たち全員を殺す可能性は非常に高いとエリーザー氏は考えています。
次に、私たちが生き残れるわずかな可能性を高めるために何かできることはあるのかと尋ねられたとき、彼は、セキュリティと暗号化を重視し、セキュリティに対する強い考え方を持つ人々に、AI の調整に取り組むよう勧めました。
それを開梱してみましょう。まず、AGI について心配する必要がある理由について説明します。その後、AGI の危険性の一部を軽減するために暗号 (ここでは主に暗号を意味します) とセキュリティ コミュニティが約束している内容に焦点を当てます。
AI の安全性: 思っているよりも難しいですか?
最近ニュースを目にした人なら誰でも証明できるように、AI の進歩が劇的に加速しない週はありません。見逃した方のために、重要な展開を 3 つだけご紹介します。
まず、Microsoft が OpenAI に投資し、Google が OpenAI の競合企業 Anthropic に投資し、DeepMind と Google Brain が 1 つの組織に合併するなど、AI の一元化の推進がさらに進んでいます。
第二に、AI のより一般化が推進されています。最近の論文「GPT4: 汎用人工知能の火花 」では、GPT-4 が人間の知能を評価するために通常使用される尺度である心の理論の最初の例をすでに実証していることを示しました。
第三に、AI システムのエージェンシーの向上が求められており、AutoGPT はより複雑なタスクを実行するよう再プロンプトすることで、よりエージェンシーになりました。
12月に遡ると、メタキュラス 予測プラットフォームである AGI は、およそ 2039 年に AGI が到来すると予測していました。5 月現在、その日付は 2031 年となっています。言い換えれば、AI の進歩から 5 か月以内に 8 年間のタイムラインが低下することになります。
これらの発展を、私たちが汎用人工知能への道を歩んでいることのしるしとして捉えるなら、次の疑問は、なぜAGIの安全性がそれほど難しく考えられているのかということだ。
おそらく、AGI の安全性の問題は 3 つのサブ問題に分類できます。
調整: AI を人間の価値観とどのように調整できるでしょうか?
AI の調整とは、AI を私たちの価値観にどのように調整させるかという単純な問題です。しかし、私たちは自分の価値観についてさえ同意していないことを忘れがちです。文明の黎明以来、哲学者も単なる人間も同様に、あらゆる面で説得力のある論点を持って倫理について議論してきました。だからこそ、私たちの現在の文明は主に価値多元主義(相反する価値観を持つ人間が平和的に共存するという考え)に到達したのです。これは人間の多様な価値観には有効ですが、1 つの人工知能エージェントに実装するのは困難です。
AGI にどのような道徳的価値観を持たせるべきか、大まかにわかっていることをちょっと想像してみましょう。次に、これらの人間の価値観を、人間の進化、精神構造、またはコンテキストを共有しないシリコンベースのエンティティに伝える必要があります。人間が他の人間と協力するとき、私たちは種の生物学、進化の歴史、さらには文化的背景を共有しているため、多くの共有された暗黙の背景知識に頼ることができます。 AI では、そのような共通のコンテキストに依存することはできません。
もう 1 つの問題は、何らかの目標を達成するためには、生きていてより多くの資源を獲得することが一般に有益であるということです。これは、特定の目標を追求するように設定された AI がシャットダウンに抵抗し、より多くのリソースを求める可能性があることを意味します。 AI が人身傷害、無視、欺瞞などを含む目標を達成する可能性は無数にあり、これらすべての制約を確実な方法で事前に予測して指定することがいかに難しいかを考えると、技術的な調整の仕事は気の遠くなるようなものです。 。
コンピューター 安全
たとえ人間が一連の価値観に同意し、AGI をそれらの価値観に技術的に調整する方法を見つけたとしても、基盤となるソフトウェアとハードウェア自体が信頼できるという証拠がなければ、AGI が確実に動作することは期待できません。 AGI がその作成者に与える大きな利点を考えると、悪意のあるハッカーが AGI を妨害したり再プログラムしたりする可能性があります。
さらに言えば、意図しないバグが AGI の目標の実行を妨げたり、AGI 自体が危険な方法で再プログラミングするなどして、自身のコードの脆弱性を悪用したりする可能性があります。
残念なことに、私たちは今日の数兆ドル規模のエコシステム全体を安全でないサイバー基盤の上に構築してきました。私たちの物理的インフラのほとんどは、送電網や核兵器技術などのハッキング可能なシステムに基づいています。将来的には、安全性の低い自動運転車や自律型ドローンもハッキングされてキラーボットに変わる可能性がある。スプートニクやソーラーウィンドなどのサイバー攻撃の増加は深刻ですが、将来起こり得る AG を利用した攻撃と比較すると害のないものである可能性があります。これらの攻撃に対する有意義な対応が欠如しているということは、安全でないインフラストラクチャの多くを再構築する必要があるかもしれない AGI に安全なセキュリティの任務に私たちが対応できていないことを示唆しています。
「セキュリティおよび暗号化コミュニティのテクノロジーとスキルを活用することで、多極スーパーインテリジェンスのシナリオを追求できる可能性があります。」
調整
AGI の調整とセキュリティの進歩には時間がかかる可能性があるため、AGI を構築するアクターが途中で調整することが重要になります。残念ながら、主要な AI 主体 (これは協力機関または国民国家である可能性があります) に協力して、軍拡競争の促進を避けて最初に AGI に到達するよう奨励することは、それほど簡単ではありません。大惨事では合意から離脱するのはたった 1 人の関係者だけです。つまり、たとえ他の全員が協力したとしても、1 人が先を行けば決定的な優位性を確保できることを意味します。この先行者優位性は、AGI が構築され、AGI システムの単一展開によってその所有者に伝達される可能性のある力が与えられるまで持続し、所有者にとってはこれを断ち切るのは難しい誘惑です。
セキュアな多極 AI
おそらく、ここまでは「はい、確かに、AI の安全性は非常に難しい」と頷いているかもしれません。しかし、暗号通貨はそれと一体何の関係があるのでしょうか?
AI の急速な進歩と、AI を安全にすることの難しさを考慮すると、従来の懸念は、AGI が知能関連の全体的な枠組みとして人間の文明に取って代わり、世界を支配するという AGI シングルトン シナリオに向かって私たちが急いでいるということです。途中で人類を殺す可能性があります。
セキュリティおよび暗号化コミュニティのテクノロジーとスキルを活用することで、私たちは、人間と AI のネットワークが安全に協力してローカルな知識を文明の集合的な超知性の中に組み込む多極超知性シナリオを追求するように方向転換できるかもしれません。
これは大きく抽象的な主張なので、暗号通貨とセキュリティのコミュニティが AI のリスクを抑制し、新しいアプリケーションのロックを解除することで AI の美しさを解き放つのにどのように役立つのかを正確に解明しましょう。
セキュリティと暗号化は AI のリスクをどのように抑制できるでしょうか?
赤チーム
著名なAI安全研究者であるポール・クリスティアーノ氏は、ということを示唆している AI はレッドチームをさらに必要としています。レッドチームは通常、コンピュータ セキュリティでシミュレートされたサイバー攻撃を指す用語として使用されます。たとえば、AI のコンテキストにおけるレッドチームは、機械学習システムで壊滅的な動作を引き起こす入力を検索するために使用される可能性があります。
レッドチーム化は、仮想通貨コミュニティでも経験があることです。ビットコインとイーサリアムはどちらも、継続的な敵対的な攻撃にさらされている環境で開発されています。安全でないプロジェクトには、数百万ドルの暗号通貨の「バグ報奨金」と同等の金額がかかるためです。
非防弾システムは排除され、エコシステム内にはより多くの防弾システムだけが残ります。暗号プロジェクトは、従来のソフトウェアを破壊するサイバー攻撃に耐えることができるシステムの良いインスピレーションとなるレベルの敵対的テストを受けます。
共謀防止
AI における 2 つ目の問題は、複数の新興 AI が最終的に人類を転覆するために共謀する可能性があることです。例えば、 "議論によるAIの安全性 」は人気のある調整戦略であり、2 つの AI が互いにトピックを議論し、ループ内に人間の裁判官がどちらが勝者かを決定することに依存しています。しかし、人間の裁判官が除外できない可能性があるのは、両方の AI が彼女に対して共謀しており、どちらも真の結果を促進していないということです。
繰り返しますが、暗号通貨には、次のような共謀問題を回避する経験があります。シビルの攻撃 、単一のノードを使用して多くのアクティブな偽のアイデンティティを操作し、ネットワーク内の大部分の影響力を密かに獲得します。これを回避するために、暗号通貨内部ではメカニズム設計に関する大量の研究が進められており、中にはAIの共謀についても有益な教訓を得ることができるものもあるかもしれない。
抑制と均衡
OpenAI の競合企業である Anthropic が現在検討しているもう 1 つの有望な安全性アプローチは、「憲法AI 」では、人間によって与えられたルールと原則を使用して、あるAIが別のAIを監督します。これは、抑制と均衡のシステムにおいて対立する利益と制限された手段を設定する米国憲法の設計に触発されています。
繰り返しになりますが、セキュリティおよび暗号化コミュニティは、憲法に似た抑制と均衡の取り決めについて十分な経験を持っています。たとえば、セキュリティ原則である POLA (最小権限の原則) は、エンティティがその業務を遂行するために必要な最小限の情報とリソースにのみアクセスできるようにすることを要求します。より高度な AI システムを構築する際にも考慮すべき有用な原則です。
これらは多くの例のうちの 3 つにすぎず、セキュリティおよび暗号通貨コミュニティで顕著なセキュリティの考え方が AI 調整の課題にどのように役立つかを示しています。
暗号とセキュリティはどのようにして AI の美しさを解き放つことができるのでしょうか?
あなたが挑戦できる AI の安全性の問題に加えて、暗号セキュリティの革新が AI を飼いならすのに役立つだけでなく、たとえば斬新で有益なアプリケーションを可能にすることによってその美しさを解き放ついくつかのケースを見てみましょう。
プライバシー保護AI
従来の AI では実際には対応できない領域がいくつかあります。特に、個人の健康情報やプライバシーに強い制約がある財務データなどの機密データを必要とする問題の解決です。
幸運、指摘されたように 暗号研究者の Georgios Kaissis 氏によると、これらはフェデレーテッド ラーニング、差分プライバシー、準同型暗号化などの暗号および補助的なアプローチが威力を発揮する分野です。これらの新たな計算アプローチは、プライバシーを維持しながら大規模な機密データセットに取り組むことができるため、集中型 AI よりも比較優位性があります。
地元の知識を活用する
従来の AI が苦労しているもう 1 つの領域は、ビッグデータでは理解できない機械学習 (ML) のエッジケースを解決するためにしばしば必要とされるローカルな知識の調達です。
暗号エコシステムは、開発者がインセンティブを利用してアルゴリズムに適したローカル データを引き付けることができる市場を確立することで、ローカル データの提供を支援できます。たとえば、Coinbaseの共同創設者であるフレッド・アーサム氏は、示唆する 機密データのトレーニングを可能にするプライベート ML と、より優れたデータをブロックチェーン ベースのデータおよび ML 市場に引き付けるブロックチェーン ベースのインセンティブを組み合わせます。 ML モデルの実際のトレーニングをオープンソースにすることは現実的ではないか、安全ではないかもしれませんが、データ マーケット プレイスは、データ貢献の公平なシェアに対してクリエイターに支払う可能性があります。
暗号化されたAI
もっと長期的に見ると、暗号化アプローチを活用して、より安全で強力な AI システムを構築することも可能になるかもしれません。
たとえば、暗号研究者のアンドリュー・トラスク氏は、示唆する 準同型暗号化を使用してニューラル ネットワークを完全に暗号化します。可能であれば、これはネットワークのインテリジェンスが盗難から保護され、攻撃者が入力を明らかにすることなくモデルやデータを使用して特定の問題に協力できることを意味します。
しかし、より重要なのは、AI が準同型暗号化されている場合、AI は外の世界が暗号化されていると認識することです。秘密鍵を管理する人間は、AI そのものを野に出すのではなく、AI が行う個々の予測を解くことができます。
繰り返しになりますが、これらは、暗号通貨が AI の新しいユースケースを解き放つ可能性のある、潜在的に多くの例のうちの 3 つにすぎません。
「ミームがミームを制御する例や、機関が機関を制御する例は、AI システムが AI システムを制御できることを示唆しています。」
ピースを組み合わせる
集中型 AI は単一障害点に悩まされます。それは、複雑な人間の価値観の多元性を 1 つの目的関数に圧縮するだけではありません。また、エラー、内部破損、外部攻撃が発生しやすくなります。一方、セキュリティと暗号化コミュニティによって構築された安全な多極システムには、多くの期待があります。これらは価値の多元主義をサポートし、レッドチーム化、抑制と均衡を提供することができ、反脆弱性を備えています。
暗号化システムには多くの欠点もあります。たとえば、暗号化には、分散型データ ストレージ、機能暗号化、敵対的テスト、および計算上のボトルネックの進歩が必要であり、これらのアプローチは依然として法外に遅く高価です。さらに、分散型システムは集中型システムに比べて安定性が低く、システムを支配するために常に共謀したりシステムを転覆したりする動機を持つ不正行為の影響を受けやすくなります。
それにもかかわらず、AI のスピードが速く、AI に関わる人々のセキュリティと暗号化に対する関心が相対的に不足していることを考慮すると、ここで説明した利点の一部を実現して、AI に有意義に貢献できるかどうかを検討するのに早すぎるということはおそらくないでしょう。
安全な多極 AI の約束はよくまとめられたテクノロジーのパイオニアであるエリック・ドレクスラーは1986年にこう述べています。「ミームがミームを制御し、機関が機関を制御する例は、AI システムが AI システムを制御できることを示唆しています。」