ジョン・デヴァドス(CryptoSlate)著;トン・デン(Golden Finance)編集
2024年1月のダボス・フォーラムのテーマは人工知能だ。
人工知能が売り込まれ、主権国家はAIインフラを売り込み、政府間組織はAIの規制的意味合いについて審議し、企業幹部はAIの有望性を喧伝し、政界の大物はAIの国家安全保障的意味合いについて議論し、大通りで出会うほとんどの人がAIについて雄弁に語っている。
しかし、その内部には「AIは本物なのだろうか? 先月のダボス会議での私のスピーチから、良いこと、悪いこと、そして醜いこと。
正確には「ジェネレイティブ」AIです。 ジェネレイティブ」とは何か? これまでのAI革新の波は、データセットからパターンを学習し、新しい入力データを分類する際にそれらのパターンを認識できることに基づいていましたが、この革新の波は、大規模なモデル(別名「パターンコレクション」)の学習と、それらのモデルを使用してテキスト、ビデオ、オーディオ、その他のコンテンツを創造的に生成する能力に基づいています。
いいえ、ジェネレーティブAIは幻想ではありません。 学習スキーマが部分的にしか形成されていない場合、モデルは「空白を埋める」しかなく、私たちが錯覚として観察していることにつながります。
お気づきの方もいらっしゃるかもしれませんが、生成された出力は必ずしも再現可能ではありません。 なぜでしょうか? なぜなら、部分的に学習されたパターンから新しいコンテンツを生成することは、ある程度のランダム性を含み、本質的に確率的な活動だからです。
コンテンツの非決定論的な生成は、実際、ジェネレーティブAIアプリケーションの核となる価値提案の舞台を整えます。 使用のスイートスポットは、創造性を伴うユースケースです。創造性が必要でない、または必要とされない場合、そのシナリオはおそらくジェネレーティブAIには適していません。 これをリトマス試験紙として使用してください。
わずかな量の創造性によって、非常に高い精度が得られます。ソフトウェア開発において、開発者が使用するコードを生成するためにジェネレーティブAIを使用するのは良い例です。 大量の創造性によって、生成AIモデルは非常に大きなギャップを埋めることを余儀なくされます。研究論文を書くように依頼すると、誤った引用が見られる傾向があるのはそのためです。
一般的に、生成AIのアナロジーはデルファイの神託です。 神託は曖昧に定式化されています。同様に、生成AIの出力は必ずしも検証可能ではありません。 生成的AIについて質問すること。生成的AIにトランザクション操作を委任しないこと。 実際、この類推は、生成AIをはるかに超えて、すべてのAIに及んでいます。
逆説的ですが、生成AIモデルは科学や工学において非常に重要な役割を果たすことができます。 ここで重要なのは、生成的AIモデルと、モデルの出力をフィルタリングするための1つ以上の外部バリデーターを組み合わせ、組み合わせたシステムが望ましい結果を生み出すまで、モデルに、検証された出力を、その後の創造性のサイクルにおける新しいプロンプトへの入力として使わせることです。
職場におけるジェネレーティブAIの広範な使用は、現代の大分裂につながるでしょう。ジェネレーティブAIを使用して創造性とアウトプットを指数関数的に増加させる人と、ジェネレーティブAIに思考プロセスを委ね、徐々に疎外され、必然的にサバティカルを取る人の間に。
いわゆる公開モデルのほとんどは汚染されています。 公共のインターネットで訓練されたモデルはすべて、ダークウェブなどを含む、ネットワークの末端のコンテンツで訓練されています。 1つは、モデルが違法なコンテンツで訓練されている可能性があること、もう1つは、モデルがトロイの木馬のコンテンツに侵入されている可能性があることです。
生成AIのガードレールの概念には致命的な欠陥があります。 前の点で述べたように、モデルが汚染されている場合、いわゆるガードレールを迂回するように創造的な動機付けをする方法がほとんど常に存在します。 私たちには、より良い方法、より安全な方法、生成AIに対する社会の信頼につながる方法が必要です。
生成AIの使用と乱用を目の当たりにするとき、私たちは内側に目を向け、AIが道具であることを思い出さなければなりません。