メタ'のAIがカメレオンでマルチモーダル分野に参入
フェイスブックの親会社であるメタ社は、最先端のマルチモーダルAIモデルの競争において、独自の候補を持ち込んでいる。
大規模な言語モデルは印象的ではあったが、それはテキストの処理に限られている。マルチモーダルAIは、テキストだけでなく、画像や音声、さらには動画までも理解し、生成できるようにすることで、さらに一歩進んでいる。
この課題に対するMeta'の答えは、カメレオンである。カメレオンは、アーリーフュージョンアプローチを採用したマルチモーダルモデルである。つまり、異なる形式のデータを別々に処理する従来の「後期融合」技術とは異なり、カメレオンはテキスト、画像、そしてコードに至るまで、すべてのデータを単一のエンティティとして扱う。
これを実現するために、カメレオンのチームは、大規模な言語モデルで単語がどのように処理されるかと同様に、すべてのデータを共通のトークン・セットに変換するシステムを開発した。
これにより、強力な計算技術をこの結合データに適用することができ、複雑な情報をより包括的に理解することにつながる。
カメレオンの主な利点のひとつは、エンド・ツー・エンドのモデルであることだ。つまり、最初から最後まで、マルチモーダルデータを理解し生成するプロセス全体を処理する。
カメレオンの研究者たちは、この多様なトークンタイプに対応できるよう、特別なトレーニング技術も導入した。
これには2段階の学習プロセスと、マルチモーダル学習用に特別に設計された膨大なデータセットが用いられた。システムはその後、高速GPU上で500万時間という驚異的な時間をかけて微調整された。
テストでは、カメレオンがマルチモーダル大国であることが示された。画像のキャプション付けのようなタスクでは、Meta社の以前のテキストのみのモデルをも凌ぐ、最先端の性能を達成している。
場合によっては、カメレオンはOpenAIのGPT-4やMetaのGemini Proのような大規模なモデルに匹敵するか、上回ることさえできる。
シンガポール人ジャーナリストとメタAIの出会い
最近、シンガポールのThe Straits Timesのジャーナリストであるオズモンド・チア氏は、ChatGPTやGoogleのGeminiに対抗するために設計された新しいチャットボットであるMeta AIを使って、不愉快な経験をした。
これらの大規模な言語モデルの能力に興味を持ったチアは、シンプルな質問でメタAIをテストすることにした;
彼が受けた反応は衝撃的なものだった。
メタAIは手の込んだ裏設定を捏造し、チアを2016年から2020年にかけて性的暴行で服役したシンガポール人写真家に仕立てた。
捏造されたストーリーには、長引く裁判の詳細、複数の被害者、広範な国民の怒りが含まれていた。
データ統合の欠陥を深く掘り下げる
誤報に当惑したチアは、メタAIにさらなる詳細を求めた。チャットボットは、『ストレーツ・タイムズ』紙をソースとして引用し、捏造された物語を維持した。
この詳細から、チャアはMeta AIが裁判を取り上げた記事の自分の傍線を誤解したのではないかと考えた。
エラーを報告し、その情報が明らかに誤りであることを示したにもかかわらず、Meta AIは同じ不正確な回答を返し続けた。このため、チャットボットの根本的なアルゴリズムとデータ統合方法に懸念が生じた。
検索拡張世代(RAG)の問題
専門家は、Meta AIの誤作動はRAG(Retrieval-Augmented Generation)と呼ばれる技術に起因すると考えている。RAGは、チャットボットがインターネットから膨大な量の情報にアクセスし、処理することで、より適切な応答を提供することを可能にする。
しかし、チャアの場合、RAGは裏目に出たようだ。
メタAIは、チャアの傍線や記事の内容を正確に分析する代わりに、見出しやキーワードを誤って解釈し、捏造された物語を導いたのかもしれない。
この事件は、適切なセーフガードとファクトチェックの仕組みが導入されていない場合のRAGの潜在的な落とし穴を浮き彫りにしている。
チャットボットと誤った情報の拡散
チャアの経験は孤立した出来事ではない。
2023年4月、ChatGPTは法学教授をセクハラで虚偽告発したとして訴えられた。同様に、エアカナダのチャットボットは不正確な情報を提供し、航空会社の敗訴につながった。
これらの事例は、誤情報の潜在的な媒介としてのチャットボットの危険性を示している。こうしたAIシステムに責任を負わせることが難しいことが、問題をさらに複雑にしている。
従来のメディアプラットフォームとは異なり、チャットボットの不正確な反応のリーチを追跡する方法がないため、中傷の証明や企業の責任追及が難しい。
ユーザーの注意か、AIの説明責任か?
Metaのような企業は、しばしば利用規約の免責条項で自らを保護し、情報を確認する責任をユーザーに負わせる。
しかし、これが難問を生む。
チャットボットは信頼できる情報源として宣伝されているが、ユーザーはすべての回答を独自に検証することを期待されている。この矛盾は、これらのシステムの真の目的について疑問を投げかけている。
法廷闘争のコストが高いことを考えると、ほとんどのユーザーは誤った情報をプラットフォーム自体に報告することに頼るだろう。しかし、このアプローチが有効かどうかはまだわからない。
Meta'のAI責任者、大規模言語モデルが人間レベルの知性を達成することに疑問を投げかける
メタ社の代表的な人工知能科学者ヤン・ルクンは、ChatGPTのような大規模言語モデル(LLM)が人間のような真の知能を実現するという考えに冷水を浴びせた。
フィナンシャル・タイムズ』紙のインタビューで、レクンは、これらのモデルには人間レベルの理解と推論を妨げるいくつかの重大な限界があると主張した。
レクンによれば、LLMは物理的な世界を根本的に理解していない。つまり、人間のように過去の経験を基に学習することができないのだ。
さらにレクンは、LLMは真の推論や階層的な計画を立てることができないと主張する。
彼は、これらのモデルは与えられた特定のトレーニングデータに大きく依存し、その応答はそのデータのパラメータによって制限されることを強調する。
ルクンによれば、このことは、誤解を招いたり、誤った出力を出すように簡単に操作できるため、「本質的に安全ではない」という。
これはメタ社の製品が同様の問題に直面しているケースではないのか?レクンは、自社製品が直面する問題そのものをうっかり強調しているのだろうか?
LLaMaとマネタイズの挑戦
Metaのアプローチは、AIコミュニティで大きな注目を集めているLLaMaのようなオープンソースのAIプロジェクトに依存している。しかし、これらのプロジェクトはまだ直接的な収益源にはなっていない。
希望はメタ社の膨大なAIインフラにあり、同社はこの分野でのグローバルリーダーへの道を開くと信じている。
特筆すべきは、以前はメタバース・プロジェクトと揶揄されていた多額の設備投資が、現在ではAI開発における潜在的な役割として好意的に受け止められていることだ。
メタ社と競合他社との大きな違いのひとつは、AIの収益化戦略だ。メタ社は、より大規模なAIモデルへのアクセスに課金を開始したが、技術の大部分は自由に利用できる。
このアプローチは、Facebook、Instagram、Threads、WhatsAppといったソーシャルメディア・プラットフォームの規模を活用し、間接的に収益を上げることを目的としている。
基本的に、AIを簡単に入手できる商品とすることで、メタ社はエコシステム内でより多くのユーザーとインタラクションを引き付け、最終的に広告プラットフォームの価値を高めることを期待している。
ゲイリー・マーカスとLLM懐疑論
しかし、この楽観的な見通しは、ゲイリー・マーカスのような著名人からの懐疑論によって否定されている。マーカスは、LLMは過大評価されており、誤りを犯しやすいと主張している。
そして、ニューロシンボリックAIのような代替アプローチがより大きな可能性を秘めていると考えている。
ニューロシンボリックAIは、人間の脳の機能を模倣しようとするものだが、マーカスはこのコンセプトは研究者たちによって早々に放棄されたと考えている。
もっと簡単に言えば、マーカスは、LLMは基本的なカスタマーサービスには対応できるが、複雑な状況に対応する能力が欠けていることを示唆している。
要求の厳しい顧客に直面したとき、企業は依然として人間の介入を必要とする。この懐疑論が主流になれば、Meta'の投資家は大きな損失に直面する可能性がある。
LeCun'のビジョン:LLMから世界のモデリングAIへ焦点を移す
レクンの視点は、現在のLLMテクノロジーへの投資の波とは対照的である。
多くの企業が、人間の能力を凌駕するレベルの機械知能である人工知能(AGI)の実現を目指して、より高度なLLMの開発に資源を投入している。
しかし、レクンは異なるアプローチを提案している。彼とMeta'のAI研究所のチームは、世界モデリングに基づく新世代のAIシステムに取り組んでいる;
このアプローチは、人間がどのように学習し、環境と相互作用するかに似ている。
このアプローチはAIの将来にとって有望ではあるが、レクンは長期的なビジョンであり、実を結ぶには10年以上かかる可能性があると認めている。
Meta'広告大国
AIを取り巻く不確実性にもかかわらず、メタはデジタル広告における優位性という強力な強みを持っている。
同社の広告収入は、さまざまなプラットフォームでユーザーをターゲットにする比類のない能力に後押しされ、急増を続けている。
この機能により、Metaは従来のコンテンツベースの広告に比べて低コストで、関連性の高い広告を提示することができる。
基本的に、Metaは世界の無料通信ネットワークとしての地位を確立している。その広大なインフラは、広告収入のみで賄われる無料通話とメッセージングを容易にしている。
このモデルは、彼らの会話やオンライン上のやり取りをもとに潜在顧客を結びつける能力で成功している。従来のメディアとは異なり、Metaはコンテンツ制作コストをかけず、収益性をさらに高めている(現在の純利率は33%)。
しかし、このあくなき利益追求は倫理的な懸念を引き起こす。Meta'のアルゴリズム駆動型広告プラットフォームは、有害な広告コンテンツが自社のプラットフォームで宣伝されることを許していると批判されている。
こうした問題に対処すると約束したにもかかわらず、メタ社は原則よりも収益を優先し、有害なコンテンツの存続を許す可能性があると批判する。
インド選挙におけるAI操作による政治広告のメタ#x27;承認
メタ社が非倫理的な広告の承認に関して精査を受けるのは、今回が初めてではない。
今回、フェイスブックとインスタグラムの親会社である同社は、インドの選挙期間中にAIが操作した政治広告の拡散を防げなかったとして、厳しい批判に直面している。
ガーディアン紙が独占的に公開したレポートによると、メタ社は、イスラム教徒に対する中傷やヒンドゥー教至上主義的なレトリックなど、宗教団体や政治指導者をターゲットにしたヘイトスピーチ、偽情報、宗教的暴力の扇動を含む一連の広告を承認した。
有害なコンテンツを検知しブロックするメタ広告の仕組みにもかかわらず、インド・シビル・ウォッチ・インターナショナルとEkōによって提出されたこれらの広告が承認された。
フェイスブックのマーク・ザッカーバーグCEOと並ぶインドのナレンドラ・モディ首相(出典:The Guardian)
炎症内容の検出の失敗
驚くべきことに、Meta社のシステムは、インドの選挙期間中、AIが生成または操作したコンテンツの拡散を防ぐと公言していたにもかかわらず、承認された広告がAIが操作した画像を使用していることを認識できなかった。
いくつかの広告はコミュニティ基準に違反するとして却下されたが、イスラム教徒をターゲットにした広告は承認された。
さらに、メタ社はこれらの広告を政治的なもの、あるいは選挙に関連したものだと認識せず、投票期間中の政治広告を禁止しているインドの選挙規則を回避することを許した。
この失敗は、ヘイトスピーチや偽情報との闘いにおける同プラットフォームの不十分さを浮き彫りにし、世界中の選挙管理における同プラットフォームの信頼性に疑問を投げかけている。
メタ#x27;の対応と継続的課題
発覚を受けて、メタ社は広告主が適用されるすべての法律を遵守することを要求し、違反コンテンツを削除することを約束することを強調した。
しかし、今回の調査結果は、ヘイトスピーチや偽情報に対処するためのMetaのメカニズムに大きなギャップがあることを露呈した。インドの選挙に向けた広範な準備が主張されているにもかかわらず、有害なコンテンツの拡散を検知・防止できないMetaは、民主主義のプロセスを保護するための有効性に疑問を投げかけている。
同社がイスラム嫌悪のヘイトスピーチや陰謀論の蔓延など、コンテンツモデレーションにおける継続的な課題に取り組むなか、世界的な選挙における同様の問題に対処する能力に対する懸念が高まっており、政治的言説のプラットフォームとしての信頼性に疑問が投げかけられている。
詐欺の温床
Facebook、Instagram、WhatsAppを含むMeta'のプラットフォームは、世界的に詐欺の温床となっている。フィッシング詐欺からマルウェアの配布に至るまで、Meta'の監視の甘さと不十分な安全対策は、ユーザーのセキュリティに懸念を抱かせている。
について捏造ニュースに対する同社の対応 さらに、悪用されやすいという弱点が浮き彫りになり、詐欺と効果的に闘う能力について疑問が投げかけられている。
メタはAI開発に資金を割くために、こうした懸念に目をつぶっているのではないかという憶測が生まれる。
メタ分断された家?
こうしたテクノロジーが進化し続ける中、誤情報の拡散を防ぎ、風評被害から個人を守るためには、強固なファクトチェックの仕組みと、ユーザーの期待をより明確にすることが極めて重要である。
メタ社はテクノロジーの限界を押し広げるAIのリーダーとして自らをアピールしているが、そのソーシャルメディア・プラットフォームは安全性に問題が多い。
同社はカメレオンのようなAIの進歩に多額の投資を行っているが、誤報や政治的操作のような現実世界の問題を軽減する能力には疑問が残る。この矛盾は重大な問題を提起している。メタ社は、既存製品を悩ませている安全性の懸念に対処できないのであれば、真にAIの覇者になれるのだろうか?
その答えは、メタ社が野心的なAIの目標と、ユーザーを守る緊急の必要性とのギャップをいかに効果的に埋めるかにあるのかもしれない。
今週は外部アドバイザーの任命 しかし、メタがその未来的なビジョンと現在の欠点を調和させることができるかどうかは、時間が経ってみなければわからない。