OpenAIのAIモデルが選挙に利用される
OpenAIは最近の報告書で、同社のAIモデルが次のような目的で悪用されていることを明らかにした。長文の記事やソーシャルメディアのコメントなど、偽のコンテンツを作成する、 選挙に影響を与えることを意図している。
同社は、以下の20以上の事業を解体したと報告した。このような悪意のある目的のために同社の技術を利用した。
タイトルは「quot」;AIの欺瞞的利用を阻止するための最新情報 この文書は、政治的なコンテンツに関与する際には注意が必要であることを強調している。
これは懸念すべき傾向を浮き彫りにしている:OpenAIのモデルは、選挙を混乱させ、政治的誤報を広めるための重要なツールとなっている。
多くの場合、国家に支援された悪質な行為者は、偽のオンラインペルソナのコンテンツ生成やマルウェアのリバースエンジニアリングなど、さまざまな不正行為のためにこれらのAIモデルを活用している。
OpenAIは、マルウェアの作成とデバッグから、ウェブサイトやソーシャルメディアプラットフォームのための欺瞞的なコンテンツの作成まで、サイバー犯罪者が悪意のある操作を強化するためにChatGPTを含むAIツールを利用することが増えていると指摘した。
AI選挙と政治を形成するOpenAIの役割の高まり
8月下旬、OpenAIはソーシャルメディアのコンテンツを通じて、米国の選挙、ベネズエラの政治、現在進行中のガザとイスラエルの紛争に影響を与えることを目的としたイランのキャンペーンに介入した。
同社は7月初めにも、ルワンダの選挙に関するコメントを生成していたルワンダに関連するいくつかのアカウントを禁止した。X(旧Twitter)。
さらにOpenAIは、イスラエル企業によるインドでの世論調査結果操作の試みを摘発した。
このような努力にもかかわらず、OpenAIは、これらのキャンペーンはいずれも大きなバイラル・エンゲージメントを達成したり、持続可能なオーディエンスを惹きつけるものではなかったと指摘し、AI主導の誤った情報によって世論を動かすことは依然として困難であることを示唆している。
しかし、AIの台頭は民主主義プロセスの完全性に新たな脅威をもたらす。
世界経済フォーラム(WEF)は、2024年は極めて重要な年になると強調している。選挙 50カ国で予定されている。
大規模言語モデル(LLM)が普及するにつれ、これまで以上に迅速かつ説得力のある誤った情報を広める可能性がある。
OpenAI、脅威インテリジェンスの共有を強調
AIによる誤報がもたらす新たな脅威を踏まえて、オープンAI は、脅威情報を共有するために主要な利害関係者と協力することを発表した。
同団体は、この協力戦略により、誤報チャンネルを効果的に監視し、特に政治的な文脈における倫理的なAIの利用を促進できると考えている。
OpenAIが報じている:
「この作戦の結果、意味のある視聴者の関与が得られなかったにもかかわらず、われわれは、対外的な影響力のある作戦にわれわれのサービスを利用しようとするいかなる努力も真剣に受け止めている」。
さらにOpenAIは、AIを活用して欺瞞的なオンラインキャンペーンを行う国家によるサイバー攻撃者を阻止するために、強固なセキュリティ対策を確立する必要性を強調している。
世界経済フォーラム(WEF)もこうした懸念に共鳴し、AI規制の導入の重要性を強調している。
彼らは、相互運用可能な標準と基本的な規制要件に関する国際協定は、イノベーションを促進し、AIの安全性を高めるために極めて重要であると主張している。
効果的なフレームワークを開発するためには、OpenAIのようなテック企業、公共部門、そして民間の利害関係者間の戦略的パートナーシップが、倫理的なAIシステムの導入を成功させるために不可欠である。
アメリカは大統領選を控えている。選挙 AIツールやソーシャルメディアが虚偽のコンテンツを生成し拡散することへの不安が高まっている。
米国国土安全保障省は、ロシア、イラン、中国といった国々からの脅威がエスカレートしていると警告した。誤解を招くような、あるいは分裂を招くような情報の流布。
OpenAIはこう結論づけた:
「将来を見据え、悪意ある行為者がどのように危険な目的のために高度なモデルを使用するかを予測し、適切な実施措置を計画するために、情報、調査、セキュリティ、安全、政策の各チームを横断して引き続き取り組んでいく。私たちは引き続き、調査結果を社内の安全・セキュリティチームと共有し、主要な利害関係者に教訓を伝え、業界の同業者や広範な研究コミュニティと連携して、リスクを先取りし、集団としての安全・セキュリティを強化していきます。