中国、新たな規制でAIコンテンツの管理を強化
中国のインターネット規制当局は、すべてのデジタル・プラットフォームにAIが作成したコンテンツのラベル付けを義務付ける新体制を提案し、AIが作成したコンテンツへの監視を強めている。
中国サイバースペース管理局発表、本計画案 は、テキストや画像からビデオやオーディオファイルに至るまで、さまざまな形式のコンテンツに透明なラベリング・システムを適用しようとしている。
採用された場合、プラットフォームやオンライン・サービス・プロバイダーは、AIが生成した素材が、目に見えるロゴや埋め込まれたメタデータによって容易に識別できるようにしなければならない。
この規制は音声ファイルについてはさらに進み、ファイルの最初と最後、場合によってはファイルの途中で、AIが生成したコンテンツに関与していることを音声プロンプトでリスナーに通知しなければならない。
同様に、これらのファイルを再生するソフトウェアも、AI素材とのインタラクションをユーザーに通知する必要がある。
動画の場合、北京はプラットフォームがコンテンツの最初、最後、重要なポイントに通知を表示できるようにする。
北京を拠点とする知的財産権取引を専門とする匿名の弁護士はこう指摘する:
これはデジタル・エコシステムの完全性を保護することです;
ユーザー生成AIコンテンツへの監視強化
この草案は、AIが作成したコンテンツを投稿する個人にも適用される。
ネチズンは、AIを使って生成したコンテンツにラベルを付ける義務があり、プラットフォーム・ツールを利用する者は、デジタル足跡を残すため、自分自身を特定することが求められる。
ユーザー活動のログは、アカウンタビリティを確保するために、最低6ヶ月間保存されなければならない。
この措置は、ユーザーが作成したコンテンツをすべて個人と結びつけるという中国の広範な目標に向けた新たな一歩であり、サイバースペースの主権管理という中国の野心をさらに強めるものだ。
共産党や政府に楯突くようなコンテンツは、中国の高度に監視されたインターネット環境では生き残れないだろう。
中国政法大学のチャン・リンハン教授は、AIが生成するコンテンツのガバナンスを向上させるラベリングシステムの可能性を支持しているが、次のように警告している:
これらの厳しい要件を満たさない場合、プラットフォームと個人の両方が窮地に陥る可能性がある;
同氏は、この規制が誤った情報を減らし、将来のAIトレーニングデータセットの破損を防ぎ、より健全なデジタルエコシステムを生み出すと強調した。
メタデータが欠落している場合のAI生成コンテンツの分析
コンプライアンスを確保するために、サービス・プロバイダーはメタデータを欠くコンテンツも分析しなければならない。
もしプロバイダーがAIがファイルを作成したと疑えば、それに応じてラベルを貼らなければならない。
草案のこの側面は、システムの抜け穴をなくし、たとえメタデータが意図的に省略されたとしても、AIが生成したすべてのコンテンツが識別可能であることを保証しようとするものである。
さらに、この規制は、プラットフォームがAIコンテンツを検出するために開発した技術を共有することを求めており、検出方法を全面的に改善するための共同努力を促進するものである。
これらの措置は、国益を確保し、治安を守るための中国の広範な戦略の一環である。
誤った情報に対処するための先行規制の構築
この新しい規制草案は、人工知能の使用を規制するために設計された、以前の一連の枠組みに基づくものである。
重要なマイルストーンのひとつは、2023年1月に施行された「インターネットベースの情報サービスにおける深層合成に関する管理規定」である。
この方針はすでに、一般大衆を誤解させたり混乱させたりする可能性のあるコンテンツについては、目立つように表示することを求めており、今回の草案で提案されているより厳しいガイドラインへの道を開くものであった。
もうひとつの重要な進展は、2023年8月に発表された「AI生成サービス管理暫定弁法」である。
この継続的な規制の進展は、AI技術の急速な進歩を管理する中国の積極的なアプローチを浮き彫りにしている。
AI主導のコンテンツの意味合いに取り組んでいるのは中国だけではない。
世界中の他の政府や組織も同様の措置を実施している。
例えば、欧州連合(EU)の「人工知能に関する協調計画」、米国の「ディープフェイク説明責任法」、英国の「オンライン被害白書」などはすべて、オンライン・コンテンツの真正性を確保し、知的財産を保護するための世界的な取り組みを反映している。
注目されるAIとディープフェイク技術
画像、音声、動画を操作するAIに依存したディープフェイク技術の台頭は、誤情報の拡散や潜在的なセキュリティリスクに対する懸念を高めている。
最近の人民日報のインタビューで、張教授は新しい表示制度の重要性を強調し、次のように述べた:
ラベリングシステムは、AIが生成したコンテンツのガバナンス能力を強化し、誤情報の生成を減らし、将来のトレーニングデータセットの汚染を防ぎ、健全なサイバー情報エコシステムを育成する;
ディープフェイクはすでに詐欺目的で悪用されており、厳格な規制の必要性がさらに強まっている。
このような状況において、中国の法律案は、これらの技術に関連するリスクを軽減することを目的としており、国家安全保障を守り、国民の信頼を維持することの重要性を強調している。
AIが生成したコンテンツにラベルを付け、プラットフォームに責任を負わせることで、中国はより透明性の高いデジタル空間を作り出すことを目指している。
AIガバナンスにおける高いコンプライアンス基準の推進
この規制草案は、AIが生成したコンテンツを管理しようとするものであるだけでなく、中国のジェネレーティブAI分野における規制遵守のより厳格な時代の始まりを告げるものでもある。
北京を拠点とする知的財産権専門の弁護士、
このイニシアチブは、中国のジェネレーティブAIサービス分野における厳格な規制と高いコンプライアンス基準の新たな段階を示すものである;
中国政府は、プラットフォームにより高い要件を課すことで、AI技術が責任を持って使用され、AIが生成したコンテンツの悪影響が最小限に抑えられるようにしている。
今後1ヶ月間、この草案に関するパブリックコンサルテーションが開かれるため、利害関係者はフィードバックを提供する機会を得ることになる。
しかし、歴史的な前例に基づけば、北京がこのような草案を発表した後に大幅な変更を加えることはほとんどない。
急速に進化するAI技術に直面する中国の国益を守りつつ、中国のデジタル環境に対する管理をさらに強化するため、提案された規則は現行の形で実施される可能性が高い。