著者:張烽
欧州委員会は、追加情報要求の発行、インタビューの実施、現地検査の実施など様々な方法で証拠収集を継続することを明確に表明した。Xプラットフォームがコンプライアンス要件を満たすためにサービスに実質的な調整を行わない場合、EUは法に基づき暫定措置を講じ、非準拠認定を行う。その場合、Xプラットフォームは巨額の罰金や事業制限などの厳しい処罰に直面する可能性がある。

一、《デジタルサービス法》(DSA)制定の背景と主な内容
EUが今回Xプラットフォームに対して行った調査の核心的な根拠は《デジタルサービス法》(DSA)である。2023年8月より、Amazonのサードパーティマーケットプレイス、アップルのApp Storeアプリケーションストア、およびその他16のインターネットサービスがEUの『デジタルサービス法』の規制対象となり、2024年2月17日よりEU域内の全てのオンラインプラットフォームに適用される。同法はEUデジタル戦略の中核を成すものであり、世界的に最も厳格かつ体系的なデジタルサービス規制の一つである。その制定は偶然ではなく、デジタルサービスの急速な発展がもたらした数多くのガバナンス上の課題に基づき、デジタルサービス提供者の行動を規範化し、ユーザーの権利を保護し、デジタル空間の公平性と安全性を維持することを目的としている。
(一)制定背景
インターネット技術の急速な発展に伴い、デジタルサービスはEU市民の日常生活に深く浸透しているが、デジタル空間における混乱も日増しに顕在化し、EU規制当局が早急に解決すべき課題となっている。一方で、違法コンテンツや不適切なコンテンツがデジタルプラットフォーム上で蔓延し、市民の身体的権利や人格的尊厳を侵害するだけでなく、社会矛盾を引き起こし、社会秩序を破壊し、国家安全保障を脅かす可能性すらある。他方では、大規模デジタルプラットフォームが独占的地位を背景に市場優位性を濫用し、ユーザーデータの恣意的な収集、推薦アルゴリズムの操作、競争制限などを行い、ユーザーのプライバシー権益を損なうだけでなく、デジタル産業の革新的発展を阻害している。
『デジタルサービス法(DSA)』の制定は、まさにこうした課題に対応するためのものであり、その核心目標は安全で透明性が高く公平なデジタル単一市場を構築し、デジタルサービスの革新とユーザー権益保護・公共利益維持とのバランスを図るとともに、EUのグローバルなデジタルガバナンスにおける発言力を強化することにある。DSAは統一的な規制ルールを確立し、EU域内でデジタルサービスを提供するすべての事業者(本社がEU域内に所在するか否かを問わず)に同法の遵守を義務付けることで、「規制の裁定」行為を効果的に抑制している。
(二)主な内容
『デジタルサービス法』の内容はデジタルサービス規制のあらゆる側面を網羅し、中核となる「階層的規制、責任の明確化、透明性と追跡可能性」の三大原則に基づき、デジタルサービスプロバイダーを異なる階層に分類し、その規模と影響力に応じて異なるレベルの規制義務を課す。
第一に、規制の適用範囲を明確化。DSAの規制範囲は極めて広範で、EU域内でユーザーにデジタルサービスを提供する全ての自然人、法人及びその他の組織を対象とする。本社がEU域内か域外かを問わず、サービス対象にEU市民が含まれる場合は本法の遵守が義務付けられる。具体的には、ソーシャルプラットフォーム、検索エンジン、ECプラットフォーム、クラウドサービスプロバイダー、アプリストアなど様々なデジタルサービスが含まれる。このうち「超大型オンラインプラットフォーム」(Very Large Online Platforms, VLOPs)と「超大型オンライン検索エンジン」(Very Large Online Search Engines,VLOSEs)に対してはより厳格な規制要件が設定されている——DSAの規定によれば、月間アクティブユーザー数が4500万人を超えるプラットフォームは「超大型オンラインプラットフォーム」と認定され、Xプラットフォーム、Meta傘下のFacebook、Instagramなどがこれに該当する。
第二に、プラットフォームの責任を段階的に設定している。DSAはデジタルサービスプロバイダーの規模と影響力に基づき、4つの階層に分類し、それぞれ異なる責任義務を設定している:第一層は基本サービスプロバイダー(例:インターネット接続サービス)であり、監督当局の調査への協力など、最も基本的なコンプライアンス義務のみを履行すればよい。第二レベルは一般デジタルサービスプロバイダー(例:小規模ソーシャルプラットフォーム、ニッチECサイト)は、コンテンツ審査やユーザー苦情処理などの義務を履行する必要がある;第三レベルはホスティングサービスプロバイダー(例:クラウドストレージ、フォーラムホスティング)であり、ユーザーがアップロードしたコンテンツに対して予備審査を行い、明らかな違法コンテンツを速やかに削除する必要がある;第四レベルは超大型オンラインプラットフォーム及び超大型オンライン検索エンジンであり、定期的なリスク評価の実施、独立したコンプライアンス体制の構築、第三者監査の受入れなど、最も厳格な監督義務を履行する必要がある。
第三に、アルゴリズムとコンテンツ管理の規範化である。これはDSAの中核的内容の一つであり、今回のEUによるXプラットフォーム調査の重要な根拠でもある。法案は明確に、デジタルサービスプロバイダーが使用する推薦アルゴリズムを規範化し、アルゴリズムの透明性、説明可能性、公平性を確保し、アルゴリズムを利用して違法コンテンツを拡散したり、ユーザーを誤導したり、差別的行為を行ったりしてはならないと要求している。超大規模オンラインプラットフォームについては、アルゴリズムの動作原理、推薦ロジック、およびアルゴリズムがもたらす可能性のあるリスクを定期的に公開し、アルゴリズムが引き起こすシステミックリスクを緩和するための効果的な措置を講じる必要がある。同時に、法案はすべてのデジタルサービスプロバイダーに対し、違法コンテンツ審査メカニズムを確立・整備し、ユーザーから通報された違法コンテンツを速やかに処理することを要求している。明らかな違法コンテンツ(テロリズム宣伝、児童性的虐待素材など)については、規定時間内に削除または下架しなければならない。
第四に、ユーザー権益保護の強化。DSAはユーザー権利保護を重要位置に置き、ユーザーが知る権利、選択権、苦情申立権、データプライバシー権を享有することを明確に規定している。例えば、ユーザーはプラットフォームの推薦アルゴリズムの基本ロジックを知る権利、プラットフォームのパーソナライズド推薦を拒否する権利を有する。プラットフォームは便利なユーザー苦情申立チャネルを構築し、ユーザーが申告した違法コンテンツや違反行為に対しては、規定時間内に応答・処理しなければならない。プラットフォームはユーザーデータを恣意的に収集・利用してはならず、一般データ保護規則(GDPR)の要求を厳格に遵守し、ユーザーのプライバシー権益を保護しなければならない。さらに、本法案は特に未成年者や社会的弱者の権益保護に焦点を当て、プラットフォームに対し未成年者が有害コンテンツに接触するのを防止するための特別措置を講じるよう求めている。
第五に、厳格な執行・罰則メカニズムを構築する。DSAは欧州委員会及び各加盟国監督機関の執行権限を明確化し、統一的な執行調整メカニズムを構築することで、規制ルールの効果的な実施を確保する。DSAに違反したデジタルサービスプロバイダーに対し、EUは違反の重大性に応じて異なる制裁措置を講じる:軽微な違反には警告及び是正命令を科す。重大な違反に対しては、全世界の年間売上高の最大6%に相当する罰金が科せられる。この罰金比率は他の規制法規制をはるかに上回り、極めて強い抑止力を持つ。さらに、継続的な違反や是正拒否を行うプラットフォームに対しては、EUは暫定措置を講じることができ、これにはプラットフォーム機能の制限、EU域内でのサービス停止、さらにはプラットフォームのEU市場からの強制撤退が含まれる。
二、EUによるXプラットフォーム調査の核心的詳細分析
2026年1月26日にEUが開始したXプラットフォームに対する新たな調査は、EUがXプラットフォームに対して初めて規制措置を講じたものではない——2025年末、欧州委員会はXプラットフォームが「ブルーバッジ認証」インターフェース設計においてユーザーを誤解させ、広告ライブラリの透明性を欠き、研究者へのデータ開放を拒否したなどの理由で、1億2000万ユーロの罰金を科した。
今回の新たな調査はXプラットフォームのAI推薦アルゴリズムに焦点を当てたもので、EUがDSAに基づき超大規模オンラインプラットフォームに対して行う定常的な監督であり、同時にデジタルプラットフォームにおけるAI技術の応用に対する特化した規制でもある。
(一)監督主体
今回のEUによるXプラットフォーム調査では、監督主体が「欧州委員会主導、加盟国監督機関の協調」という二重構造を呈している。この構造はDSAの規定に基づき構築され、規制業務の統一性と効率性を確保している。
中核的な規制主体は欧州委員会である。DSAの授権に基づき、欧州委員会はEU域内のデジタルサービス規制業務の統括・調整を担当し、超大規模オンラインプラットフォーム及び超大規模オンライン検索エンジンに対して直接的な監督権と執行権を有する。今回の調査は欧州委員会が直接発動し、調査計画の策定、関連証拠の収集、Xプラットフォームのコンプライアンス状況の評価を担当し、最終的に違反の有無を認定し、どのような制裁措置を取るかを決定する。
共同監督主体は各加盟国のデジタルサービス調整機関である。DSAは各EU加盟国に対し、欧州委員会との連携による監督業務の実施、自国域内のデジタルサービスに関する苦情処理・調査等の事務を担当する専門のデジタルサービス調整機関の設置を義務付けている。今回の調査において、XプラットフォームのEU設立地所在国であるアイルランドの国家デジタルサービス調整機関Coimisiún na Meánは、欧州委員会と緊密に連携し、証拠収集の支援、現地検査の実施、Xプラットフォームのアイルランド代表機関との調整など、本調査に関連する業務に参加している。さらに、他のEU加盟国のデジタルサービス調整機関も欧州委員会の要請に基づき必要な支援を提供し、調査がEU域内で円滑に進むよう確保する。
(二)規制対象
今回の調査の規制対象は明確であり、その核心はマスク氏が率いるXプラットフォームである。具体的にはXプラットフォームの二大中核要素に焦点を当てている:一つは組み込み型人工知能モデル「Grok」、もう一つはGrokを基盤とするレコメンデーションアルゴリズムである。
プラットフォームの観点から見ると、Xプラットフォームは世界的に有名なソーシャルプラットフォームとして、月間アクティブユーザー数がDSAが定める4500万の閾値を大幅に上回り、「超大規模オンラインプラットフォーム」に該当するため、したがってDSAが定める最も厳しい規制義務を履行する必要があり、これがEUが同プラットフォームを規制の重点対象とした重要な理由の一つである。Xプラットフォームはマスク氏による買収後、機能調整を複数回実施しており、その中にはAIモデルGrokをプラットフォームに組み込み、レコメンデーションアルゴリズムの駆動やユーザーコンテンツ生成などに活用する措置も含まれる。今回の調査はまさにこの調整に伴うコンプライアンスリスクを対象としている。
具体的な機能面では、規制対象の中核はGrok AIモデル及びそれが駆動するレコメンデーションアルゴリズムである。GrokはXプラットフォームプロバイダーが開発した人工知能ツールであり、2024年以降、Xプラットフォームはこれを様々な形でプラットフォームに導入し、ユーザーがテキストや画像を生成することを可能にし、ユーザーが公開するコンテンツに文脈情報を提供するとともに、同時にプラットフォームのレコメンデーションアルゴリズムを最適化し、ユーザーにパーソナライズされたコンテンツをプッシュしています。EUの今回の調査の焦点は、Grok AIモデル駆動型レコメンデーションアルゴリズムが、偽造された露骨なポルノ画像、児童性的虐待素材、反ユダヤ主義コンテンツなどの違法コンテンツを拡散するリスクがあるかどうかを評価すること、およびXプラットフォームがGrokの適用について十分なリスク評価を行い、効果的なリスク軽減措置を講じているかどうかです。
さらに、調査範囲にはXプラットフォームのリスク評価報告書提出状況も含まれる。欧州委員会は、XプラットフォームがDSAに基づき提出したリスク評価報告書を精査した結果、Grok AIモデルが報告書に反映されていないことを指摘した。これはXプラットフォームがGrok自体、またはXプラットフォームへの統合がEU市民にもたらす可能性のあるリスクを評価していないことを意味し、今回の調査の重要な焦点の一つとなっている。同時に、欧州委員会はXプラットフォームのレコメンデーションシステムに関する調査範囲を拡大し、同社が最近発表した「Grokベースのレコメンデーションシステム」への移行が及ぼす影響を評価し、同システムがDSAで定義されたシステミックリスクを包括的に特定・軽減しているかどうかを判断する方針だ。
(三)規制根拠
今回のEUによるXプラットフォーム調査の核心的な規制根拠は、2023年に正式発効した「デジタルサービス法(DSA)」である。具体的には、DSA内の以下の主要条項が主な根拠となっており、これらの条項はXプラットフォームのコンプライアンス義務とEUの規制権限を明確に規定している。
一つ目は、DSAにおける「超大規模オンラインプラットフォーム」の規制義務に関する条項である。DSA第34条および第35条の規定に基づき、超大規模オンラインプラットフォームは定期的にシステミックリスク評価を実施し、プラットフォームサービスがもたらす可能性のある違法コンテンツの拡散やユーザー権益の侵害などのリスクを特定するとともに、具体的なリスク軽減策を策定し、特別リスク評価報告書を作成して欧州委員会および各加盟国の規制当局に提出しなければならない。今回のEU調査では、Xプラットフォームがリスク評価報告書にGrok AIモデルを反映させておらず、上記条項に違反し、リスク評価義務を履行していない可能性があることが判明した。
第二に、DSAにおけるアルゴリズム規制に関する条項。DSA第42条は、超大規模オンラインプラットフォームに対し、使用するレコメンデーションアルゴリズムを規範化し、アルゴリズムの透明性、説明可能性、公平性を確保することを明確に要求している。アルゴリズムを利用して違法コンテンツを拡散したり、ユーザーを誤導したり、差別的行為を行ってはならない。同時に、プラットフォームはアルゴリズムがもたらすシステミックリスクを緩和するための効果的な措置を講じる必要がある。今回の調査の核心は、XプラットフォームのGrokに基づく推薦アルゴリズムが上記の要件を満たしているか、違法コンテンツを拡散するリスクが存在するかどうかを評価することであり、関連する問題が存在する場合、DSAの当該条項に違反することになる。
第三に、DSAにおける違法コンテンツ処理に関する条項である。DSAは全てのデジタルサービスプロバイダーに対し、違法コンテンツの審査・処理メカニズムを確立し、ユーザーから通報された違法コンテンツを速やかに処理することを要求している。明らかな違法コンテンツについては、規定時間内に削除または下架する必要がある。欧州委員会は、Xプラットフォーム上で反ユダヤ主義コンテンツ、同意を得ていない女性のディープフェイク動画、児童性的虐待関連コンテンツが発見されたと指摘している。Xプラットフォームは適切な対応措置を講じなかった可能性があり、これはDSAの違法コンテンツ処理に関する関連条項に違反する恐れがある。
第四に、DSAにおける執行と罰則に関する条項である。DSA第66条などの関連条項は、欧州委員会の執行権限を明確に定めている。これには調査の開始、証拠収集、暫定措置の実施、不適合決定の発行、罰則の適用などが含まれる。これらの条項に基づき、欧州委員会はXプラットフォームに対し正式な調査を開始する権限を有し、情報要求の発行、インタビューの実施、現地検査の実施などを通じて証拠を収集できる。Xプラットフォームに違反行為が認められ、かつ実質的な是正が行われていない場合、欧州委員会は暫定措置を講じ、不適合決定を下し、Xプラットフォームに対し全世界年間売上高の最大6%に相当する罰金を科す権限を有する。
さらに、今回の欧州委員会の調査では、Xプラットフォームに対する過去の監督記録も参照されている——2025年末、EUはXプラットフォームの欺瞞的設計、広告透明性の不足、研究者へのデータアクセス不備などの問題に対し、1億2000万ユーロの罰金を科した。今回の調査はXプラットフォームのコンプライアンス状況に対する継続的監視であり、DSAが定める各義務の確実な履行を確保するものである。
三、EUの今回の調査の合理性と公平性
EUが今回『デジタルサービス法』に基づきXプラットフォームの調査を開始したことは、EUがデジタルサービス監督責任を履行し、ユーザーの権益を保護し、デジタル空間の安全を維持するための重要な措置であり、一定の合理性を有している。しかし同時に、調査の対象選定、規制の公平性、引き起こす可能性のある負の影響などの点において、疑問の余地がある部分も存在する。したがって市場では、EUが最終的にXプラットフォームに対して厳しい制裁決定を下した場合、XプラットフォームがEU司法裁判所に提訴し、EUの調査の合法性と制裁決定の合理性に異議を唱える可能性が高いと見られており、これにより規制プロセス全体が長期化するだけでなく、世界のデジタル規制分野における焦点となる事件となるだろう。
(一)全体として規制目標に合致し、業界の発展ニーズを満たす
今回のEU調査の合理性は主に以下の点に表れており、DSAの立法精神とグローバルなデジタルガバナンスの潮流に沿っている。
第一に、DSAの立法目標に沿い、効果的に防止できる点である。AIアルゴリズムがもたらすリスクを効果的に防止できる点である。DSAの中核目標は、デジタルサービス提供者の行動を規範化し、ユーザーの権益を保護し、デジタル空間の安全性と公平性を維持することである。今回の調査はXプラットフォームのGrok AIモデルとその推薦アルゴリズムに焦点を当て、デジタルプラットフォームにおけるAI技術の応用がもたらす可能性のある違法コンテンツ拡散リスクを対象としており、これはDSAの立法目標と高度に一致している。AI技術の急速な発展に伴い、AIアルゴリズムがもたらすリスクは日増しに顕在化しており、規制を強化しなければ、ユーザーの権利や社会の公共秩序に深刻な危害を及ぼす可能性がある。EUが今回タイムリーに調査を開始したことは、こうしたリスクを効果的に防止し、プラットフォームにコンプライアンス義務の履行を促し、AIアルゴリズムの応用を規範化するという点で、DSAの立法精神に合致している。
第二に、グローバルなデジタルガバナンスの潮流に沿い、デジタルサービス業界のコンプライアンス化を推進する点である。現在、グローバルなデジタルガバナンスの中核的傾向は、デジタルサービスプラットフォーム、特にAI技術やレコメンデーションアルゴリズムに対する規制強化を通じて、ユーザーの権利を保護し、デジタル空間の安全を維持することにある。EUの今回の調査は、グローバルなデジタルガバナンスにおける重要な実践であり、デジタルサービス業界のコンプライアンス化・規範化を促進し、他の国や地域のデジタル規制に参考を提供するものである。例えば、多くの国や地域がデジタルサービス規制法の制定や整備を進めており、EUの今回の調査とDSAの実施経験は、これらの国や地域に参考を提供し、グローバルなデジタル規制の規範化・統一化を推進するものである。
第三に、Xプラットフォームが実際に抱える違反リスクに対して、明確な規制対象性を有している。EUの今回の調査は盲目的に開始されたものではなく、Xプラットフォームに存在する実際の違反リスクに基づいている。欧州委員会は、Xプラットフォーム上で反ユダヤ的コンテンツ、同意を得ていない女性の深度偽造動画、児童性的虐待に関連するコンテンツが発見されたと指摘。さらにXプラットフォームはGrok AIモデルに対する十分なリスク評価を実施せず、リスク評価報告書にGrokの関連状況を反映させておらず、DSA関連規定に違反する可能性がある。したがって、今回の調査はXプラットフォームの実際の違反行為とリスクを対象としており、明確な対象性を持ち、Xプラットフォームの是正を効果的に促し、ユーザーの権益を保護することができる。
第四に、監督職責を履行するための必要措置であり、DSAの監督権威を強化することができる。Xプラットフォームは世界的に著名な超大規模オンラインプラットフォームとして、そのコンプライアンス状況はデジタルサービス業界全体にとって重要な模範的役割を果たす。EUが今回Xプラットフォームに対して調査を開始したことは、監督責任を履行するための必要措置であり、世界のデジタルサービスプロバイダーに対して明確な規制シグナルを伝え、全てのプラットフォームがDSAの規定を厳格に遵守するよう促し、DSAの監督権威を強化し、規制ルールの効果的な実施を確保することができる。
(二)規制の的を絞った公平性と影響のバランスに議論あり
EUの今回の調査には一定の合理性があるものの、実践過程では疑問視される点も存在し、主に以下の側面で業界内の広範な議論を引き起こしている。
第一に、調査の対象選定に偏りがあり、Xプラットフォームに過度に焦点を当てている可能性があり、「選択的規制」の疑いが持たれている。Xプラットフォームはマスク傘下の企業として、買収後、EU規制当局と度々摩擦を起こしており、EUは既にXプラットフォームに対し1億2000万ユーロの罰金を科しており、今回の新たな調査開始は、EUの調査に「選択的規制」の疑いがある——つまりXプラットフォームに過度に焦点を当て、他の類似プラットフォームにおける同種の違反行為に対する規制が不十分である——との疑問を招かざるを得ない。例えば、Meta傘下のFacebookやInstagram、Google傘下のYouTubeなどのプラットフォームもAIモデルを内蔵しており、その推薦アルゴリズムも違法コンテンツ拡散のリスクを孕んでいる可能性がある。しかしEUは今回、これらのプラットフォームに対して同様の調査を開始しておらず、規制の公平性に関する疑問を招いている。さらに、XプラットフォームのGrok AIモデルは比較的最近導入されたばかりで、そのリスクは完全には明らかになっていない。EUがこの時期に調査を開始することは、過剰規制の疑いがあり、プラットフォームの革新的発展に不利である可能性がある。
第二に、規制基準が厳しすぎるため、AI技術の革新と発展を抑制する可能性がある。DSAは超大型オンラインプラットフォームに対する規制要件が極めて厳しく、特にAIアルゴリズムの規制においては、プラットフォームにアルゴリズムロジックの公開、リスク評価の実施、コンテンツ審査の強化などを求めている。これらの規制要件はリスクを効果的に防止できる一方で、AI技術の革新と発展を抑制する可能性もある。AI技術の発展には一定の試行錯誤の余地が必要であるが、過度に厳しい規制要件は、プラットフォームがAI技術の研究開発や応用を大胆に進めることを躊躇させ、違反による厳しい処罰を懸念させる可能性がある。例えば、プラットフォームは生成AIへの投資を削減したり、AIモデルの機能を制限したりする可能性があり、これはAI技術の革新と進歩に不利であり、デジタルサービス業界の発展活力にも影響を与える可能性がある。
第三に、規制の公平性は検討の余地があり、「地域保護」の傾向が存在する可能性がある。
第四に、想定される負の影響が十分に考慮されておらず、ユーザー体験と業界発展に悪影響を及ぼす可能性がある。前述の通り、今回の調査はプラットフォームがパーソナライズド推薦機能を弱め、AI機能を制限し、サービス料金を引き上げるなど、ユーザーの体験と権利に影響を与える可能性がある。同時に、過度に高いコンプライアンスコストは中小プラットフォームのEU市場撤退を招き、業界の集中度を高め、独占構造を形成する恐れがあり、業界の公平な競争と革新的な発展に不利である。しかしEUは調査開始時に、こうした潜在的な負の影響を十分に考慮しておらず、対応策も策定していないため、規制効果が期待通りにならないばかりか、逆効果を招く恐れがある。
第五に、調査手続きの透明性が不十分であり、調査結果の公正性に影響を及ぼす可能性がある。今回EUがXプラットフォームに対する調査を開始した際、調査の重点と根拠は明確化されたものの、具体的な調査手順、証拠収集の方法、評価基準などは、一般市民やXプラットフォームに対して十分に公開されておらず、これが調査結果の公正性に影響を及ぼす可能性がある。調査対象であるXプラットフォームは、調査の具体的な状況を把握し、十分な弁明の機会を得る権利を有する。しかし、EUの今回の調査手続きの透明性が不十分であるため、Xプラットフォームが自らの権利を十分に行使できず、調査結果の公正性と合理性に影響を及ぼす可能性がある。