著者:曹建鋒(テンセント研究所上級研究員)
人工知能の責任事故はAI時代の核心問題
ディープラーニングの「黄金の10年ディープラーニングの「黄金の10年」を経て、AI時代が到来し、AIシステムは21世紀における最も重要で重要な技術対象の1つとなり、ロボットタクシー、AIコンパニオンアプリケーション、ヒューマノイドロボットなど、さまざまな新しいインテリジェント製品、サービス、アプリケーションを生み出した。さらに、スケーリング法則の主導の下で、ビッグモデルに代表されるAI技術は依然として加速しており、「AI加速主義vs.AI価値整合」という発展概念さえ引き起こし、AI分野の著名な専門家や学者は、AGIの到来時期を予測し、今後10年ほどの変化と影響を想定している。このAI革命は何をもたらすのか?このAI革命がどのような変化や影響をもたらすかはまだ完全に予測できないかもしれないが、少なくともAI技術の長期的な影響を過小評価すべきではないだろう。
現在、AI技術の開発と応用により、さまざまな製品がますます自律的でインテリジェントになっているだけでなく、人々のインターネット時代から、アルゴリズム、ロボット、AIエージェントがAI社会の中核機能として経済的・社会的意思決定を行う世界への参入が加速している。AI社会またはアルゴリズム社会(アルゴリズム社会)は、このようにアルゴリズムは、ネットワーク化、デジタル化、インテリジェンスの発展を支える中核的な技術要素となっている。これは安全性と効率の大幅な向上につながるが、すべての事故やリスクをなくすことを保証するものではない。絶対的に安全な技術というものは存在せず、リスクを低減し、同時にリスクのいくつかの側面を排除する技術であるが、新たなリスクを生み出す他の側面もあるかもしれない。近年、自動運転車や有形ロボットの安全事故から、AI診断・治療ソフトの誤診、様々な自動意思決定システムによるアルゴリズム差別や不当な意思決定まで、他者の権利や利益を毀損するAI事故が急増しており、AI事故やAI侵害は、ますますAI社会の「新常態」になりつつあると言える。OCEDによる世界のAI事故のモニタリングによると、2014年1月以降、世界的にAI事故が急増しており、2023年12月時点のAI事故総数は7,195件に達している。たとえば、2024年10月以降、米国のティーンエイジャーを自殺に追い込むなどの論争に直面したAIチャットボットプラットフォーム「Character AI」は、少なくとも2件の訴訟の被告となっており、原告は「CHARACTER AIには設計上の欠陥があり、欠陥製品である」として、開発者の責任を追及している。
人工知能がいたるところに応用されている今日、人々はAI事故やAI不法行為に対する法的責任の問題に直面しなければならない。AIシステムが事故や損害を引き起こした場合、法律は被害者に公平で効果的な救済を提供しなければならない。しかし問題は、誰がAI事故やAI不法行為に責任を負うべきなのか、ということだ。高度に自律的なAIシステムは、人間の直接的な制御、介入、監督なしに、独自に行動したり意思決定したりする可能性がある。つまり、AIの文脈では、事故や損害賠償も、人間や人間の行動によって引き起こされるものから、AIシステムやその行動によって引き起こされるものへと変化し始める。この変化は、法的責任の配分と引き受けに課題を突きつける。関連する課題は、責任主体を特定することの難しさだけでなく、AIシステムの自律性、非解釈性、予測不可能性、その他多くの特徴に起因する、過失・欠陥、因果関係、その他の責任構成要素の証明の難しさ、また、AI侵害に対する責任の引き受け方の難しさ(例えば、AIシステムに対する行動差止、シャットダウン、その他の措置などの懲罰的措置の取り方)にもあります。
AI不法行為責任に関する3つの新たな選択肢 本当に実現可能なのか?
そのために、3つの幅広い選択肢からなる、AI侵害に対するまったく新しい責任体制の提案があります。
1つは人格制度で、これは単純に、AIシステムに法的主体の地位を与え、AIシステムが自身の行動に対して直接法的責任を負えるようにすることを意味します。自律的で複雑なAIシステムを独立した法的主体とみなすことで、不法行為責任を人間からAIに移行させるというのは魅力的なアイデアだ。EUの議員たちは、自律型ロボットを「サイボーグ」として特別な法的地位を設けることを提案したが、最終的には却下された。一部の学者は、責任の問題を解決するために、AIシステムに有限責任会社(LLC)と同様の法的人格を与えることを提案している。人々は、大きなモデルが「1人会社」を現実にするかもしれないように、人工知能の将来の発展が「0人会社」、つまり自律的に行動する能力を持つAIシステムをも現実にするかもしれないと想像している(エージェント型)。(エージェント型AI)は、人間の従業員を一人も必要とせず、単独で会社を経営できるようになる。
2つ目は、代理責任や高リスクに基づく無過失責任といった新しいタイプの責任スキームである。一説によると、特に代替AIの場合、企業が人間の従業員の代わりにAIシステムを使用した場合、いわゆる「AI従業員」の行為に対して代理責任を負うべきだという。 ある説によれば、特に代替AIの場合、企業が人間の従業員の代わりにAIシステムを使用した場合、いわゆる「AI従業員」の行動に対して代理責任を負うべきであり、これは機能的同等性の原則に合致する。ビッグモデルの能力が向上し続けるにつれて、人々が実際に自分の代わりに行動できる個人的なAIアシスタントを持つだけでなく、いわゆる「AI同僚」と働き、協力する未来も想定できる。したがって、事業者が「AI従業員」の行動に対して代理責任を負うことは妥当であると思われる。別の考え方としては、AIのリスクベースの規制の道筋を構築することで、リスクの高いAIシステムによって引き起こされた損害について、プロバイダー、所有者、ユーザー、その他の主体が無過失責任を負うようにすることである。例えば、EUのAI法案の核となる考え方は、AIリスクの類型化に基づき、リスクの高いAIシステムに対する安全規制の採用に焦点を当て、許容できないリスクのあるAIシステムを禁止することである。
第三に、保険による解決完全自律型AIシステムによる損害賠償については、既存の不法行為責任制度を社会保険や補償基金などの保険ベースの無過失補償メカニズムに完全に置き換えることを検討することが可能である。過去には、無過失補償メカニズムが不法行為による損害賠償を完全に置き換えた例は珍しくなく、労働災害、交通事故、医療事故、ワクチン被害などの分野でも同様の慣行が存在します。
AI不法行為責任制度の構築いくつかの誤解を解く必要がある
しかし、AI不法行為責任に関するこれらの新しい制度は、あまりに急進的で、安全と自由のバランスを確保するのが難しく、AI革命の発展初期段階であるという事実と矛盾しているだけでなく
安全性と自由を両立させるのはあまりにも急進的であり、AI革命の発展初期段階であるという事実や、弱いAI時代の社会的現実と矛盾しているだけでなく、避けるべきいくつかの帰属上の誤解に基づいています。
誤解1:AIそのものに対する帰属。
AIシステム自体に責任を負わせることは、AIシステムを法的主体として扱うことを意味します。しかし、現段階では、AIの法的人格は道徳的に不要であり、法的にも自滅的です。AIの法的人格を支持する議論のほとんどは、単純化されすぎていると同時に複雑化されすぎている。単純化されすぎているのは、AIがあいまいな境界の中に存在し、現在のところ、法の主体として認識できるような意味のあるAIのカテゴリーが存在しないからであり、複雑化されすぎているのは、議論の多くが「ロボットの誤謬(ごびゅう)」(例えば、ロボットは人間に似ているという考え方)のバリエーションだからである。議論の多くが、AIの将来の発展についての推測に基づく「ロボットの誤謬」(例えば、ロボットは人間に似ているという考え)のバリエーションであるため、複雑すぎるのだ。当面、AIシステムに法的人格を付与することは、その「行動」責任に対する「万能薬」ではなく、「パンドラの箱」を開け、まったく新しい法的・倫理的問題を提起する可能性がある。むしろ、新たな一連の法的・倫理的問題を提起する「パンドラの箱」を開けてしまう可能性がある。特に、AI法的人格は、法的責任や義務を回避・転嫁するメカニズムとして容易に濫用されることにつながる。言い換えれば、AI法人格は一種の「法的ブラックホール」となり、説明責任の兆候なしに人間の行為者から法的責任を吸い上げる存在となり得るのである。要するに、AIは人間自身の活動として、たとえそれがより複雑で知的で高度なものであったとしても、人間に奉仕しその目的を達成するための道具に過ぎず、法の対象として人間の幸福を促進する必要性を十分に示しているのである。根本的に、私たちは道具的AI(ツールAI)を開発する必要があるのであって、人間に完全に近い、いわゆる主観的AIを開発する必要はない。
誤解その2:公法におけるAIリスクの類型概念とAIフックによる不法行為責任のルール。
世界的なAI規制の主な考え方の1つは、リスクレベルの異なるAIシステムを区別する「リスクベースの規制」を採用することだ。EUのAI法はこの考え方の代表的なもので、AIシステムをリスクのレベルに応じて、許容できないリスクのAI、高リスクのAI、限定的リスクのAI、最小リスクのAIの4つに分類し、高リスクAIの要件と関連する事業者(提供者、配置者など)の義務に焦点を当てている。このうち、高リスクAIは、AIシステムが自然人の健康、安全、基本的権利に危害を及ぼす重大なリスクがあるという基準で判断される。このような規制の考え方の下で、高リスクAIは無過失責任に、低リスクAIや非高リスクAIは過失責任や推定過失責任に結び付けるなど、AIシステムのリスクの程度を責任帰属の原則に結びつける傾向がある。先にEUの立法府が提案した「人工知能の運用に係る責任に関する規則案」は、この種の責任帰属の典型である。しかし、公法制度の枠組みの下で、リスクに応じたAIの類型化を、一律に異なる責任規定と結びつけてマッチングさせることは合理的ではなく、むしろ見当違いである。その主な理由は、高リスクのAIと、伝統的な無過失責任理論が対象とする異常な危険性を有する物体や活動との間には、単純な等価性がないからである。それどころか、AIの導入は、危険な領域に対する人々の認識を変える可能性があり、いわゆる高リスクのAIは、実際には、人間が管理・操作する同様の物体や活動よりも安全かもしれない。言い換えれば、いわゆるハイリスクなAIは、実際にはリスクを減らし、安全性を高めるように設計されており、それが取って代わる人間の活動よりも実際には安全なのだ。
神話3:AIシステムの「振る舞い」に対する過失評価。
AIシステムが事故や損害を引き起こしたときの「振る舞い」や性能をどう評価するかは重要な問題だ。具体的には、人間の行為者に過失があるかどうかを判断するために使用される「合理的な人」の基準に類似して、AIシステムにいわゆる「過失」があるかどうかを判断するために「合理的なロボット」の基準を使用することができます。合理的ロボット」基準は、AIシステムにいわゆる「過失」があるかどうかを判断するために使用することができ、これにより、関連する主体の責任をAIシステムに限定することができる。例えば、米国では、以前、Nilsson v. Gen. Motors LLCにおいて、原告は米国の自動運転車会社Cruiseを訴えたが、製造物責任に基づく請求ではなく、過失に基づく理論を選択した:バイクの所有者は、Cruiseの自動運転車が過失のある方法で走行していたため、隣接する車線に進入し、通行車両を考慮せずに転倒させたと主張した。と主張した。これは、かつて人間の行為者にのみ許された不法行為の申し立てである、ロボットの過失運転自体が正式に非難された史上初のケースかもしれない。現代の不法行為法が過失に対するアプローチをより客観的にする傾向にあるとはいえ、過失の概念は常に人間の行為に向けられたものであり、人間の主観と結びついているため、AIシステムの「行為」や性能に過失の基準を適用することは現実的ではない。AIシステムの自律性が高まるにつれ、裁判所は今後、多くのAI事故において、ユーザー(例:運転手)の行動を評価することから、AIシステム(例:自動運転システム)の行動を評価することにシフトする必要があることが予見されます。振る舞い、そしてAIシステムの「振る舞い」や性能は、欠陥ではなく製品の欠陥という観点から評価されるべきである。これは、産業時代に向けた伝統的な製品の製造物責任制度をタイムリーに更新することを求めている。
誤解4:機能的同等性の原則に基づき、AIシステムを導入・運用する主体に対する説明責任を代替する。
機能的同等性の原則(Functional Equivalence)は、AIシステムのような自律的技術の使用が機能的に人間のサポート要員を雇うことと同等であり、その結果として損害が発生するのであれば、その技術を配備し、使用するオペレーター(Operators)の責任は、その人間のサポート要員(Human Support Person)に対するプリンシパル(Principal)の責任と同じであるべきだと主張する。)からその人間補助者(Human Auxiliary)に対して、すなわち、AIシステムのオペレーターは、AIシステムによって引き起こされた損害に対して代理責任を負う。しかし、この考え方は自滅的である。機能的同等性に基づく責任の類推は一見合理的に見えるかもしれないが、実際には実行不可能である。さらに、機能的同等性の理論は、技術の代替効果に表面的に焦点を当てているに過ぎず、この技術現象の背後にある真のリスク創造とコントロールについての洞察を提供しない。例えば、AI以前の時代において、工場が労働者の代わりに自動化装置を使用していた場合、自動化装置が誤作動を起こし損害を与えた場合、被害者は工場に自動化装置に対する代理責任を問うのではなく、自動化装置の生産者責任を問うことを考えるだろう。AIシステムのリスクプロファイルは様々かもしれないが、それらは従来の自動装置よりも高度でスマートなツールに他ならない。つまり、機能的同等性の霧を切り裂き、どの主体(一般的には、ツールの提供者と使用者)がどのようなリスクを生み出し、コントロールしているのかを検証する必要がある。というのも、最終的には、AIシステムによって引き起こされた損害に対して、誰かが責任を取れるようにしたいだけであり、むしろ、人間の行為者に責任を取らせるのと同じように、AIシステムにも責任を取らせたいと考えているからです。
AI時代の不法行為責任制度道はどこにあるのか?
人工知能は、現在の不法行為責任制度の効果的な適用に難題を突きつけていますが、だからといって、新しい炊飯器を作り、まったく新しい責任制度を採用する必要はありません。それどころか、現段階では、過失責任や製造物責任といった不法行為責任の確立されたルールに必要な調整を加えることで、不法行為責任制度をAI時代の発展のニーズに適応させ、安全とイノベーションのバランスを達成することができるだろう。
まず、AIの法的対象地位を堅持し、AI事故とAI不法行為における人間の責任を履行する。技術的な現実から見ると、現在のAIシステムは、どれほど高度で知能が高くても、常に誰かがそれを開発し、使用する必要がある。具体的には、AIのバリューチェーンが複雑であるにもかかわらず、提供者側と利用者側という2つのグループを比較的明確に区別することができます。なぜなら、それぞれのグループ内(例えば、生産者と供給者、所有者と利用者の間)において、責任は比較的容易にメンバーの一人に割り当てられるか、契約上の手段によって複数のメンバー間で共有されるからである。例えば、EUのAI法は、AIのプロバイダーとAIユーザー(AIシステムの従業員)を区別し、これら2つのグループに関連する義務と責任を課すことに焦点を当てている。従って、不法行為責任の目的のために、AIプロバイダーとAIユーザーを識別し、決定するための基準を確立することが必要であり、重要である。
2つ目は、AI時代の製造物責任制度を変革することです。AIアプリケーションの多くの具体的な使用シナリオにおいて、利用者は依然として一定の注意義務(意図された用途に従った使用、データの品質の確保、監視、メンテナンスなど)を果たす必要があり、利用者がコントロールできるAIの使用の側面について責任を負うが、長期的には、利用者の注意義務は狭められることになり、利用者の責任はそれに応じて縮小する可能性が高い。.AIの所有者と使用者の役割と支配力が弱まる傾向が続く中、AI提供者の責任は将来、不法行為責任法の中心的な舞台に登場する可能性が高い。新しいタイプの「スマート」製品として、AIシステムは、製品の概念、生産者の定義、欠陥、賠償可能な損害、因果関係、立証責任など、既成の製造物責任制度に必要な革新を要求している。例えば、AI規制の分野では、EUの議員たちは、世界初の包括的なAI法案を制定する一方で、1985年のEU製造物責任指令を包括的に改正し、デジタル時代とAI時代に対応した全く新しい製造物責任制度の確立を目指している。一方、EUの法律家たちは、AIユーザーの責任に関するより明確で実行可能な規則を確立することを目的としたAI責任指令に現在も取り組んでいる。
第3に、保険はAI賠償責任の枠組みを補完する有用なメカニズムとして利用されるべきであり、代替的なものではありません。保険はリスク管理ツールとして、新技術の社会への安全な統合を促進する上で、見過ごすことのできない重要な役割を果たします。例えば、技術革新にインセンティブを与え、新技術の安全な実装を保証するための金銭的保証を提供することなどです。適切な調整と規制介入によって、保険は技術革新を支え、社会に必要な保障を提供し続けることができる。既存の保険制度はAIシステムを規制するために利用できるが、AI専用の保険や包括的な保険は必要ない。また、大きな経済的・社会的利益をもたらす可能性のあるAI技術の普及を逆生産的に妨げないよう、AIアプリケーションに対する強制的な保険契約の導入には注意が必要である。
第4に、AIの不法行為責任制度に加えて、最先端AIのセキュリティリスクに注目し、積極的に対応する必要がある。人工知能のガバナンスにおいて、AI不法行為責任規定は必要であるが、その役割は限定的である。AIシステムによって引き起こされる可能性のある人々の個人的・財産的権益に対する損害リスクには効果的に対処できるが、超知能などの最先端AI(フロンティアAI)がもたらす可能性のある極端なリスクや破滅的なリスクに対しては、AI不法行為責任規定で実質的な役割を果たすことは難しい。役割AIの加速度的な発展傾向の下で、超知能(スーパーインテリジェンス)は出現の危機に瀕しており、その潜在的な安全保障上のリスクは、政府、研究界、産業界の積極的な注目と関心をますます集めている。海外のAI専門家は、長期的に見れば、ほとんどの人が超知能の安全保障上のリスクがどれほど深刻かを過小評価していると指摘している。したがって、幸福AI(well-being AI)を積極的に提唱、開発、構築し、AIを利用して個人、社会、環境の幸福を最大化し、AIの価値調整を含む人間とコンピュータの調整の概念を超知能の開発に統合することが重要である。特に重要である。
本記事の内容は学術的な議論のみを目的としたものであり、当団体の見解を表すものではありません
[1]鄭志峰「人工知能の製造物責任に関する法制の最新情報」『法学』(ノースウェスタン大学政法学院ジャーナル)第4巻第4号、2024年
[2]曹建峰「ビッグモデルの文脈における人間と機械の整合性」『中国社会科学報』
https://www.cssn.cn/skgz/bwyc/202410/t20241029_5797216.shtml
[3] https://www.youtube.com/watch?v=559VdVIz5V4
[4] https://eur-lex.europa.eu/eli/dir/2024/2853/oj
[5]https://mp.weixin.qq.com/s/HKbVSvQzULG13BSLCfVpBQ[6]https://darioamodei.com/machines-of-loving-grace
[7] https://ia.samaltman.com/
[8] https://www.washingtonpost.com/documents/028582a9-7e6d-4e60-8692-a061f4f4e745.pdf