人工知能 (AI) と規制は、テクノロジーが進歩し続け、社会のさまざまな側面に浸透するにつれて、ますます重要になっています。 AI 規制の目的は、AI システムの責任ある開発、展開、使用を保証するためのガイドライン、フレームワーク、標準を確立することです。
AI 規制は、さまざまな法的枠組み、文化的価値観、政策の優先順位を反映して、国や地域によって大きく異なる可能性があることに注意することが重要です。 AI 規制の進化する状況に追いつくには、国内レベルと国際レベルの両方で動向を監視する必要があります。
2023年6月7日から9日までシンガポールエキスポで開催されたAsia Tech x Singapore (ATxSG)では、このような話題が議論されました。このイベントは、さまざまな分野の先見者、専門家、愛好家が集まり、最新のテクノロジートレンドを探求する比類のないプラットフォームとして機能します。 、差し迫った課題に取り組み、無数のチャンスを解き放ちます。
障壁の突破: AI リスク政策と規制に関する世界的な対話
世界的な情勢の中で、新しい AI モデルの波が浮上し、国、地域、国際機関が AI 規制という重要な問題に取り組むようになっています。現在導入されている一般的なメカニズムが、目の前の複雑さに対処するには不十分であることは明らかです。これに関連して、さまざまな国が AI の規制をどのように認識しているかを調査することが最も重要になります。
注目すべきことに、シンガポールは、IMDA と PDPC による AI ガバナンス テスト フレームワークおよびツールキットである A.I.Verify の開発により、この方向への先駆的な一歩を踏み出しました。一方、米国 (US) では、国立標準技術研究所 (NIST) が待望の人工知能リスク管理フレームワークを発表しました。さらに、欧州連合 (EU) は、リスクベースのアプローチを採用し、特定の AI システムの禁止を規制することを目的として、AI に関する初の法的枠組みの完成に熱心に取り組んでいます。
こうした発展が進むにつれ、既存の法律と最近の制定法の両方を通じて、AI 規制の状況を調査することが重要になります。
これは、Asia Tech 2023 の最後の 2 日間に開催された両方のパネル ディスカッションで詳細に議論されました。「AI の規制に関する世界的な比較の視点」と題された最初のパネル ディスカッションでは、ジェイソン タマラを含む関連業界のリーダーが出席して意見を述べました。 Widjaja 氏、MSD 人工知能担当ディレクター。ペイチン・テイ氏、トニー・ブレア地球変動研究所上級政策顧問。ジェイソン・グラント・アレン氏、SMU AI & Center ディレクターデータガバナンス。そして、Omdia の Applied Intelligence の主任アナリスト、Lian Jye Su 氏は次のように述べています。このセッションは、APAC地域責任者、政策および政策担当のAndrew Staples氏が司会を務めました。 Economist Impact からの洞察。
第2回パネルディスカッション「AIリスク政策とAIリスク政策」 「規制 ─ 2023 年に注目すべきこと」では、国連地域間犯罪正義研究所の AI ロボティクスセンター所長イラクリ・ベリゼ氏のような著名な専門家が講演しました。ジェイソン・グラント・アレン氏、SMU AI & Center ディレクターデータガバナンス。シンガポール国立大学 (NUS) の副学長兼上級ディレクター (AI ガバナンス) の Simon Chesterman 氏。このセッションは、McAfee の Martech ディレクターである Neha Dadbhawala が司会を務めました。
現在の AI 規制状況は大きな注目を集めています
10 年も経たないうちに、AI はニッチな関心から私たちの日常生活に不可欠な部分に移行しました。その結果、政策立案者はこの分野に対する関心と焦点をますます高めている。当然のことながら、AI 規制の分野における主要なプレーヤーには、中国、カナダ、EU、英国 (UK)、米国が含まれます。 「これらの分野の多くはまだ発展途上ですが、リスクの最小化と利益の最大化のスペクトルに沿って新たなクラスターが出現していることが観察できます。」ペイチン・テイ氏はこう説明した。
同氏は、その一方の端では、米国と英国も経済成長とビジネス革新を重視することで同様のアプローチをとっていると続けた。その対極にあるカナダとEUは、イノベーションを育成しながら、基本的人権を守り危害を最小限に抑えることを優先している。その中間に位置する中国は、情報管理、監視能力、社会の安全とセキュリティに重点を置く層をさらに導入し、その枠組みの中で自国のビジネスをサポートすることを目指している。
さらに詳しく説明すると、米国と英国は状況に応じたガバナンス アプローチを採用しており、英国の白書ではイノベーション推進の姿勢と、分野横断的で状況に特化した原則に基づいた枠組みが概説されています。この基盤に基づいて、規制当局はそれぞれの分野に合わせた特定の規制を開発します。対照的に、EU は影響力のある一般データ保護規則 (GDPR) 法に代表される水平的なリスクベースのアプローチを追求し、ビジネスの成長を妨げることなく権利の保護と被害の軽減を優先しています。リスクは、許容できないリスク、高いリスク、中程度のリスク、またはほとんどないリスクに分類されます。
カナダも同様のリスクベースのアプローチを共有しています。注目すべきことに、インドは現在この範囲には入っておらず、生成 AI に対して軽いアプローチを選択し、特定の法律の制定を控えています。ただし、これらのダイナミクスは依然として進化し、出現していることを認識することが重要です。
さまざまな主体、その動機、および規制アプローチの範囲を理解することが重要です
ジェイソン・グラント・アレン氏は、古典的な意味での政府規制を検討する際には、広範なガバナンスの定義の中で、政府主体だけでなく政府間主体、企業、業界自体も考慮することが重要であると付け加えた。
政府規制の注目すべき側面の 1 つは、業界の自主規制と自主基準と倫理規定の採用です。トニー ブレア研究所、学術界、大学などの市民社会団体も、規制のアイデアを形成する上で重要な役割を果たしています。これらの主体の動機や推進力は政府の動機や推進力とは異なります。この分野では、国家安全保障、地政学、経済が重要な背景として機能することがよくあります。私たちは、AI テクノロジーの開発と展開における大手テクノロジー企業間の商業環境と軍拡競争を観察しています。さらに、特に重要なサプライチェーンを抱えるインド太平洋地域における核軍拡競争は、推進力と動機にさらなる側面を加えています。
規制を主張する多くの関係者が、人類のより大きな利益に役立つ、倫理的で責任ある信頼できる AI システムを求める心から動機づけられているということを認識することが重要です。企業は、政府と消費者の両方からの信頼を獲得し、維持する必要性によって動かされています。特に危害を及ぼす可能性のある技術においては、規制を通じて有益なイノベーションを活用したいという強い願望があります。十分に規制されたテクノロジー部門が人類全体の向上に貢献するという考えが広まっています。
ズームアウトして学術的な視点を取り入れると、さまざまな規制アプローチの類型を探ることができます。この範囲は、ソフトな自主規制や準規制の中間のものから、国際基準の施行や、例えば EU や中国で見られるようなより厳格な規制まで多岐にわたります。テクノロジー自体が規制の唯一の焦点ではないことを認識することが重要です。考慮すべき社会技術的側面があります。
他の側面に対して代替アプローチを採用しながら、データセットを堅牢に規制するなど、特定の要素を規制するには、さまざまなモードまたは種類の規制が適している可能性があります。
AI に関する包括的なガバナンスと規制の枠組みの開発はまだ初期段階にあります。
ガバナンスと規制の枠組みに関して、現実的な世界的枠組みの達成にどれだけ近づいているかについて、Lian Jye Su氏は、これはさまざまな段階を検討する必要がある重要な問題であると指摘した。現在、強固なデータ規制が導入されており、国家関係者はプライバシーを保護し、管轄区域による管理を確保するためにデータのローカリゼーションと匿名化の重要性を強調しています。ただし、特にデータの所有権を明確にし、データ使用に関する明確なガイドラインを作成するという点では、まだ改善の余地があります。
知的財産 (IP) に関しては、貴重な資産を保護するための強力な保護手段とファイアウォールの必要性をめぐる議論が続いています。進歩は見られますが、明確な境界を定義し、潜在的な紛争に対処するためには、まだやるべき作業が残っています。イノベーションの促進と知的財産権の保護の間でバランスを取ることが重要です。
AI の倫理的考慮に関して、政府はさまざまなアプローチに取り組んでいます。焦点は、リスクの評価と利益の最大化の間で揺れ動くことがよくあります。これらのアプローチが政策決定に与える影響や、将来の任命や規制に与える影響を考慮することが重要です。
AI システムの監査を支持し、コンプライアンスを確保しリスクを軽減するために独立した評価を主張する人もいます。ただし、専門的な知識と専門知識が必要な AI テクノロジーの複雑さを認識することが重要です。 AI の急速な進歩に対応するために、包括的な理解を持ち、信頼できるアドバイスを提供できる監査人のチームを擁することが困難になっています。
さらに、AI が進化するにつれて、課題は個々のシステムを超えて拡大し、国内および国際規模での多様なデータ ソースの統合が含まれます。コンプライアンスの確保と AI アプリケーションの全体像の維持は、潜在的なデータ連携や機能横断的な影響を考慮すると、ますます複雑になっています。
組織はこれらの取り組みを積極的に革新し、運用する必要がある
「ガバナンスとコンプライアンスについてのみ議論するのではなく、イノベーションと実装の重要性を考慮することが重要であると考えています。単にポリシーや責任声明を立てるだけではありません。組織はこれらの取り組みを積極的に革新し、運用する必要があります。」ジェイソン・タマラ・ウィジャジャ氏が説明した。
彼の立場からは、2 つの重要な考慮事項が生じます。まず、企業レベルでは、規制の利点が十分に実現されないリスクがあります。バランスを取ることが重要です。組織はガバナンスとコンプライアンスを主張する声に耳を傾けなければなりませんが、イノベーションを犠牲にしてはなりません。両方の側面を最適化する中間点を見つけることが重要です。
第二に、イノベーションと規制という二分法を中心によく生じる物語があります。ただし、特に高度に規制された業界では、この範囲が常に当てはまるわけではありません。コンプライアンス主導の役割を担っている人の視点を考えてみましょう。彼らの本能は、明確な指導がなければ何もしないことかもしれません。このような場合、規制は単に門番として機能するのではなく、イネーブラーおよび促進剤として機能する可能性があります。これは、規制が常に進歩の障害となるという概念に疑問を投げかけます。
最後に、規制には多様な解釈があることを認めなければなりません。政策レベルで行われる会話は、英語を母国語としない人の経験や、アプリケーション プログラミング インターフェイス (API) テクノロジを利用する人の経験と必ずしも一致するとは限りません。したがって、その影響を包括的に理解できるように、詳細な使用例と実用的な例を提供することが重要です。業界は、契約と関連指令の遵守に関する明確さと指示を心待ちにしています。
考慮する必要がある倫理的考慮事項を検討する
ジェイソン・グラント・アレン氏によると、規制への従来のアプローチに関して、私たちは原則、価値観、結果に基づいた規制を目指すのが一般的です。政治的審議や合意形成による頻繁な更新を必要とする高度に規範的な法律に依存するのではなく、私たちはより柔軟な枠組みを目指しています。関連する法制度によっては、これには、関連当局によって定期的に改正される可能性のある規制を伴う高レベルの法令が関係する場合があります。
しかし、AI のような急速に進化する新興テクノロジーに関しては、これらの確立されたアプローチの適切性についての議論が続いています。プライバシーやデータ保護規制などの既存の法律を含む周囲法の役割を見落とさないことが重要です。規制の設計では、特に現在の生成型 AI ツールの普及のような重要な局面において、新しく破壊的なテクノロジーによってもたらされる特有の課題を考慮する必要があります。
これらの課題に対処する場合、規制介入のための手段は複数あります。 AI に特化したオーダーメイドの規制アプローチを検討することも、特定のパラメーターを調整して既存の法律や規制を活用して AI 関連の問題に対処することもできます。さらに、トップダウンの州ベースの規制、評判の高い団体によって開発された国際基準、業界の自主的な取り組みなど、さまざまな種類の規制の重要性を認識する必要があります。後者は究極の解決策ではないかもしれませんが、時間の経過による停滞の落とし穴を回避するために、暫定的に重要な役割を果たすことができます。
さらに、AI は単一の存在ではなく、さまざまなコンポーネントが複雑に融合したものであることを認識することが重要です。これには、データ、モデル、ソフトウェア、ハードウェアの依存関係、さらには社会的な側面も含まれます。人間的要素は、組織のコンテキストにおいてユーザーおよび意思決定者として重要な役割を果たします。したがって、規制上の考慮事項は、テクノロジー自体を超えて、より広範な組織構造と関連する意思決定プロセスを網羅する必要があります。組織は規制の恩恵を受けることもあれば規制の対象となることもあり、AI ツールの責任ある倫理的な使用が保証されます。
過剰規制はイノベーションを抑制し、国民を危害にさらす可能性がある
規制が過剰になりイノベーションを阻害し、イノベーションを他の場所に移転せざるを得なくなると、真の懸念が生じます。 「このことは、シンガポールがイノベーションを妨げることなく AI の悪用による被害から守るバランスのとれた規制体制を採用すべきであると提案された前回のパネルでも強調されました。」サイモン・チェスターマン氏はこう述べた。過剰規制はイノベーションを抑制し、国民を危害にさらす可能性があるため、「何をすべきか?」という疑問が生じます。
「時々、この問題は単にどの規制を採用するかを決定することであると誤解されることがあります。しかし、私の著書では、AI のほとんどのユースケースでは、盗作などの同様の問題にすでに対処している既存の法律とガバナンスを適用することが出発点となるべきであると強調しています。誰かの作品を盗用する不正行為に関係する場合でも、機械生成されたコンテンツを自分のものとして偽装する場合でも、可能な限り通常のルールを適用する必要があります。それにもかかわらず、調整や特定の規制が必要な場合があります。」彼は続けた。
AI 規制の分野には、政府、国際、組織内部の 3 つのレベルの規制があります。政府レベルが最も大きな権限を有しており、過失による危害に対する懲役などの刑事罰を伴う規制を施行する権限を有している。しかし、政府による規制だけでは必要ですが不十分です。規制上の裁定を回避し、底辺への競争を防ぐには、ある程度の国際的な調整と協力が必要です。
しかし、最も重要な側面は組織自体の中にあります。内部ガバナンスとコンプライアンスの構造は重要な役割を果たします。ほとんどの人は法的にも評判的にも潜在的な結果を理解しているため、法律を遵守しています。危険は、組織がリスク評価から責任ある実践への移行をどのように進めるかにあります。単に規制上の問題を回避するだけではなく、消費者への危害を積極的に防止するという考え方に転換することが重要です。最近の大手テクノロジー企業による責任チームの縮小と市場への迅速な移行は、重大なリスクをもたらしています。たとえば、Twitter などのソーシャル メディア プラットフォームは、文化的規範を理解し、有意義な交流を促進するという課題に直面しています。
AI について議論する場合、何がユニークなのかを理解することが重要です
イラクリ・ベリゼ氏は、AI について議論する際には、AI の独自性を理解することが重要であると述べ、「一方で、私たちはこれまで以上に膨大な量のデータを利用でき、それを分析し解釈するための計算能力を持っています。」その一方で、このデータを効果的に処理し、そこから洞察を引き出すための高度なアルゴリズムとフレームワークを開発する必要があります。」
しかし、データ市場に内在する問題に対処することが不可欠であると私は考えています。容認できない慣行を避けるために、これらの問題を認識することが重要です。このパネルの参加者として、私たちは皆、包括性と意見の多様性に対する取り組みを共有しています。私たちの議論は排他的であったり、特定の議題に限定されるべきではありません。国連の役割について私に質問されたら、包括性と多様な視点が最も重要であると強調します。
私たちは AI の未来を形作るフレームワークとポリシーを確立するために協力し、協力する必要があります。この関係者の連携により、証拠に基づいた意思決定が確実に行われるようにする必要があります。意見の相違にもかかわらず、私たちは広範な参加を通じて共通点を見つけなければなりません。 AI の世界的な状況は急速に進化しており、各国やさまざまなセクターが多額の投資を行っています。ただし、世界人口のかなりの部分が強力な政府構造や資源を持たない国に属していることを考慮することが重要です。私たちはこれらの人々を放置したり、劣悪な生活環境に苦しむことを放置したりすることはできません。したがって、AI のフレームワークを再定義するには、これらの格差に対処し、世界中のすべての個人の幸福を優先する必要があります。
AI の影響、特に教育への影響
ジェイソン・グラント・アレン氏は、特に近年の AI の影響を考慮して、教育に対するさまざまな視点を探ることが興味深いと感じました。 「AI は、リソースや従来の学校教育にアクセスできなかった人々に教育を近づけました。このことは、初等教育を支援するために設けられている現在の規制と、AI と教育テクノロジーの出現によって規制がどのように進化するかについて疑問を引き起こします。」彼は考えた。
AI だけではありませんが、インターネットとモバイル接続が重要な役割を果たしています。一部の組織は、これらのテクノロジーを活用して、旅行したり物理的な教室で勉強したりする機会がない個人に教育の機会を提供しています。情報へのアクセスのしやすさによって、教育変革の可能性は計り知れません。
より広いレベルでは、この変化は大衆教育に影響を与えるだけでなく、仕事の性質にも変化をもたらしています。この変化の一側面として、AI は私たちの情報との関係を変えています。口頭伝承から文字への移行、文字から印刷機への移行と同様に、情報と私たちのつながりは再び進化しています。あなたの個人的なニーズを理解し、教育体験を調整し、それに応じて指導してくれる個別の家庭教師がいる可能性を想像してみてください。この機会は数学などの科目を超えて、さまざまな分野に応用できる可能性を秘めています。
ただし、AIやテクノロジーへの過度の依存には注意が必要です。特定の認知スキルと能力を維持することが重要です。たとえば、電話番号を記憶したり、地図を使用してナビゲートしたりするために AI に依存すると、私たちの依存度が高まり、全体的なスキルが低下する可能性があります。 AI の支援なしでは議論を構築したりエッセイを書いたりするのに苦労する段階に達すると、AI はツールとしての使用を超えて、松葉杖になり始めます。
制限するのではなく力を与える設計規制
私たちが教育で直面する重要な問題の 1 つは、どこから始めるべきか、どの側面を優先すべきかを決定することです。進化し続ける雇用市場で競争力を維持し、テクノロジーを私たちの生活にシームレスに統合するために必要なスキルを個人に確実に身につけさせるにはどうすればよいでしょうか?
その答えは、私たちの知識を高め、次世代の準備に多大なエネルギーを投資するための集団的な努力にあります。関連するスキルを彼らに与えることで、彼らが競争の激しい世界的な環境で成功し、将来の需要に適応できるようにします。これは世界中の大多数の国に広がる課題です。
Irakli Beridze 氏は、アプローチの 1 つはテクノロジーを活用し、その応用についての包括的な理解を促進する教育的取り組みに投資することであると詳しく説明しました。たとえば、ChatGPT などのツールのアクセシビリティについてよく議論しますが、これは学習にとって非常に貴重なリソースとなります。ただし、これらのテクノロジーを単に使用するだけでなく、それらを効果的に活用する方法を次世代に教えることに重点を置くことも同様に重要です。これには、教育の貴重な側面であるプロンプトの作成についての指導も含まれます。
テクノロジーを賢く活用するために必要な知識とスキルを若い世代に提供することで、私たちは彼らがより良い未来を形作ることができるようにすることができます。これには、教育システムが進化し、状況の変化に確実に適応できるようにするために、教育者、政策立案者、社会全体の協力的な取り組みが必要です。
AI規制の適切なバランスを見つけることが不可欠
AI 規制の複雑な状況を乗り切るには、さまざまな主体、その動機、規制アプローチの範囲を理解することが重要です。これらの要因を調査することで、国家安全保障、地政学、社会への影響というより広範な考慮事項に対処しながら、倫理的で責任ある有益な AI イノベーションを促進する規制枠組みの確立に努めることができます。
現在、私たちは AI のための包括的なガバナンスと規制の枠組みを開発する初期段階にいます。専門知識を育成し、強力な基盤を確立し、ステークホルダー間の対話と協力を促進し続けることが重要です。
AI 関連の法規制の設計には、適応性と柔軟性を維持するために慎重な検討が必要です。原則と結果ベースのアプローチと、タイムリーな更新と倫理的配慮の必要性のバランスをとることが最も重要です。 AI 規制において適切なバランスを見つけることが不可欠です。場合によっては特定の規制が必要であることを認識しながら、既存の法律とガバナンスから始める必要があります。
さまざまな規制アプローチを検討し、既存の法律を活用し、より広範な社会的および組織的側面を考慮することで、イノベーションと責任ある AI の導入を促進しながら、AI によってもたらされる課題に効果的に対処する規制の枠組みを確立できます。