AIのガバナンスをめぐる競争

By 清水 孝郎 - MAY 13, 2024

SHARE:

本文の内容は、2024年5月13日に NIGEL DOUGLAS が投稿したブログ(https://sysdig.com/blog/the-race-for-artificial-intelligence-governance/)を元に日本語に翻訳・再構成した内容となっております。

人工知能(AI)の活用が世界の社会のあらゆる場面で不可欠となっている中、AIの安全かつ私的で倫理的な利用を保証するAIガバナンスの枠組みを確立するための世界的な競争が激化しています。国や地域は、AIの拡大する影響力を管理し、関連するリスクを軽減するための政策やガイドラインを積極的に策定しています。この世界的な取り組みは、AIが消費者の権利から国家の安全保障に至るまで、あらゆるものに多大な影響を及ぼすという認識を反映したものです。

ここでは、進行中またはすでに施行されている世界における 7 つの AI セキュリティ規制を紹介します。これは、さまざまな地政学的な状況で採用されている多様なアプローチを示しています。たとえば、中国と米国は安全とガバナンスを優先したが、EU は組織の即応性を確保する方法として規制と罰金を優先しました。

2024 年 3 月、欧州議会は、AI に特化した世界初の広範な水平的法規制である人工知能法を採択しました。

それが何を意味するのか読んでみましょう。

1. 中国:新世代人工知能開発計画

ステータス:確立済み

概要: 2017 年に策定された中国の人工知能開発計画 (AIDP) は、2030 年までに中国が世界の AI 開発をリードするという目標を概説しています。これには、AI のセキュリティ管理、公共サービスにおける AI の使用、倫理規範と標準の促進に関するガイドラインが含まれています。それ以来、中国はデータセキュリティとAIの倫理的使用に焦点を当てたさまざまな基準やガイドラインも導入しています。

AIDP は、行政、司法、都市管理、環境保護を強化し、複雑な社会ガバナンス問題に対処するために AI テクノロジーを活用し、それによって社会ガバナンスの近代化を推進することを目指しています。

ただし、リスクの高い AI ワークロードの導入に関する罰金や罰則の規定がないため、この計画には強制力のある規制がありません。代わりに、既存の AI 標準フレームワークの強化を目的とした研究に重点を置いています。 2023年11月、中国は米国と二国間AIパートナーシップを締結した。しかし、カーネギー国際平和基金の中国 AI 専門家マット・シーハン氏はアクシオスに対し、双方に理解不足が蔓延している、つまりどちらの国も相手方が開発している AI 規格、テスト、認証システムを完全に把握していない、と述べています。

中国のイニシアチブは、セキュリティ、可用性、相互運用性、追跡可能性の原則を維持することを提唱しています。その目的は、相互運用性、業界アプリケーション、ネットワーク セキュリティ、プライバシー保護、その他の技術標準を含む AI の基礎的な側面を段階的に確立し、強化することです。中国で効果的な人工知能ガバナンス対話を促進するには、当局は特定の優先課題を掘り下げ、それらに包括的に対処する必要があります。

2. シンガポール: 人工知能モデルガバナンスフレームワーク

ステータス:確立済み

概要:シンガポールのフレームワークは、倫理的な AI ガバナンスの実践に関する包括的で実用的なガイダンスを提供するアジア初のフレームワークの 1 つとして際立っています。 2019 年 1 月 23 日、シンガポールの個人データ保護委員会 (PDPC) は、より広範な協議、採用、フィードバックを求めるための AI モデルガバナンスフレームワーク (モデル フレームワーク) の初版を発表しました。最初のリリースと受け取ったフィードバックを受けて、PDPC は 2020 年 1 月 21 日にモデル フレームワークの第 2 版を発行し、AI 導入の複雑さを乗り越える組織に対するガイダンスとサポートをさらに洗練しました。

モデル フレームワークは、AI ソリューションの導入に関連する主要な倫理およびガバナンスの課題に対処するための、具体的で実用的なガイダンスを民間部門の組織に提供します。これには、AI ガバナンステストフレームワークやツールキットなどのリソースが含まれており、組織による AI の使用が確立された倫理基準やガバナンス規範に沿っていることを確認するのに役立ちます。

モデル フレームワークは、AI システムがどのように機能するかを明確にし、堅牢なデータ責任慣行を確立し、透明性のあるコミュニケーションを奨励することで、AI テクノロジーに対する国民の信頼と理解を促進することを目指しています。

3. カナダ: 自動化された意思決定に関する指令

ステータス:確立済み

概要:カナダ政府内での自動意思決定システムの使用を管理するために導入されたこの指令の一部は、2019 年 4 月 1 日に発効し、指令の遵守部分は 1 年後に開始されました。

この指令には、カナダの連邦機関が自動化テクノロジーの導入に伴うリスクを評価および軽減するために使用する必要があるアルゴリズム影響評価ツール(AIA) が含まれています。 AIA は、自動化された意思決定に関する財務委員会の指令を補完するために設計された、アンケートとして構成された強制的なリスク評価ツールです。この評価では、51 のリスク評価質問と 34 の緩和質問に基づいて、自動化された意思決定システムの影響レベルが評価されます。

本指令への不遵守は、具体的な状況に応じて、金融管理法に基づき財務省理事会が適切と判断する措置(懲戒の性質は懲罰的ではなく矯正的であり、その目的は、組織の目標および目的を達成するために望ましい、または必要な規則および行動基準を受け入れるよう従業員の動機付けを行うことです)につながる可能性があります。この人工知能ガバナンス指令に違反した場合に想定される影響についての詳細は、コンプライアンス管理のためのフレームワークを参照してください。

4. 米国: 2020 年国家 AI イニシアチブ法

ステータス:確立済み

概要:国家 AI 戦略を推進および調整するために、国家人工知能イニシアチブ法(NAIIA) が署名されました。これには、米国がAIの世界的リーダーであることを確実にするために、AIの研究開発を強化し、国内レベルで国家安全保障上の利益を保護するための取り組みが含まれています。個々の AI アプリケーションにはあまり焦点を当てていませんが、将来の AI 規制と標準の開発の基礎を築きました。

NAIIA は、その目標を「AI を活用したテクノロジーのガバナンスと技術基準を最新化し、プライバシー、公民権、自由、その他の民主的価値観を保護する」ことであると述べています。 NAIIA により、米国政府は AI 技術標準とリスク管理フレームワークの作成を通じて、AI ワークロードに対する国民の信頼と信頼を構築することを目指しています。

5. 欧州連合: AI 法

ステータス:進行中

概要:欧州連合の AI 法は、人工知能のガバナンスを確立するための世界で最も包括的な試みの 1 つです。これは、AI の特定の用途に関連するリスクを管理することを目的としており、AI システムをリスク レベルに応じて最小限から許容不可能まで分類します。高リスクのカテゴリーには、重要なインフラ、雇用、必須の民間および公共サービス、法執行機関、移民、司法執行などが含まれます。

EU AI 法はまだ交渉中で、 2023 年 12 月 9 日に暫定合意に達しました。この法律は、健康、安全、基本的権利、民主主義に重大な害を及ぼす可能性のある AI システムを高リスクとして分類しています。これには、選挙や有権者の行動に影響を与える可能性のある AI が含まれます。同法では、国民の権利を保護するために禁止されたアプリケーションも列挙しており、機密性の高い特徴に基づいて生体認証データを分類したり、対象を絞らない顔画像のスクレイピングを実行したり、職場や学校での感情を認識したり、社会的スコアリングを実装したり、行動を操作したり、脆弱な人々を搾取したりするAIシステムを禁止しています。

比較すると、米国の NAIIA 事務所は NAIIA 法の一部として設立され、主に基準とガイドラインに重点を置いているのに対し、EU の AI 法は実際に拘束力のある規制を施行しており、違反した場合は更なる立法措置がなければ多額の罰金やその他の罰則が科せられることになります。

6. 英国:AI規制案

ステータス:進行中

概要: EU 離脱後、英国は EU AI 法とは別に、AI に関する独自の規制枠組みの概要を策定し始めました。英国のアプローチは、高い水準の公共の安全と倫理的配慮を確保しながら、イノベーションに優しいものとなることを目指しています。英国のデータ倫理イノベーションセンター (CDEI) は、これらのフレームワークの形成において重要な役割を果たしています。

2023 年 3 月、CDEI は AI 規制に関する白書を発表し、AI の「イノベーション促進規制フレームワーク」を開発するための最初の提案を示しました。提案された枠組みでは、英国の既存の規制当局がその権限内で解釈および適用できるように、分野横断的な 5 つの原則が概説されています。 

  • 安心・安全・堅牢
  • 適切な透明性と説明性
  • 公平性
  • 説明責任とガバナンス
  • 異議申し立てと救済

また、この提案には、AI ワークロードで信頼を悪用したり市民的自由を侵害したりする組織に対する明確な影響が欠けているように見えます。 

この進行中の提案は、汎用 AI の悪用に対する措置を講じることについてはまだ不十分ですが、独立した専門家の視点を提供できる AI 開発者、学者、市民社会のメンバーと緊密に連携するという明確な意図を示しています。英国の提案では、2024年5月に韓国で開催される第2回 グローバル AIセーフティサミットに向けて国際パートナーと協力する意向にも言及しています。

7. インド: AI for All 戦略

ステータス:進行中

概要: AI for Allとして知られるインドの国家 AI イニシアチブは、インドにおける包括的な成長と AI の倫理的使用の促進に専念しています。このプログラムは主に、全国の人工知能に対する国民の理解を高めることを目的とした、自分のペースで進められるオンライン コースとして機能しています。

このプログラムは、学生、専業主婦、あらゆる分野の専門家、高齢者など、さまざまな対象者、つまり AI ツール、ユースケース、セキュリティ上の懸念事項について学びたいと思っている人を対象に、AI をわかりやすく説明することを目的としています。注目すべき点は、プログラムが簡潔で、「AI Aware」と「AI Appreciate」の 2 つの主要な部分で構成されており、それぞれ約 4 時間以内に完了するように設計されています。このコースは、安全かつ倫理的に社会のニーズに適合した AI ソリューションを活用することに焦点を当てています。

AI for All のアプローチは、規制の枠組みでも業界で認められた認定プログラムでもないことを明確にすることが重要です。むしろ、その存在は、不慣れな国民が AI を含む世界を受け入れるための最初の一歩を踏み出すのを助けることです。参加者を AI の専門家にすることを目的としたものではありませんが、AI の基礎的な理解を提供し、参加者がこの革新的なテクノロジーについて効果的に議論し、取り組むことができるようにします。

まとめ

これらの取り組みはそれぞれ、AI テクノロジーが安全かつ倫理的かつ制御された方法で開発および導入されることを保証するフレームワークを構築し、AI によってもたらされる機会と課題の両方に対処するという、より広範な世界的傾向を反映しています。さらに、これらの枠組みは、高リスクの AI アプリケーションの潜在的な危険から国民を守るために、強制力のある法律や包括的なトレーニングプログラムを通じて、堅牢なガバナンスの真の必要性を強調し続けています。このような措置は、悪用を防止し、個人の権利や安全を損なうことなく AI の進歩が社会にプラスに貢献することを保証するために重要です。