人工知能(AI)への懸念が世界的に高まる中、欧州連合(EU)は国際社会に向けた規制の道筋を示している。 2023年5月11日、欧州議会の市民的自由・司法・内務委員会および域内市場・消費者保護委員会は、人工知能法の承認を可決した。この法律は、AIの法的リスク管理へのアプローチにおいて世界初の試みであり、AIが急速に進化する中で米国やその他の国々が確実に検討するであろう内容となっている。 この法律は、大西洋を跨ぐ協力、規制監督、適切な業界基準、経済連携の促進への要望が引き続き優先課題である中、米国とEUの必然的な連携の方向性を示している。欧州議会の立法者による承認を得たものの、本法が正式に施行されるには、まだ追加の手続きを経る必要がある。
EU人工知能法の基本原則
音楽の作曲、文学の創作、医療サービスの提供においてAIの能力が絶えず進化する中、本法案はAIシステムにおける人間の監督、安全性、透明性、追跡可能性、非差別性、環境配慮を確保するための重要な原則を定める。既存および将来のAIシステムの両方に対応し、技術中立性を保つ普遍的なAI定義の確立を目指す。 特に注目すべきは、リスクベースのアプローチによるAI規制を提案している点である。このアプローチでは、AIシステムに課される義務は、それが引き起こす可能性のあるリスクのレベルに応じて設定される。 本法は、研究活動およびオープンソースライセンス下で提供されるAIコンポーネントを免除する規定を含みます。また、導入前のAI試験を目的とした規制サンドボックス(公的機関が設定する管理環境)の活用を提唱。このアプローチは、基本権の保護と、欧州における事業活動の法的確実性確保・イノベーション促進の必要性との均衡を図るものです。
米国における現在およびトレンドのアプローチ
対照的に、米国の連邦議会はAIを注視し続け、その能力と結果を解明する研究資金に一層の関心を注いでいる。こうした取り組みは、AIの広範な理解を通じて規制分野における懸念を緩和できる可能性への期待に一部支えられている。 結局のところ、AI技術の進歩は、本法の主要原則を通じて特定されたリスクの一部を軽減する手段となり得る。米国の連邦主義という概念は、次なる技術革命の最先端に立とうとする各州の不統一な法律が寄せ集めとなったシステムにより、既に負担の大きい規制執行のジレンマを助長している。 実際、既に複数の州がAIの開発・利用を規制する法案を提案している。例えばカリフォルニア州は自動化意思決定ツール(AIを含む)の利用を規制する法案(AB 331)を提案しており、これによってAIツールの開発者及び利用者は年次影響評価書の提出を義務付けられることになる。
EU人工知能法の主要原則
4つのリスクレベル
AIアプリケーションは、4段階のリスクレベルに分類される:許容できないリスク、高リスク、限定的リスク、最小限またはリスクなし。許容できないリスクを伴うアプリケーションはデフォルトで禁止され、EU域内での導入は認められない。 これには、行動変容を目的としたサブリミナル技術や操作的手法を採用するAIシステム、個人または集団の脆弱性を悪用するシステム、機微属性に基づく生体認証データの分類を行うシステム、社会的評価スコアや信頼性を評価するシステム、犯罪行為や行政違反を予測するシステム、非標的スクレイピングによる顔認識データベースの作成・拡張を行うシステム、法執行機関・国境管理・職場・教育現場における感情推論を行うシステムなどが含まれる。 対照的に、最小リスク用途には製品/在庫管理システムやビデオゲームなどのAI対応プラットフォームが含まれる。同様に、限定リスクシステムには、ユーザーが人間との対話を選択できる開示基準を満たすチャットボットその他のAIベースシステムが含まれる。
高リスク用途
AI法は、以下の利用をハイリスクと特定している:
- 自然人の生体認証および分類:自然人の「リアルタイム」および「事後」遠隔生体認証に使用されることを意図したAIシステム。
- 重要インフラの管理・運用:道路交通の管理・運用ならびに水道・ガス・暖房・電力の供給において安全構成要素として使用されることを意図したAIシステム。
- 教育及び職業訓練:教育及び職業訓練機関への入学許可の決定または自然人の当該機関への割り当てを目的として使用されることを意図したAIシステム;教育及び職業訓練機関における学生の評価、ならびに教育機関への入学に一般的に要求される試験の受験者の評価を目的として使用されることを意図したAIシステム。
- 雇用、労働者管理、および自営業へのアクセス:自然人の採用または選抜(特に求人広告、応募書類のスクリーニングまたは選別、面接や試験における候補者評価)を目的として使用されるAIシステム。昇進および労働契約関係の終了に関する決定、業務配分、ならびに当該関係における個人の業績および行動の監視・評価を目的として使用されるAI。
- 基本的な民間サービス及び公共サービス・給付へのアクセスと享受:公的機関が、または公的機関に代わって、自然人に対する公的支援給付・サービスの受給資格を評価し、また当該給付・サービスの付与、減額、取消し、返還を求めるために使用されることを意図したAIシステム; 自然人の信用力を評価し、または信用スコアを設定するために使用されることを意図したAIシステム(小規模事業者が自社利用のために導入するAIシステムを除く);消防士や医療支援を含む緊急初動対応サービスの派遣、またはその優先順位設定に使用されることを意図したAIシステム。
- 法執行:法執行機関が様々な目的で使用することを意図したAIシステム。これには、個人のリスク評価、ディープフェイクの検出、証拠の信頼性評価、実際のまたは潜在的な犯罪行為の発生または再発の予測、自然人のプロファイリング、犯罪分析の実施などが含まれる。
- 移民、難民保護、国境管理:自然人の感情状態の検知、リスク評価、旅行書類の真正性確認、難民保護申請・ビザ・居住許可申請の審査支援など、様々な目的で管轄公的機関が使用するAIシステム。
- 司法行政と民主的プロセス:司法当局が事実と法の調査・解釈を行い、具体的な事実関係に法を適用するのを支援することを目的としたAIシステム。
「ソーシャルスコアリング」の禁止
AI法の文脈において、「ソーシャルスコアリング」とは、個人の社会的行動や性格特性に基づき評価を行う慣行を指し、多くの場合、多様な情報源を活用する。この手法は個人を評価・分類・採点するために用いられ、融資や住宅ローン、その他のサービスへのアクセスなど、生活の様々な側面に影響を及ぼす可能性がある。 現行草案では、欧州の公的機関によるソーシャルスコアリングが禁止されている。しかし欧州経済社会評議会(EESC)は、この禁止が民間・準民間組織には適用されず、こうした組織がソーシャルスコアリングを継続する可能性を懸念している。EESCはEU域内でのソーシャルスコアリングの完全禁止と、AIシステムによる被害を受けた個人向けの苦情処理・救済メカニズムの確立を求めている。
曖昧な境界線 – 不法な社会的評価 vs. 適切なデータ分析
欧州経済社会評議会(EESC)はまた、AI法が「社会的スコアリング」と見なされるものと、特定の目的において許容可能な評価形態と見なされるものの区別を図るべきだと強く求めている。同評議会は、評価に用いられる情報が合理的に関連性や比例性を欠く場合にその境界線を引くことができると提案している。さらにEESCは、AIが人間の意思決定や知性を代替するのではなく強化する必要性を強調し、AI法がこの見解を明示的に表明していない点を批判している。
基盤大規模言語モデル
本法の重要な側面は、OpenAIのGPTやGoogleのBardのような「基盤モデル」の規制に関わる。これらのモデルは高度な能力と熟練労働者の代替可能性から規制当局の注目を集めている。基盤モデル提供者は、モデルを公開する前に安全性の確認、データガバナンス措置、リスク軽減策を適用することが義務付けられる。 さらに、システム構築に用いる訓練データが著作権法に違反しないことを保証しなければならない。また、こうしたAIモデル提供者は、基本的人権、健康と安全、環境、民主主義、法の支配に対するリスクを評価し軽減する義務も課せられる。
米国ビジネスへの影響
米国は、AIがもたらす混乱を制御しようとする中で、同法の原則の一部が連邦および州の立法提案に反映されることを予想できる。商業と貿易の確立に基づく長年の大西洋横断パートナーシップの結果、多くの米国企業は製品安全規則や特定のデータ権利などの分野におけるEUの高い基準に精通している。したがって、国家間の商業が拡大するにつれ、この傾向は継続すると予想される。 EUは今後も、大西洋を跨ぐ事業展開において米国企業へのコンプライアンス遵守を要求し続ける可能性が高く、その対象範囲がAI領域にまで拡大される見込みである。バイデン大統領の「AI基本権法案」など、こうした概念が具体化する方法は多岐にわたるが、同法の特定条項を模倣することで、各州はAI利用に関する独自の規制枠組み構築を促される可能性がある。 米国が変革に取り組む中、企業は変化する規制構造と新たな執行メカニズムに細心の注意を払う必要がある。EU提案の究極の目的は、AI企業およびAIを利用する組織に対する規制枠組みを提供し、イノベーションと市民の権利保護のバランスを促進することにある。