欧州連合(EU)は、AIの安全な利用を確保するための規制の必要性を認識し、管轄区域内で稼働するAIシステムに厳格な要件を課すことを目的とした世界でも最も包括的な法的ガイドライン「EU AI法」を導入した。その目的は明確であるものの、実施と執行には課題が存在し、イノベーションへの影響をめぐる議論はますます活発化している。
EU人工知能法は2024年8月に正式に発効し、特に「高リスク」とみなされるAIシステムの開発と利用を規制することを目的としている。 主な焦点は、AIが安全かつ倫理的であり、厳格なガイドラインのもとで透明性をもって運用されることを確保することにある。本法の施行は2025年2月2日に正式に開始され、特定AIシステムの禁止や従業員の技術リテラシー確保などの義務付け期限が満了した。
法令違反には代償が伴う。法令遵守を確保する目的で、違反が認められた企業()には、750万ユーロ(780万ドル)から3500万ユーロ(3580万ドル)、あるいは全世界年間収益の1%から7%に相当する罰金が科される可能性がある。これは重大な金銭的抑止力となる。
リスク分類システムは、人工知能の倫理的利用に関する法律(I Act)の重要な側面である。AIシステムは「禁止されるAI実践」に分類され、人種や性的指向に基づいて個人を分類する生体認証技術、操作的なAI、特定の予測警察活動アプリケーションなどが禁止される。 一方、「高リスク」AIシステムは許可されるものの、包括的なリスク評価、データガバナンス要件、透明性義務を含む厳格なコンプライアンス措置の対象となる。透明性リスクが限定的なAIシステムは、AI法第50条に基づく透明性義務の対象となり、企業がユーザーにAIシステムとの相互作用を通知することを義務付ける。最後に、リスクが最小限または皆無なAIシステムは規制対象外である。
EUのAI法には反対の声も少なくない。他国や大手テック企業がその実施に反発している。例えばテック企業は、厳格な規制がイノベーションを阻害し、結果として欧州のスタートアップが世界市場で競争するのを困難にすると主張する。批判派はまた、重いコンプライアンス負担を課すことで、同法がAI開発を欧州から規制の緩い地域へ流出させ、欧州大陸の技術競争力を損なう可能性があると指摘している。
全体的な圧力に直面したEUは、当初の規制目標の一部を後退させている。例えば、消費者がAIプロバイダーを訴えやすくするはずだった「EU AI責任指令」案の撤回がその一例だ。EUは、市民の権利を保護しつつ技術進歩を促す環境を整えるという、微妙なバランスを保たねばならない。
正しい方向への一歩
EUのAI法が他国のモデルとなるかはまだ未知数だ。長所短所はあれど、多くの成長痛が伴うことは確実であり、EUは法整備の反復を覚悟すべきである。とはいえ、批判と改善の出発点を得られたことは全体として評価できる。現行の枠組みは完璧ではないが、AI規制に関する国際的な議論を進める上で必要な第一歩と言える。