以前ご説明した通り、今年初めに米国国立標準技術研究所(NIST)は「信頼性と責任あるAIリソースセンター」を立ち上げました。このAIリソースセンターには、NISTのAIリスク管理フレームワーク(RMF)と、企業や個人が同フレームワークを導入する際に役立つ実践ガイドが含まれています。 RMFは、AIシステムの利用者や開発者がリスクを分析・対処するのを支援すると同時に、こうしたリスクに対処し最小化するための実践的なガイドラインとベストプラクティスを提供することを目的としています。また、AI技術が成熟し運用化されるにつれて変化する状況にも実用的かつ適応可能であることが意図されています。
RMFの前半ではこれらのリスクについて論じ、後半ではリスクへの対処方法を論じる。AI RMFが適切に実装されれば、組織とユーザーはAIシステムを扱う際に、プロセスの強化、認識と知識の向上、そしてより積極的な関与を実感できるはずである。 RMFはAIシステムを「特定の目的セットに対して、実環境または仮想環境に影響を与える予測、推奨、決定などの出力を生成できる、設計された、あるいは機械ベースのシステム」と定義する。AIシステムは「様々なレベルの自律性で動作するよう設計されている」。
AIシステムにおけるリスク、影響、および害の理解と対応
AIシステムを活用することで、個人や組織(RMFでは総称して「アクター」と呼称)は生産性や創造性の向上など、数多くの恩恵を得られます。しかしRMFは、AIシステムが誤用された場合、個人・組織・一般市民に危害をもたらす可能性も認識しています。例えばRMFは、AIシステムが差別を助長し、企業にセキュリティリスクを生み出し、気候変動問題を悪化させる恐れがあると指摘しています。 RMFは、アクターがAIシステムのプラス面とマイナス面の両方に協調的な方法で対処することを可能にします。
多くのサイバーセキュリティ専門家が理解しているように、リスクとは、事象が発生する可能性とその事象が発生した場合に生じうる損害の関数である。負の結果には、個人、組織、あるいは生態系への損害が含まれる。実際には、事象発生の可能性には大きな不確実性が伴う可能性があり、また損害が発生した場合の影響を認識することがしばしば困難であるため、リスクを正確に定量化することは難しい。RMF(リスク管理フレームワーク)は、以下のような課題の一部を説明している:
- サードパーティ製ソフトウェア、ハードウェア、データに関連するリスク:サードパーティのデータやシステムはAIシステムの開発を加速させる上で有用である一方、リスク測定を複雑化する未知数となる。さらに、AIシステムのユーザーは開発者や提供者が意図した方法とは異なる形でシステムを利用する可能性がある。AIシステムの開発者や提供者は、制御された開発環境での使用方法と本番環境での使用方法が著しく異なる場合に驚かされるかもしれない。
- 信頼性の高い指標の可用性:AIシステム使用時の潜在的な影響や危害を算出することは複雑であり、多くの要因が関与する可能性がある。
- AIライフサイクルの各段階におけるリスク: 市販システムを利用する主体は、独自システムを構築・訓練する主体とは異なるリスクに直面する。RMFは、企業が自らのリスク許容度を決定する必要があることを認識しており、法的・規制的状況に応じて、より多くのリスクを負担する意思のある組織も存在する。ただしRMFは、全てのリスクに対処し最小化することは効率的でも費用対効果的でもないことを認識しており、企業は対処すべきリスクの優先順位付けが必須である。 企業がサイバーセキュリティやデータプライバシーのリスクに対処すべきのと同様に、RMFはリスク管理を組織の実践に統合することを提案している。なぜなら、異なるリスクは組織の実践の異なる段階で現れるからである。
RMFはまた、信頼性がAIシステムの重要な特徴であることを認識している。信頼性は、関係者の行動、AIシステムが使用するデータセット、AIシステムの利用者および開発者の行動、そして関係者がこれらのシステムをどのように監督するかに結びついている。RMFは、以下の特性がAIシステムの信頼性に影響を与えると示唆している:
- 妥当性と信頼性:関係者は、AIシステムが特定の要件を満たしていること、および特定の条件下で故障なく動作できることを確認できるべきである。
- 安全性:AIシステムは、人命、健康、財産、または環境を危険にさらしてはならない。
- セキュリティと回復力:AIシステムは、予期せぬ有害事象と変化の両方に対応し、回復できるべきである。
- 説明責任と透明性:関係者はAIシステムとその出力に関する情報にアクセスできるべきである。
- 説明可能性と解釈可能性:AIシステムは、関係者に適切な量の情報を提供し、一定の理解度を確保できるべきである。
- プライバシー強化:適切な場合には、AIシステムの設計選択には匿名性、機密性、管理権などの価値を組み込むべきである。
- 有害なバイアスを管理した公平性:AIシステムは既存の差別を永続化・悪化させるリスクがある。関係者はこうしたバイアスを防止・軽減する準備を整えるべきである。
AI RMF リスク管理コアとプロファイル
AI RMF(RMFコア)の中核には、企業が信頼性の高いAIシステムを開発するための枠組みを提供するよう設計された基本機能がある。これらの機能は「ガバナンス」「マッピング」「測定」「管理」であり、「ガバナンス」機能は他の各機能に影響を与えるよう設計されている。

図1:リスク管理の核心(NIST AI 100-1、20ページ)。
これらの各機能は、上位機能を達成するために設計されたカテゴリとサブカテゴリにさらに細分化される。膨大な数のサブカテゴリと推奨されるアクションを考慮すると、RMFコアは企業が単に「チェックリストを埋める」ために使用するものではない。むしろ、AI RMFはリスク管理が継続的かつタイムリーに行われ、AIシステムのライフサイクル全体を通じて実施されるべきであると提言している。
AIリスク管理フレームワーク(AI RMF)は、リスク管理において「万能なアプローチ」は存在しないことも認識している。関係者はAIシステムのユースケースに特化したプロファイルを構築し、4つの機能を達成するために適切な行動を選択すべきである。AI RMFがプロセスを記述する一方、AI RMFプレイブックは一般的な状況(一般にプロファイルと呼ばれる)におけるAI RMFの実装方法に関する詳細な説明と有用な情報を提供する。 RMFプロファイルは、特定の分野、技術、または用途によって異なります。例えば、雇用環境向けプロファイルは、信用リスクや不正行為の検出向けプロファイルとは異なり、異なるリスクに対処するものとなります。
RMFコアは以下の機能で構成されています:
- ガバナンス。強固なガバナンスは、組織のリスク管理を維持するために不可欠な内部慣行や規範を確立する上で重要です。ガバナンス機能は、他の3つの機能の方針と実践を実装するためのカテゴリーを定義します。具体的には、説明責任構造の構築、職場の多様性の促進、多様な視点を持つチームによるAIリスク評価のためのアクセシビリティプロセスの整備、そして安全第一のAI実践文化を推進する組織チームの育成が含まれます。
- マップ。 マップ機能は、 AIシステムを利用する際にアクターがリスクを文脈化することを支援します。マップで提供されるアクションを実施することで、組織は潜在的な負のリスク要因を予測し、評価し、対処する能力を高められます。この機能に含まれるカテゴリーには、AIシステムの文脈の確立と理解、AIシステムの分類、AIシステムの全構成要素に対するリスクと便益の理解、影響を受ける可能性のある個人やグループの特定などが含まれます。
- 測定。測定機能は、定量的および定性的なツールを用いてAIリスクを分析・監視し、関係者がAIシステムの使用を評価するために用いられる。測定は、信頼性特性、社会的影響、人間とAIの相互作用の質など、様々な目標を追跡すべきである。測定機能のカテゴリーには、適切な手法と指標の特定・適用、信頼性特性に関するシステムの評価、特定されたリスクを経時的に追跡するメカニズムの実装、測定の有効性に関するフィードバックの収集が含まれる。
- 管理。 関連するリスクと適切なリスク許容度を決定した後 、管理機能は企業がリスクの優先順位付け、最も高いリスクに対処するための適切なリソース配分、定期的なモニタリングとAIシステムの改善を可能にする支援を行います。管理機能のカテゴリーには、マップと測定による評価に基づくリスクの優先順位付け、AIの利益を最大化し害を最小化する方法の戦略立案、第三者からのAIリスク管理が含まれます。
このように、プレイブックは四つの機能を達成する方法について、具体的かつ実行可能な提案を提供している。
企業への影響
AIリスク管理フレームワーク(AI RMF)は、企業が堅牢なガバナンスプログラムを構築し、AIシステムのリスクに対処するのに役立ちます。AI RMFの使用は現時点でいかなる法案(EUの「人工知能法」を含む)においても義務付けられていませんが、他のNIST標準やガイダンスと同様に、企業が構造化され再現可能な方法でこうした法律のリスク分析要件を順守する上で、間違いなく有用であることが証明されるでしょう。 したがって、AIシステムの提供または利用を検討している企業は、リスクを分析・最小化するためAI RMFの活用も検討すべきである。企業は、AI RMF適用の一環として作成した高水準の文書を規制当局に提示するよう求められる可能性があり、また顧客への提供を通じて懸念を軽減し信頼を強化することも検討できる。
著者らは、カリフォルニア大学バークレー校ロースクールの学生であり、フォリー・アンド・ラーナー法律事務所の2023年夏季インターンであるマシュー・チャ氏の貢献に深く感謝する。