2025年1月6日、米国食品医薬品局(FDA)は、以下のタイトルのガイダンス案を発表した。 医薬品および生物学的製剤の規制上の意思決定を支援するための人工知能の使用に関する考察(ガイダンス」)を発表した。特に、本ガイダンスでは、人工知能(AI)技術の「使用の文脈」に基づくリスクの枠組みを概説し、その使用を承認するために、AI技術、技術の訓練に使用されるデータ、技術をめぐるガバナンスに関連して要求される(または要求される)可能性のある情報を詳述している。このガイダンスは、AIモデルの信頼性を確立するためのFDAの目標を、高いレベルで強調している。
本稿では、ガイダンスの概要について、使用文脈の例やリスクフレームワークの詳細などを示しながら、提案されているデータやモデル関連の開示を通じて、これらがAIモデルの信頼性を確立することにどのように関連しているかを説明する。さらに、ガイダンスから生じるイノベーションの機会とともに、法的戦略上の留意点を詳述する。これらの考察は、スポンサー(治験薬新薬適用除外申請などの臨床試験)、AIモデル開発者、医薬品開発に携わる他の企業にとって貴重なものとなるであろう。
関心のある問題を定義する
ガイダンスの枠組みにおける最初のステップは、"関心のある問題 "を定義することである。例えば、被験者を選択するための組み入れ基準や除外基準、被験者のリスク分類、あるいは関心のある臨床結果指標に関連する手順の決定など、ヒト臨床試験におけるAI技術の使用に関連する質問が考えられる。また、品質管理など、医薬品の製造工程におけるAI技術の使用に関する質問も考えられる。
使用状況
ガイダンスでは次に、AIモデルに関連するリスクを理解するための出発点として、使用の文脈(関心のある問題に対処するためのAIモデルの具体的な範囲と役割)、ひいては信頼性をどのように確立するかを定めている。
ガイダンスは、患者の安全性、医薬品の品質、または非臨床試験や臨床試験の結果の信頼性に影響を与えるAIモデル(創薬用を含む)に限定されていることを強調している。そのため、創薬にAIモデルを使用しているが、安全性、品質、安定性などFDAが医薬品を承認するために考慮する要素に対処するためのより伝統的なプロセスに依存している企業は、ガイダンスの基本原則を認識する必要があるが、現在のAIガバナンスを修正する必要はないかもしれない。例えば、人が検証のためにAIの出力を提供するプロセスは、完全に自動化されるように設計されたプロセスとは異なる。
ガイダンスでは、以下のようないくつかのタイプの使用状況が紹介されている:
- 臨床試験のデザインと管理
- 患者の評価
- エンドポイントの判定
- 臨床試験データの分析
- 医薬品開発のためのデジタルヘルス技術
- ファーマコビジランス
- 医薬品製造リアルワールド・エビデンス(RWE)の創出
- ライフサイクル・メンテナンス
情報開示の程度を判断するためのリスク・フレームワーク
ガイダンスでは、AIモデルがもたらすリスクレベルによって、AIモデルについて開示しなければならない情報の範囲と深さを決定することを提案している。リスクは2つの要素に基づいて決定される:1)AIモデルが意思決定にどの程度影響を及ぼすか(モデル影響リスク)、2)患者の安全リスクなど意思決定の結果(意思決定結果リスク)。
高リスクのAIモデル(出力が患者の安全性や医薬品の品質に影響を与える可能性がある場合)については、AIモデルのアーキテクチャ、データソース、トレーニング方法、検証プロセス、パフォーマンス指標に関する包括的な詳細をFDAの評価のために提出しなければならない可能性がある。逆に、リスクが低いAIモデルについては、要求される情報開示の詳細を少なくすることができる。この段階的アプローチは信頼性を促進し、低リスクのシナリオに対する不必要な開示負担を回避する。
しかし、本ガイダンスの範囲に含まれるほとんどのAIモデルは、臨床試験管理または医薬品製造に使用されているため、高リスクとみなされる可能性が高く、関係者は意思決定を支援するために使用されるAIモデルに関する広範な情報を開示する準備をすべきである。従来の(非AI)方法を用いて医薬品を開発するスポンサーは、FDAの審査と最終的な新薬承認申請をサポートするために、完全な非臨床、臨床、化学の製造と管理を提出する必要がある。AIモデルを使用するスポンサーは、同じ情報を提出する必要がありますが、加えて、以下に概説するAIモデルに関する情報を提供する必要があります。
使用状況に応じたコンプライアンス・ガイドラインのハイレベルな概要
このガイダンスはさらに、AIモデルの信頼性を確立するために、その使用背景を考慮した上で追求すべきステップの詳細な概要を示している。そのステップには、(1)モデル、(2)モデル開発に使用したデータ、(3)モデルのトレーニング、(4)テストデータ、パフォーマンス指標、バイアス、品質保証、コードエラー管理などの信頼性に関する懸念を含むモデルの評価、が含まれる。スポンサーは、これらのステップに関連するリスクが増大するにつれて、特に臨床試験参加者及び/又は患者への影響が増大する場合には、より詳細な情報開示を行うことが期待される。
さらにFDAは、AIモデルのアウトプットの信頼性をライフサイクルで維持するための特別な配慮を特に強調している。例えば、あるAIモデルへのインプットや展開が変化した場合、モデルの性能を再評価する必要があるかもしれない(従って、継続的な信頼性を裏付けるために対応する開示を提供する)。
知的財産に関する考察
特許 vs 営業秘密
関係者は、意思決定に使用されるAIモデルの基礎となる技術革新の特許化を慎重に検討すべきである。FDAは、AIモデルのアーキテクチャ、トレーニングデータ、評価プロセス、ライフサイクル保守計画に関する情報の透明性と提出を広範に要求しており、これらのイノベーションを企業秘密として維持することは大きな課題となるだろう。
とはいえ、AIモデルを開示する必要がない場合には、AIモデルの少なくとも一部の側面を営業秘密として保護することも選択肢の一つである。AIモデルが患者の安全性や医薬品の品質に影響を与えない創薬や業務に使用される場合、AIモデルやそのトレーニングデータを秘密にすることが可能かもしれない。しかし、意思決定に使用されるAIモデルは、FDAが求める透明性と情報開示の対象となり、企業秘密保護が危うくなる可能性が高い。AIモデルの特許保護を確保することで、関係者はFDAの透明性要件を満たしながら知的財産を保護することができる。
イノベーションの機会
このガイダンスでは、厳格なリスク評価、データ適合性基準、モデル検証プロセスが求められており、これらの要求に応えるためのツールやシステムを構築する段階が整うことになる。上述したように、意思決定に使用されるAIモデルを管理・検証するための革新的なアプローチは、企業秘密保護には適さない。
我々は、ガイダンスに反映されたFDAの要求によって推進されると思われるAIイノベーションの具体的な機会を特定した:
- 透明性の要件
- 意思決定や予測がどのように行われるかを示す、説明可能なAI機能を備えたAIモデルの設計
- データの偏りと適合性
- 学習データの偏りを検出するシステム
- トレーニングデータのバイアスを補正するシステム
- ライフサイクル・メンテナンス監視システム
- 医薬品のライフサイクルにおけるデータのドリフトやAIモデルの変更を検出するシステム
- データのドリフトにより、必要に応じてAIモデルを再トレーニングまたは再検証するシステム
- モデルのパフォーマンスを追跡する自動化システム
- 試験方法
- 一般化可能性を実証するために、独立したデータセットや条件に対してテストできるモデルを開発する。
- 実用的なワークフローにおけるAIモデルの統合
- 適正製造基準
- 臨床判断支援システム
- ドキュメンテーション・システム
- 規制要件を満たすためにFDAに提出できる、モデルの開発、評価、更新、信頼性評価のレポートを自動生成するシステム
このガイダンスは、医薬品のライフサイクル全体でAIの信頼性、透明性、規制遵守を強化するためのイノベーションの機会を数多く提供している。上記で示したように、医薬品開発におけるAIの利用を検証するためにFDAが対処しようとしている課題は、潜在的なイノベーションに明確に対応している。このようなイノベーションは、FDAのガイドラインを遵守するために必要であり、競争力のある特許ポートフォリオを開発するための重要な機会を提供するため、価値があると思われる。
結論
このガイダンスにより、FDAは、臨床試験参加者と患者にリスクと影響を与えるAIモデルの信頼性を確立するためのガイドラインを提案した。このガイダンスは、草案であり拘束力はないが、関心のある問題の定義、AIモデルの使用の背景の確立から、リスクの評価、そして関連する可能性のある情報開示の範囲の確立まで、段階的な枠組みに従っている。このガイダンスは、医薬品開発におけるAIの使用に関するFDAの最新の考え方を示している。このようなフレームワークとそれに対応する情報開示のレベルを考慮すると、スポンサーはイノベーションに対してより多くの特許保護を利用する方向への戦略の転換を検討するかもしれない。同様に、これらのモデルに関するガバナンスの構築に関連するイノベーションを特定し、保護する機会も増えるかもしれない。
知的財産権保護を情報開示強化の裏付けとすることに加え、企業は、AIモデル使用に伴うリスクを軽減し、情報開示の負担を軽減するために、より多くの業務管理の導入を検討することもできる。例えば、企業は、AIモデルの信頼性を他のエビデンスソースでサポートすることや、より多くの人間の関与と監視をプロセスに組み込むことを検討することができる。
その一方で、AIモデルの使用が将来のFDAの要求事項とどのように相互作用するかについて不確かなスポンサーは、FDAがその特定の使用状況について概説した関与の選択肢を検討すべきである。
ガイダンス草案に対する意見は、2025年4月7日までにオンラインまたは郵送で提出することができ、私たちのチームは利害関係者の草案作成を支援する。
フォーリーは、規制変更に伴う短期的および長期的な影響に対処するお手伝いをいたします。フォーリーには、事業運営や業界特有の問題に関連する、これらおよびその他の重要な法的検討事項をナビゲートするためのリソースがあります。フォーリーのリレーションシップ・パートナーである著者にご連絡ください。 ヘルスケア・ライフサイエンス部門または イノベーティブ・テクノロジー・セクターまでお問い合わせください。