2025年1月6日,美国食品药品监督管理局(FDA)发布了题为 《人工智能在支持药品和生物制品监管决策中的应用考量》 (以下简称"指南"),阐明该机构在药品评估过程中可能要求提供的各类信息。该指南特别基于人工智能(AI)技术的"使用场景"构建风险框架,详细列明为批准AI技术应用可能要求(或强制要求)提供的信息,包括AI技术本身、技术训练数据以及相关技术治理机制等方面的资料。 从宏观层面看,该指南强调了FDA在使用场景中建立AI模型可信度的目标。
本文概述了该指南的核心内容,包括使用场景示例及风险框架的详细说明,同时阐释了这些内容如何通过建议的数据和模型相关披露来建立人工智能模型的可信度。此外,指南还详细阐述了法律策略考量以及由此产生的创新机遇。 这些考量对申办方(即临床研究发起方,如新药研究豁免申请方)、人工智能模型开发者以及药物研发领域的其他企业均具有重要价值。
界定研究问题
该指南框架的第一步是定义"关注问题":即人工智能模型所解决的具体问题、决策或关切事项。例如,关注问题可能涉及人工智能技术在人体临床试验中的应用,包括受试者筛选的纳入与排除标准、受试者风险分层,或确定与关键临床结局指标相关的操作流程。 关注问题同样可能涉及人工智能技术在药物生产过程中的应用,例如质量控制环节。
使用场景
该指南随后确立了使用场景——即人工智能模型在处理特定问题时的具体范围和作用——作为理解该模型相关风险的起点,进而阐明如何建立可信度。
该指南强调其适用范围仅限于影响患者安全、药品质量或非临床/临床研究结果可靠性的人工智能模型(包括用于药物发现的模型)。因此,那些使用人工智能模型进行药物发现,但依赖更传统流程处理FDA批准药物时考虑的安全性、质量和稳定性等因素的企业,应了解该指南的基本原则,但可能无需修改其现行人工智能治理体系。 界定使用场景的关键因素在于AI模型相对于其他自动化或人工监督流程所扮演的角色:例如,需人工核验AI输出结果的流程与完全自动化流程存在本质差异。
指南中介绍了多种使用场景,包括:
- 临床试验设计与管理
- 评估患者
- 裁决终点
- 分析临床试验数据
- 数字健康技术在药物研发中的应用
- 药物警戒
- 制药生产生成真实世界证据(RWE)
- 生命周期维护
信息披露程度判定风险框架
该指南建议,人工智能模型所构成的风险等级决定了必须披露的模型信息范围与深度。风险评估基于两项因素:1) 人工智能模型对决策的影响程度(模型影响风险);2) 决策的后果,例如患者安全风险(决策后果风险)。
对于高风险人工智能模型——其输出结果可能影响患者安全或药品质量——可能需要向FDA提交关于模型架构、数据来源、训练方法、验证流程及性能指标的全面细节以供评估。相反,对于低风险人工智能模型,所需披露的细节可能较少。这种分级方法既能提升可信度,又可避免在低风险场景下造成不必要的披露负担。
然而,本指南范围内的大多数人工智能模型很可能被视为高风险,因为它们被用于临床试验管理或药物生产,因此相关方应准备好披露用于支持决策的人工智能模型的详细信息。 采用传统(非人工智能)方法开发药品的申办方,需提交完整的非临床、临床及化学制造与控制数据,以支持FDA对新药申请的审查与最终批准。使用人工智能模型的申办方除需提交同等信息外,还须按下述要求提供人工智能模型的相关信息。
基于使用情境的合规指南高级概述
该指南进一步详细阐述了为建立人工智能模型的可信度而需采取的步骤,并考虑了其使用场景。这些步骤包括说明:(1) 模型本身,(2) 用于开发模型的数据,(3) 模型训练过程,(4) 模型评估环节——涵盖测试数据、性能指标以及可靠性问题(如偏见、质量保证和代码错误管理)。 随着上述步骤相关风险的增加,特别是当对试验参与者和/或患者的影响加剧时,赞助方可能需要提供更详尽的披露信息。
此外,FDA特别强调需对人工智能模型输出结果的可信度进行全生命周期维护。例如,当特定人工智能模型的输入数据或部署方式发生变化时,可能需要重新评估该模型的性能表现(并据此提供相应披露信息以维持其可信度)。
知识产权考量
专利与商业秘密
利益相关方应审慎考虑为决策所用人工智能模型的底层创新申请专利。美国食品药品监督管理局(FDA)对透明度及提交人工智能模型架构、训练数据、评估流程和生命周期维护计划等信息的广泛要求,将对将这些创新作为商业秘密予以保护构成重大挑战。
话虽如此,当人工智能模型无需公开时,对其至少部分内容实施商业秘密保护仍是一种可行方案。若该模型用于药物研发或不影响患者安全及药品质量的操作,则可能将其模型或训练数据保密。然而,用于决策的人工智能模型将受制于FDA对透明度和信息披露的要求,这很可能危及商业秘密保护。 通过为人工智能模型获取专利保护,相关方既能保障知识产权安全,又能满足FDA的透明度要求。
创新机遇
该指南要求进行严格的风险评估、数据适用性标准和模型验证流程,这将为创建满足这些需求的工具和系统奠定基础。如上所述,用于决策的人工智能模型管理和验证的创新方法不适合作为商业秘密保护的对象,相关方应确保及早识别这些发明并申请专利。
我们已识别出若干人工智能创新的具体机遇,这些机遇很可能由FDA在指南中反映的需求所驱动:
- 透明度要求
- 设计具备可解释性的人工智能模型,能够展示决策或预测的形成过程
- 数据的偏倚与适配性
- 训练数据偏见检测系统
- 训练数据偏差校正系统
- 生命周期维护监测系统
- 在药物生命周期内检测数据漂移或人工智能模型变化的系统
- 根据数据漂移情况,按需对AI模型进行再训练或重新验证的系统
- 用于追踪模型性能的自动化系统
- 测试方法
- 开发能够在独立数据集和条件下进行测试的模型,以验证其泛化能力
- 人工智能模型在实际工作流程中的集成
- 良好生产规范
- 临床决策支持系统
- 文档系统
- 自动生成模型开发、评估、更新及可信度评估报告的系统,可提交给美国食品药品监督管理局以满足监管要求。
该指南为创新提供了诸多机遇,旨在提升人工智能在药品全生命周期中的可信度、透明度及合规性。如上所述,FDA为验证人工智能在药物研发中的应用所寻求解决的挑战,与潜在创新方向高度契合。此类创新极具价值,既能满足FDA指南要求,又为构建具有竞争力的专利组合创造了重要机遇。
结论
基于此指导原则,美国食品药品监督管理局(FDA)针对可能对临床试验参与者及患者产生风险与影响的人工智能模型,提出了建立可信度的指导方针。该指导原则虽为草案且不具约束力,但遵循了循序渐进的框架:从界定关注问题、确立人工智能模型使用场景,到评估风险并据此确定相关披露范围。 该指南阐明了FDA在药物研发中运用人工智能的最新理念。基于此框架及预期披露程度,申办方或可考虑调整战略,通过加强专利保护来维护创新成果。同样,围绕这些模型构建治理体系的过程中,或将涌现更多识别与保护创新成果的机遇。
除将知识产权保护作为加强披露的后盾外,企业还可考虑引入更多运营管控措施,以降低人工智能模型使用相关的风险,从而减轻披露负担。例如,企业可考虑通过其他证据来源佐证人工智能模型的可信度,同时在流程中融入更多人工参与和监督机制。
与此同时,对于其人工智能模型使用方式可能与未来FDA要求产生何种互动尚存疑虑的赞助商,应考虑FDA针对其具体使用场景所提出的参与方案。
对该指导草案的意见可于2025年4月7日前通过在线提交或邮寄方式提交,我方团队可协助相关利益方起草意见稿。
福里律师事务所致力于协助您应对监管变革带来的短期与长期影响。我们拥有丰富的资源,可助您应对这些挑战以及与业务运营和行业特定问题相关的其他重要法律考量。请联系本文作者、您的福里客户关系合伙人或我们的 医疗保健与生命科学业务组或 创新技术业务组 团队。