
人工智能(AI)正以惊人速度重塑数字医疗——从患者参与到临床决策,变革具有革命性意义。与AI供应商签订合同带来了新的法律、运营及合规风险。数字医疗首席执行官和法律团队必须调整传统合同策略,以应对AI系统处理敏感且高度监管的医疗数据的现实挑战。
为确保最佳效果,数字健康企业在与潜在人工智能供应商进行合同谈判时,需重点关注以下五个关键领域:
1. 界定人工智能的能力、范围及性能
您的合同应明确规定:
- 描述该人工智能工具的功能、局限性、集成点及预期成果。
- 建立可衡量的绩效标准,并将其纳入服务级别协议。
- 包含用户验收测试及补救措施,例如未达性能标准时提供服务抵扣或终止服务。此举既保障您对人工智能驱动服务的投资,又使供应商责任与您的运营目标保持一致。
2. 明确数据所有权与使用权
人工智能依赖数据生存,因此明确数据所有权、访问权和许可权至关重要。合同应明确供应商可访问和使用的具体数据范围——包括该数据是否包含受保护的健康信息(PHI)、其他个人信息或运营数据——以及是否可用于训练或改进供应商的模型。 关键在于,合同需确保供应商对数据的任何使用均符合《健康保险流通与责任法案》(HIPAA)、州隐私法规及贵公司内部政策,包括限制将PHI或其他敏感健康数据用于供应商向贵公司提供服务以外的目的,或法律允许的其他用途。若贵公司有意进行此类数据授权,则可赋予供应商更大灵活性,允许其使用去标识化数据来训练或开发人工智能模型。
您还应仔细审查广泛的数据许可条款。除非合同中明确授权该使用场景,否则切勿承担供应商对您的数据进行二次利用所产生的责任。
3. 要求透明度与可解释性
监管机构和患者期望人工智能驱动的医疗决策具备透明度。必须提供文件说明人工智能模型的运作机制、输出结果背后的逻辑,以及为减轻偏见和不准确性而采取的保障措施。
警惕供应商在缺乏充分认知或未履行责任传递义务的情况下转售或嵌入第三方人工智能工具。若这些人工智能工具处理贵公司的敏感医疗健康数据,供应商应能够对其从第三方授权的工具进行审计或说明。
4. 处理责任与风险分配
人工智能相关的责任,特别是因错误、幻觉或网络安全事件引发的责任,可能造成重大后果。确保合同包含根据人工智能工具的数据敏感性和功能量身定制的赔偿条款及风险分配机制。
警惕那些对人工智能生成内容免除责任的供应商。此类免责条款或许适用于内部工具,但绝不适用于面向患者、支付方或监管机构的输出内容。低成本工具若伴随高数据暴露风险,可能引发不成比例的责任风险——尤其当责任上限仅与合同费用挂钩时,这种风险更为显著。
5. 制定合规与变更计划
随着联邦和州隐私监管机构不断更新的规则,供应商必须承诺持续遵守当前及未来的合规要求。合同条款应为未来法律或最佳实践的变更预留灵活性空间。这将更有力地确保贵公司所依赖的人工智能工具不会落后于监管趋势——更避免因不合规或模型行为过时而使公司面临执法风险。
将这份人工智能供应商合同清单纳入供应商选择流程,将帮助首席执行官在与人工智能供应商合作时系统性地管理风险、合规性及创新机遇。
人工智能供应商合同核查清单:
- 定义人工智能的范围、能力及性能预期。
- 明确数据所有权、访问权及隐私义务。
- 要求人工智能流程具备透明度和可解释性。
- 明确界定责任、风险及合规义务。
- 制定更新条款、适应性条款及退出策略。
医疗健康领域的人工智能解决方案正持续快速演进。因此,数字健康企业应密切关注任何新进展,并在合同签订过程中持续采取必要措施保障自身权益。若您对人工智能及引入新AI解决方案存在任何疑问,请随时联系本文作者,或致电福里律师事务所网络安全与数据隐私业务组或医疗健康业务组的合伙人及高级顾问。