正如我们先前讨论的,今年早些时候,美国国家标准与技术研究院(NIST)启动了可信赖且负责任的人工智能资源中心。该中心包含NIST的人工智能风险管理框架(RMF)及配套指南,旨在协助企业和个人实施该框架。 该框架旨在帮助人工智能用户和开发者分析并应对系统风险,同时提供实用的指导方针和最佳实践以化解风险。随着人工智能技术持续成熟并投入实际应用,该框架还具备适应性强、便于实践的特点,能够应对不断变化的技术环境。
风险管理框架的前半部分探讨了这些风险,后半部分则阐述了应对风险的策略。当人工智能风险管理框架得到妥善实施时,组织与用户在运用人工智能系统时,应能见证流程优化、认知水平提升以及参与度增强。 风险管理框架将人工智能系统定义为"基于工程或机器的系统,能够针对特定目标生成预测、建议或决策等输出,从而影响真实或虚拟环境。此类系统设计时具备不同程度的自主运行能力。"
理解并应对人工智能系统的风险、影响与危害
利用人工智能系统为个人和组织(在风险管理框架中统称为"行为体")带来诸多益处,包括提升生产力和创造力。然而该框架同时指出,若使用不当,人工智能系统亦可能对个人、组织及公众造成危害。例如,框架阐明人工智能系统可能加剧歧视现象、为企业制造安全风险,并恶化气候变化问题。 RMF框架使行为主体能够以协调一致的方式应对人工智能系统的积极与消极影响。
正如许多网络安全专业人士所知,风险是事件发生概率与事件发生可能造成的危害的函数。负面结果可能包括对人员、组织或生态系统的损害。实际上,风险难以精确量化,因为事件发生的概率可能存在重大不确定性,且往往难以预见危害一旦发生将产生的影响。风险管理框架(RMF)阐述了其中部分挑战,包括:
- 与第三方软件、硬件及数据相关的风险:尽管第三方数据或系统有助于加速人工智能系统的开发进程,但它们存在未知因素,可能使风险评估复杂化。此外,人工智能系统的用户可能不会按照开发者和供应商的预期方式使用这些系统。当人工智能系统在生产环境中的实际应用与受控开发环境中的使用方式存在巨大差异时,其开发者和供应商可能会感到意外。
- 可靠指标的可用性:计算使用人工智能系统时可能产生的影响或危害较为复杂,可能涉及诸多因素。
- 人工智能生命周期不同阶段的风险: 使用现成系统的行为主体将面临与自行构建和训练系统的主体不同的风险。风险管理框架(RMF)承认企业需要确定自身的风险承受能力,某些组织可能愿意承担比其他组织更高的风险,这取决于法律或监管环境。然而,该框架也指出,试图解决并消除所有风险既不高效也不经济,企业必须优先处理关键风险。 正如企业应处理网络安全与数据隐私风险一样,风险管理框架建议将风险管理融入组织实践,因为不同阶段的组织实践会呈现不同类型的风险。
风险管理框架(RMF)同时指出,可信度是人工智能系统的重要特征。可信度与行为主体的行为、人工智能系统使用的数据集、人工智能系统用户和开发者的行为,以及行为主体如何监督这些系统密切相关。该框架认为以下特征会影响人工智能系统的可信度:
- 验证与可靠性:相关方应能够确认人工智能系统已满足特定要求,且能在特定条件下无故障运行。
- 安全:人工智能系统不应危及人类生命、健康、财产或环境。
- 安全与弹性:人工智能系统应能够应对并从意外的负面事件和变化中恢复。
- 问责与透明度:相关方应能够获取有关人工智能系统及其产出结果的信息。
- 可解释性与可理解性:人工智能系统应能向相关方提供适当的信息量,并确保其具备一定程度的理解能力。
- 隐私增强:在适当情况下,人工智能系统的设计选择应纳入匿名性、保密性和控制权等价值要素。
- 公平性与有害偏见管控:人工智能系统存在延续并加剧既有歧视的风险。相关方应做好准备以预防和缓解此类偏见。
AI RMF风险管理核心与配置文件
人工智能风险管理框架(AI RMF)的核心包含若干基础功能,旨在为企业构建可信赖的人工智能系统提供框架支撑。这些功能包括:治理、映射、衡量与管理,其中"治理"功能被设计为对其他各项功能产生影响。

图1:风险管理核心(NIST AI 100-1,第20页)。
这些功能均被进一步细分为各类子类别,旨在实现高级功能目标。鉴于子类别数量庞大且涉及大量建议措施,风险管理框架核心并非企业用于简单"打勾确认"的检查清单。相反,人工智能风险管理框架主张风险管理应贯穿人工智能系统全生命周期,做到持续性与及时性。
人工智能风险管理框架(AI RMF)同时认识到,风险管理不存在"一刀切"的解决方案。相关方应针对人工智能系统的具体应用场景构建专属配置文件,并选择适当的措施来执行并实现四大功能。虽然AI RMF阐述了实施流程,但AI RMF操作手册针对某些常见情境(通常称为配置文件)提供了详细说明和实用信息。 不同领域、技术或应用场景下的风险管理框架配置文件存在差异。例如,就业场景的配置文件与信用风险及欺诈检测场景的配置文件截然不同,需应对不同的风险类型。
RMF核心包含以下功能:
- 治理。强有力的治理对建立维护组织风险管理所必需的内部实践和规范至关重要。治理职能通过划分类别来协助落实其他三大职能的政策与实践,包括建立问责机制、促进职场多元化、完善可访问流程,确保人工智能风险评估由观点多元的团队完成,并组建致力于践行安全优先人工智能文化的组织团队。
- 映射。映射功能 帮助行为主体在使用人工智能系统时将风险置于具体情境中考量。通过实施映射功能下提供的行动措施,组织将更能预判、评估并应对潜在的负面风险源。该功能涵盖的类别包括:建立并理解人工智能系统的运行背景、对人工智能系统进行分类、全面评估人工智能系统各组成部分的风险与效益,以及识别可能受影响的个人和群体。
- 衡量。衡量功能运用定量与定性工具分析和监控人工智能风险,并帮助相关方评估其人工智能系统的使用情况。衡量指标应追踪可信度特征、社会影响、人机交互质量等多元目标。该功能涵盖以下类别:识别并应用适当的方法与指标;评估系统的可信特征;建立机制以持续追踪已识别风险;收集关于衡量有效性的反馈。
- 管理。在 确定相关风险及适当的风险承受能力后, 管理职能协助企业对风险进行优先级排序,合理配置资源以应对最高风险,并实现定期监测与人工智能系统的持续改进。管理职能涵盖以下类别:根据风险地图与评估结果对风险进行优先级排序;制定策略以最大化人工智能效益并最小化其危害;管理第三方人工智能风险。
通过这种方式,该指南为实现这四项功能提供了具体可行的建议。
对企业的影响
人工智能风险管理框架(AI RMF)可协助企业建立健全的治理体系,有效管控人工智能系统的风险。尽管当前任何拟议法规(包括欧盟《人工智能法案》)均未强制要求采用AI RMF,但该框架与其他NIST标准及指南一样,无疑能以系统化、可重复的方式帮助企业满足此类法规的风险分析要求。 因此,考虑提供或使用人工智能系统的企业,也应考虑采用AI RMF来分析并降低风险。企业可能需要向监管机构展示使用AI RMF过程中生成的高级文档,同时也可考虑向客户提供相关文件以消除顾虑、增强信任。
作者衷心感谢加州大学伯克利分校法学院学生、富乐律师事务所2023年暑期实习生马修·查的贡献。