人工智能(AI)的发展催生了能够自主决策的系统,即代理型人工智能。生成式AI本质上是"创造"——提供文本、图像等内容;而代理型AI则是"执行"——完成在线搜索和订购商品等任务。这类系统正开始出现在面向公众的应用中,包括Salesforce的Agentforce和谷歌的Gemini 2.0。
随着能动性人工智能的持续普及,法律体系必须适应以应对风险并利用人工智能系统的优势——这些系统能够进行更逻辑化的思考并采取行动,而非仅仅提供指导或创造。诸如《加州消费者隐私法案》(CCPA)及其针对自动化决策技术(ADMT)的拟议修订等举措,凸显了监管机构在人工智能驱动时代如何致力于保障隐私权与问责制。
代理式人工智能的实际应用
代理系统在有限的人类监督下,通过复杂推理实现复杂目标。与响应指令的传统生成式人工智能不同,代理式人工智能能借助第三方作为用户的"代理"执行任务。 例如,当被要求预订航班时,智能体AI将访问航班数据库,根据用户偏好和预算筛选可用航班,权衡价格与旅行时间的取舍,最终通过与航空公司预订系统交互完成订票,并为乘客输入所有必要信息。
在医疗保健领域,该技术可通过分析患者数据和医学影像辅助疾病诊断;在金融行业,则能借助先进数据分析实现欺诈检测与信用风险评估。零售企业亦可运用智能代理人工智能技术,根据用户行为推荐商品,从而实现个性化购物体验。
在消费层面,像Rabbit R1这样的便携式智能设备已让消费者初尝自主决策的滋味。该设备展示了智能AI如何通过语音指令操控第三方应用,完成点餐或叫车等任务。 在如此小规模的应用场景中,指令误解对用户的影响尚属轻微——或许导致外卖订单出错或网约车司机前往错误地点。然而当应用于更复杂的使用场景时,指令误解的后果将被放大。
理解代理型人工智能及其治理
虽然企业有望通过此类系统简化工作流程并节约资源,但在面向消费者的岗位部署这类系统所涉及的法律与伦理问题仍需审慎考量。例如,将代理型人工智能应用于法律合同的审查、修改乃至(不久的将来)谈判,将引发诸多重要问题——在缺乏人工监督与细致判断的情况下自动化处理具有法律约束力的文件,将使企业和消费者面临更高的风险。
ADMT与新兴监管框架
加州隐私保护局(CPPA)已提出一套针对自动化决策技术(ADMT)的国家监管标准,旨在应对智能代理人工智能领域日益增长的担忧。 根据《加州消费者隐私法案》(CCPA)的定义,ADMT涵盖"任何处理个人信息并通过计算执行决策、替代人类决策或实质性辅助人类决策的技术"[1]。关键在于,"实质性辅助人类决策"的定义明确指出:当技术输出成为人类决策过程中的关键因素时,即属于ADMT范畴。
然而,《加州消费者隐私法案》将某些无法独立执行决策或显著影响人类决策的技术排除在此定义之外。例如拼写检查工具或计算器等基础工具,它们仅能组织或计算数据,而不会自主决策。[2]这些区分明确了监管重点在于具备独立决策能力或能重大影响决策的智能代理系统(简称ADMT)。
网络安全审计
拟议规则要求处理个人信息且对消费者安全构成重大风险的企业定期进行网络安全审计。 "重大风险"适用于满足特定门槛的企业,即其年度收入超过50%来源于销售消费者信息,或处理消费者及家庭的敏感信息。此类企业必须每年由合格、客观且独立的专业人士进行无间断审计,全面审查其网络安全计划,以识别漏洞、记录发现结果,并制定计划解决任何薄弱环节。[3]
针对人工智能和高级数据管理技术(ADMT)的应用场景,拟议规则第9条要求采用ADMT技术的企业采取主动的安全与风险管理措施。例如,在贷款发放自动化过程中使用ADMT技术的银行会处理敏感的消费者信息。 一旦发生数据泄露,可能导致消费者信用记录或社会保障号码外泄,进而引发身份盗用或金融欺诈。该规则提出的严格网络安全审计机制,将识别数据存储与处理过程中的漏洞,从而降低未经授权访问及数据泄露的风险。
风险评估
在拟议规则的网络安全要求基础上,第10条将重点转向使用自动决策和机器学习系统的企业对消费者隐私风险的管理。对于需要大量画像的高风险任务(如信用评估、医疗资格认定、学术项目录取及雇佣决策),必须进行此类风险评估。[4]企业必须配备合规专员开展风险评估,以判定"个人信息处理对消费者隐私造成的风险是否超过其为消费者、企业、其他利益相关方及公众带来的益处"。[5]
这种平衡测试对人工智能和先进数据管理技术(ADMT)在招聘或客户画像等领域的应用尤为关键,必须权衡潜在偏见或危害与运营效率之间的关系。例如,企业若使用ADMT进行情绪评估以决定录用对象,则必须进行风险评估,因为这属于"针对消费者作出重大决策"的范畴。[6]若某款基于ADMT的招聘工具对特定人群产生不均衡影响,则需证明其效益大于风险,否则将依据第10条面临暂停使用风险。
风险评估必须每三年更新一次,或在技术或数据处理活动发生重大变更时立即更新。[7]这确保人工智能模型在演进过程中持续符合合规要求。这些规定要求在隐私保护与创新之间取得平衡,以确保人工智能决策系统以负责任且符合伦理的方式部署。
透明度与问责制
第11条强化了第9条对网络安全的关注,并完善了第10条的前瞻性风险管理框架,为企业运用算法驱动型营销技术(ADMT)制定了规则,要求确保透明度、公平性及消费者控制权。
第11条要求企业在消费者使用前提供通知,详细说明数据处理的目的、可能产生的结果,以及消费者选择退出或访问系统逻辑与输出结果的权利。[8]此举旨在确保企业在处理和使用个人数据时保持透明度,使消费者能够保留对其数据的权利。
除透明度要求外,第11条还要求企业评估先进决策技术系统的运行状况,确保其按预期运作且不导致非法歧视。[9]这包括对系统进行偏见测试并验证其输出质量。通过确立这些要求,第11条旨在强化先进决策技术部署过程中的问责机制,同时保障消费者权益。[10]
代理式人工智能相关风险
采用代理型人工智能存在若干风险,例如决策中的偏见可能导致不公平结果,尤其在招聘或贷款场景中。此外,过度依赖自主系统可能因系统故障或输出错误而引发运营中断。数据安全仍是关键问题,敏感信息可能面临泄露或滥用的风险。
缓解与管理策略
为应对这些风险,企业应实施严格的测试与验证流程以识别并纠正偏见。采用加密和定期审计等强有力的网络安全措施可减轻数据安全威胁。需整合人工监督机制来验证自主人工智能作出的关键决策,确保其可追溯性和可靠性。此外,企业应持续投入员工教育培训,使其有效理解并管理人工智能系统。
《加州消费者隐私法案》的拟议条例为代理型人工智能和自动化决策管理技术的采用与整合提供了监管框架。OpenAI在2023年12月发布的白皮书中强调,通过完善的治理机制,代理型人工智能既能提升生产力,又能确保安全可靠性。
采用智能工具简化流程,可大幅减少企业投入消费者互动开发及常规法律事务的时间,从而显著提升运营效率。网络安全要求通过保护个人数据免遭泄露并增强人工智能驱动流程的可靠性——尤其在涉及客户机密信息的法律事务中——有效降低了消费者权益受损的风险。第十条强调的风险评估机制在此基础上更进一步,要求企业权衡风险与收益。
该法规确保具有代理能力的人工智能创新保持公平性并符合伦理标准。此外,透明度条款旨在加强对具有代理能力的人工智能系统的监督,确保其不仅有效,而且对最终用户具有可理解性。随着具有代理能力的人工智能系统在更复杂的决策场景中发展,透明度将为监管机构和私营主体提供对系统的控制能力。
然而,变革性潜力伴随着《加州消费者隐私法案》拟议法规可能无法覆盖的新风险。正如新技术发展中常见的情况,法律总是滞后于创新。当企业争相采用代理型人工智能时,监管缺位将导致产出可靠性下降、复杂决策结果的脆弱性增加以及劳动力替代等风险。 网络安全威胁仍是紧迫问题,合规成本与运营复杂性可能阻碍广泛应用并催生法律漏洞。第7154(a)条规定的平衡测试——权衡隐私风险与运营效益——存在主观性,易引发法律争议。同样,第11条的透明度要求迫使企业披露自动化决策的逻辑依据,这可能导致消费者权益与知识产权保护产生冲突。
结论
具有能动性的人工智能虽蕴含变革潜力,却也带来重大法律与伦理挑战。加州消费者隐私法案(CCPA)的拟议条例通过强调网络安全、风险评估和透明度,为解决这些问题奠定了基础。随着法律框架不断演进以适应创新步伐,在责任与进步之间寻求平衡将成为确保能动性人工智能得到负责任且公平部署的关键所在。
实施强有力的治理框架对于应对具有能动性的人工智能的复杂性至关重要。此类框架能引导人工智能模型的开发与部署,推动采用可靠、无偏见且高质量的数据来获取成果。通过建立明确的准则和标准,使人工智能系统符合法律法规要求,这些框架还能降低合规风险,确保人工智能解决方案在道德和法律层面规范运行。 此外,将代理型人工智能融入各行业领域,需要向包容性设计和民主创新的范式转变。这意味着不仅要让边缘群体参与人工智能讨论,更要确保多元视角成为人工智能开发的核心要素。通过汇聚多学科利益相关者,我们能够构建新的理论体系、评估框架和方法论,从而驾驭人工智能伦理的复杂性,引导人工智能发展走向有益且可持续的道路。
[1] 参见第7001(f)条。
[2] 参见第7001条。定义(f)(4)。
[3] 参见第7120条;第7121条;第7122条;第7123条。
[4] 参见§7150(a)(3)(A)。
[5] 参见§7152(a)。
[6] 参见§7150(c)(1)。
[7] 参见第7155(a)(2)条。
[8] 参见§7220(a)/(c);§ 7222。
[9] 参见第7201(a)(1)条。
[10] 参见第7201(a)(2)条。