受托人应关注人工智能领域的最新动态,包括各州法律的新近修订、州政府与联邦政府对人工智能监管力度的加强,以及人工智能在《雇员退休收入保障法》诉讼中的作用。尽管当前焦点多集中于人工智能对退休计划的影响(我们此前已在此处讨论过),但各类计划的受托人——包括健康福利计划——也必须及时了解人工智能的最新发展。
近期州法律变更
近期,多个州颁布了针对人工智能的新法规,其中部分法规规范了雇主的人力资源决策流程。主要案例包括:
- 加利福尼亚州 – 2024年,加利福尼亚州颁布了十余项人工智能相关法律,涵盖以下议题:
- 在包含姓名、地址或生物特征数据的数据集中使用人工智能;
- 如何利用人工智能向患者传达医疗保健信息;以及
- 人工智能驱动的医疗决策与事前授权。
有关加州新人工智能法律的更多信息,请参阅富乐律师事务所的客户通告《解读加州近期密集出台的人工智能法律》。
- 伊利诺伊州——伊利诺伊州通过立法,禁止雇主在雇佣活动中以任何可能导致歧视性后果的方式使用人工智能,无论其意图如何。根据该法律,雇主若计划将人工智能用于任何与工作场所相关的目的,必须向员工和求职者发出通知。
有关伊利诺伊州新颁布的人工智能法律的更多信息,请参阅富乐律师事务所的客户通告《伊利诺伊州颁布立法,防范人工智能在雇佣活动中的歧视性影响》。
- 科罗拉多州——《科罗拉多州人工智能法案》(CAIA)将于2026年2月1日生效,该法案要求雇主在特定应用场景中使用人工智能时必须履行"合理谨慎义务"。
有关科罗拉多州新颁布的人工智能法律的更多信息,请参阅福里律师事务所的客户通告《规范人工智能在雇佣决策中的应用:2025年发展展望》。
尽管这些法律并未直接针对员工福利计划,但它们反映出各州正朝着全面规范人力资源实践的方向发展,旨在监管人力资源决策流程,并成为不断演变的监管环境的一部分。 2024年各州又提出了数百项法案及人工智能相关行政命令,预示2025年将出台更多法规。这些法律与员工福利计划的交集问题,以及联邦《雇员退休收入保障法》的优先效力是否适用于各州监管尝试,目前仍存争议。
联邦政府近期采取的行动
联邦政府近期发布了旨在防止特定医疗服务提供过程中出现歧视的指导方针,并完成了针对金融服务业潜在人工智能监管措施的信息征询(RFI)。
- 美国卫生与公众服务部(HHS)民权办公室人工智能非歧视性指导意见——HHS通过其民权办公室(OCR)近期发布了一封题为《通过使用人工智能及其他新兴技术确保非歧视性》的"致同事函"。该指南强调,在医疗保健领域使用人工智能及其他决策支持工具时,必须确保其符合联邦反歧视法律,特别是《平价医疗法案》第1557条(Section 1557)的规定。
第1557条禁止在接受联邦财政援助的医疗项目和活动中基于种族、肤色、国籍、性别、年龄或残疾进行歧视。民权办公室的指导意见强调,医疗服务提供者、健康保险计划及其他相关实体不得以导致对患者产生歧视性影响的方式使用人工智能工具。这包括与诊断、治疗及资源分配相关的决策。 雇主和计划发起方需注意:本指导意见仅适用于部分健康计划(包括受第1557节管辖的计划),但不涵盖所有雇主赞助的健康计划。
- 财政部发布人工智能监管征询意见书——2024年,美国财政部就金融服务领域人工智能的应用、机遇与风险发布征询意见书。该文件涵盖多项关键考量,包括解决人工智能偏见与歧视问题、消费者保护与数据隐私保障,以及人工智能第三方用户面临的风险。尽管该文件尚未形成具体法规,但凸显了联邦政府对人工智能影响金融及员工福利服务的关注。代表美国大型雇主(作为员工福利计划发起方)的非营利组织《雇员退休收入保障法》行业委员会指出,人工智能已应用于退休准备应用程序、聊天机器人、投资组合管理、交易执行及健康管理计划等领域。未来监管可能针对这些及相关领域展开。
人工智能驱动的《雇员退休收入保障法》诉讼
人工智能正被用于识别针对计划发起人和受托人的潜在《雇员退休收入保障法》索赔。仅举一例,名为Darrow AI的人工智能平台宣称:
本系统专为简化计划文件、监管申报及法院案件中海量数据的分析而设计。我们的技术能精准识别差异、受托责任违背及其他《雇员退休收入保障法》违规行为。运用先进分析技术,您可快速识别潜在索赔、评估其财务影响并构建有力案件……从而有效为寻求退休福利与健康福利正义的员工提供支持。
此外,该人工智能平台宣称能够通过分析多元化数据源——包括新闻报道、美国证券交易委员会文件、社交网络、学术论文及其他第三方来源——发现影响各类雇主的违规行为,无论其是小型企业还是大型企业。
值得注意的是,健康与福利保障计划也正成为人工智能驱动的《雇员退休收入保障法》诉讼的关注焦点。人工智能工具被用于分析理赔数据、服务提供商网络及行政决策,从而可能识别福利认定中的歧视性做法或不一致之处。例如,人工智能能够揭示事前授权中的偏见模式,或揭露心理健康平等法适用过程中的差异。
这些工具日益精进的特性,使受托人的风险敞口不断扩大——他们必须正视潜在索赔人可能借助人工智能技术,以前所未有的精准度审视其决策并策划行动的可能性。
受托人的后续步骤
为应对这一不断演变的局面,受托人应采取主动措施管理人工智能相关风险,同时充分利用这些技术的优势:
- 评估人工智能工具:对用于计划管理、参与者互动及合规性的人工智能工具进行正式评估。该评估涵盖对相关算法、数据来源及决策流程的审查,包括确认其产出已通过非歧视标准合规性评估,且不会无意中产生偏颇结果。
- 审计服务提供商:对计划服务提供商进行全面审计,评估其人工智能应用情况。要求其详细披露正在运行的AI系统信息,重点关注其如何缓解偏见、保障数据安全以及遵守相关法规。
- 审查与更新政策:制定或修订内部政策及治理框架,以监督人工智能在运营规划中的应用情况,并确保其符合反歧视法律。这些政策应明确人工智能技术的采用、监控及合规准则,从而确保与受托责任保持一致。
- 加强风险防范:
- 受托责任保险:建议考虑购买或提升受托责任保险,以应对因使用人工智能而可能产生的索赔。
- 数据隐私与安全:加强数据隐私与安全措施,以保护由人工智能工具处理的敏感参与者信息。
- 偏见缓解:建立定期测试和验证人工智能工具偏见性的程序,确保符合反歧视法律。
- 在提案请求书(RFP)中纳入人工智能考量:选择供应商时,应在提案请求书中加入特定的人工智能相关标准。这可能要求供应商证明或认证其符合州级和联邦法规,并遵循人工智能使用的行业最佳实践。
- 监控法律法规动态:及时掌握各州及联邦层面的人工智能新规,以及涉及人工智能与《雇员退休收入保障法》诉讼的判例法发展。建立定期法律审查流程,评估这些动态对计划运营的影响。
- 提供培训:向受托人、管理人员及相关员工普及人工智能在计划管理中的潜在风险与效益、新兴技术应用以及遵守适用法律的重要性。培训内容应涵盖法律义务概述、人工智能实施最佳实践及风险缓解策略。
- 文件尽职调查:全面记录评估和追踪人工智能工具的所有步骤。这包括审计记录、供应商沟通记录以及内部政策更新记录。清晰的文件记录在发生诉讼时可作为关键的防御依据。
- 评估第1557条对您计划的适用性:健康福利计划受托人应确定贵组织的健康计划是否受第1557条约束,以及民权办公室(OCR)的指导意见是否直接适用于贵机构的运营;若不适用,则需确认并记录不适用的原因。
受托人必须对人工智能在员工福利计划中日益增长的作用保持警惕,尤其在监管不确定性加剧的背景下。采取主动措施并实施强有力的风险管理策略,有助于降低风险并确保符合现行及预期法律标准。通过恪守勤勉义务和透明原则,受托人既能充分利用人工智能的优势,又能保障计划参与者的权益。 在富乐律师事务所,我们拥有人工智能、退休规划、网络安全、劳动与就业、金融、金融科技、监管事务、医疗保健及《雇员退休收入保障法》等领域的专家团队。他们定期就上述及相关人工智能议题的潜在风险与责任为受托人提供专业建议。