人工智能正成为推动各行业变革的重要力量,金融与退休规划领域亦不例外。与其他从业者一样,受托人正日益借助人工智能驱动的工具与算法来优化投资策略、提升决策流程并改善参与者收益。然而,将人工智能融入401(k)计划管理仍面临诸多挑战。受托人虽负有审慎行事并维护计划参与者最佳利益的职责,但在人工智能时代,这究竟意味着什么? 为厘清其内涵,受托人应考虑对人工智能对401(k)计划的影响进行正式评估。评估内容可涵盖投资选择流程、投资业绩表现、投资顾问/管理人运作机制、记录保管能力、采用(或不采用)人工智能的潜在风险,以及其对服务质量和计划参与者整体体验的影响。基于正式评估结果,可能需要对人工智能实施持续的受托人监督。
401(k)计划受托人与投资委员会流程
大多数401(k)计划的设计都包含核心投资菜单,由计划参与者从特定选项中进行选择。许多计划还提供由受托人选定的合格默认投资方案。通常,401(k)计划的受托人会组成投资委员会(以下简称委员会),其职责在详细章程中明确规定。 委员会通常制定计划参与者可选择的投资方案菜单,并常聘请《雇员退休收入保障法》3(21)条款投资顾问协助筛选。该顾问因向委员会提供有偿建议而成为《雇员退休收入保障法》下的受托人。但即使采用3(21)顾问,其建议亦不可直接采纳,因委员会仍拥有最终决定权,可自主确定向计划参与者提供的投资方案。 此外,部分401(k)计划提供自主管理经纪账户(SDBA),这类账户可提供数百甚至数千种潜在投资选择。美国劳工部关于SDBA相关受托责任的指导意见目前尚在制定中。
在某些情况下,401(k)计划发起人(通常为雇主)不愿亲自审查或作出受托决策,而是指定一名《雇员退休收入保障法》第3(38)条规定的投资经理。该投资经理实际负责制定并实施供计划参与者选择的投资方案。
人工智能对退休计划及401(k)受托人的影响
贝莱德宣布"退休领域的人工智能革命",因为"它能用于提前洞察不同地区的经济活动,从而为投资组合的宏观(如区域)和微观(如公司层面)配置提供决策依据"。贝莱德并非特例——人工智能正在退休计划、投资及金融服务行业获得广泛应用。具体而言,人工智能被用于:
- 在文档、文字记录和财报电话会议中追踪积极和消极词汇;
- 为计划参与者和潜在客户定制个性化信息(先锋集团使用Persado);
- 通过人工智能技术协助理财顾问(摩根士丹利采用OpenAI GPT-4技术);
- 通过数字智能投顾实现投资自动化(查尔斯·施瓦布的智能投资组合);
- 包括旨在投资人工智能行业的交易所交易基金(如Global X机器人与人工智能ETF),以及利用人工智能进行广泛投资决策的交易所交易基金(如Qraft人工智能增强型美国大盘股ETF)在内的各类交易所交易基金;
- 主动管理型股票基金(参见先锋集团在130亿美元量化股票基金中运用人工智能的案例)。
但人工智能并非全是积极影响。 就在上个月,欧盟通过了新的人工智能法案,旨在建立保护消费者的监管框架。国际货币基金组织近期也探讨了金融服务业采用人工智能所蕴含的固有风险,包括内置偏见、隐私担忧、结果不透明性、独特的网络威胁,以及可能催生系统性风险的新源头和传播渠道。就连埃隆·马斯克也多次表示,人工智能对人类的威胁可能比核武器更为严重。
几乎每天,我们都能听到关于人工智能的消息。受托人对此应当采取什么行动(如果有的话)?以下是一些可能的考量:
- 当前3(21)投资顾问是否恰当地(或不当)使用了人工智能?
- 如果存在3(38)类投资管理人,人工智能自动化了多少工作量?计划发起方是否理解这可能对计划参与者产生的影响?
- 使用(或不使用)人工智能辅助选择投资方案存在哪些风险?
- 错误信息或偏颇输出会带来什么风险?
- 若人工智能的建议导致投资决策失误,责任应由谁承担?
- 如何评估其生成内容的质量与准确性?若人工智能为401(k)计划提供投资建议或市场分析,受托人如何确保信息可靠且符合监管要求?存在信息失真或输出偏见的风险,这可能导致错误的投资决策。
- 如果401(k)计划允许使用SDBA,是否应将其限制在降低与人工智能相关的风险范围内?
- 受托人是否理解人工智能的工作原理、其偏见以及对投资决策的潜在影响?
- 记录保管人是否使用人工智能来应对网络安全威胁、与参与者沟通,或用于其他目的?
- 是否对人工智能系统进行了隐私或安全评估?海量敏感参与者数据为这些系统提供支持,使其成为恶意行为者利用安全协议漏洞的首要目标。数据泄露或网络攻击不仅可能损害退休计划的完整性,还可能使受托人面临法律和监管后果。
- 记录保管人是否允许公司选择不使用人工智能?
- 个人计划参与者是否可以选择退出人工智能的使用?
- 人工智能驱动的记录保存功能带来的好处是否大于潜在风险?
- 委员会是否应就人工智能可为其提供何种资源以履行《雇员退休收入保障法》规定的受托责任,寻求独立专业意见?
尽管人工智能可能彻底改变401(k)计划管理,但其仍存在局限性。人工智能算法无法准确应对突发事件和市场波动。虽然人工智能在分析历史数据和识别模式方面表现出色,但可能难以适应突发变化或"黑天鹅"事件,导致受托人面临意外损失风险。 正如雪花与指纹各不相同,人工智能算法亦然。其能力取决于训练数据的质量与数量,导致不同算法在性能和可靠性上存在巨大差异。 当数据存在局限性、过时性或偏见时,或AI系统在训练过程中无意延续甚至放大数据中的既有偏见,便可能产生不可靠或带有偏见的输出结果,导致投资建议失真、计划参与者遭受不平等对待,最终形成次优投资决策。受托人在采信AI生成的建议时必须保持审慎,确保算法基于全面准确的数据进行训练。
尽管人工智能终将更深入地理解人类情感,但当前的AI算法可能缺乏有效驾驭复杂投资环境所需的人类直觉与判断力。虽然人工智能在处理海量数据和识别趋势方面表现卓越,但在将定性因素、市场情绪和主观评估纳入投资决策时仍可能面临挑战。
这些问题没有明确的答案,而信托决策流程正是在此发挥作用。
受托决策风险与潜在责任
正如每位参与401(k)费用诉讼的计划发起人所知,在《雇员退休收入保障法》诉讼中,流程是最关键的因素之一。 一方面,规范流程等同于构建防御体系,既能促使诉讼在早期阶段被驳回,又能降低潜在和解成本。另一方面,若未能遵循有据可循的流程,即便基础的ERISA索赔大多缺乏依据,仍可能导致高昂的诉讼费用、巨额和解金,并引发不当行为的质疑及声誉损害。
人工智能还可能被用于起诉养老金计划的发起人和受托人。若遵循401k费用诉讼的既有路径,相关诉讼将以人工智能为切入点,指控受托人决策过程存在缺陷——通过主张计划参与者因受托人忽视、漠视或缺乏应对人工智能对退休计划行业影响的专业能力而遭受损失。 与基于清晰可理解标准的传统投资策略不同,人工智能算法往往如同"黑匣子"般运作,使受托人难以理解并论证人工智能生成的建议背后的逻辑依据。这种透明度缺失可能削弱参与者和监管机构对退休计划的信任,从而引发诉讼风险。 索赔可能指控:相较于采用(或未采用)人工智能的其他计划,该计划投资表现不佳;若记录保管人采用(或未采用)人工智能处理网络安全、参与者沟通、其他关键计划职能,或提出其他创新主张,计划参与者本可获得更优回报。此类诉讼将采取撒网式策略,即便索赔依据薄弱甚至毫无根据。 其核心目标是通过诉讼程序获取证据,借此发掘流程漏洞并迫使对方支付高额和解金。
解决方案
将人工智能融入401(k)计划管理,为受托人带来了机遇与挑战。人工智能虽有望革新决策流程并提升参与者收益,但也引入了必须应对的新风险与局限性。
对于《雇员退休收入保障法》诉讼,我们认为实际采用(或不采用)人工智能的决策将次于以下两点:计划受托人是否建立了评估人工智能问题的流程,以及该流程是否得到遵循。最终,受托人可能需要权衡使用(或不使用)人工智能所带来的明确收益与风险。潜在解决方案包括:
- 在委员会法定职责中明确规定对人工智能的评估。这包括为参与人工智能实施的利益相关方界定清晰的职责分工,定期对人工智能系统进行审计和评估以确保符合监管要求和最佳实践,并建立监测和缓解算法偏见的机制;
- 对计划3(21)顾问或3(38)管理人使用人工智能及其相关选项提出质疑(并记录质疑过程)。受托人必须优先确保透明度和问责制,包括记录并披露人工智能算法背后的方法论和假设,同时向计划参与者清晰说明人工智能在投资决策过程中的具体应用方式;
- 评估当前记录保管人的人工智能能力、风险及可选方案;
- 为受托人提供教育、培训和资源支持,使其掌握有效评估和运用人工智能所需的知识与技能。这包括持续关注人工智能技术的发展动态,理解人工智能相关的潜在风险与局限性,并培育以道德和负责任为导向的人工智能使用文化;
- 审查计划服务提供商合同中是否存在任何人工智能相关条款,或任何人工智能相关的责任转移或免责声明;
- 评估网络安全和数据隐私协议、政策及流程,以防范人工智能系统相关的潜在威胁与漏洞;实施强有力的网络安全措施,包括加密技术、访问控制及入侵检测系统,以保护敏感参与者信息,防止未经授权访问或篡改人工智能算法;
- 在为新记录保管人发布招标书时,请提出几个与人工智能相关的问题;
- 考虑到人工智能并非取代人类专业知识,而可视为对人类判断与直觉的补充。受托人可借助人工智能工具和算法来增强而非替代人类决策过程,从而制定更稳健、更全面的投资策略,这些策略能综合考量更广泛的因素与考量点;
- 获取或增加受托责任保险的承保范围;或
- 无所事事(对某些人而言,这或许是最佳选择)。
401k费用诉讼案告诉我们:缺乏流程或省略分析都是错误的。偏离既定流程则会带来灾难性后果。根据计划规模、受托人的专业程度以及当前参与者构成,受托人采取与人工智能相关的具体行动可能恰当,也可能不恰当。
鉴于人工智能当前的发展轨迹,与人工智能相关的问题很可能成为受托决策过程的一部分,或至少会影响决策,这要求受托人在人工智能持续演进和成熟的过程中保持警惕并主动适应其所带来的变革。 在富乐律师事务所,我们拥有人工智能、退休计划、网络安全、劳动与就业、金融、金融科技、监管及《雇员退休收入保障法》领域的专业律师团队,持续为受托人提供关于人工智能相关潜在风险与责任的咨询服务。随着人工智能的持续发展与成熟,受托人必须保持警惕并积极适应退休规划领域的变革,以确保401(k)计划的长期成功与可持续性。
| 富理达一直致力于为我们的客户和同事提供法律见解,作为这一承诺的一部分,我们的员工福利和高管薪酬部每月都会出版一份名为 "员工福利透视 "的时事通讯,为您提供有关员工福利和其他相关主题的最新、最紧迫的信息。单击此处或单击左侧按钮订阅。 |