2025年7月18日,加利福尼亚州司法委员会批准了一套将生成式人工智能整合到司法运作中的规则。随着 规则10.430 及 标准10.80 ,法院旨在建立全美首个适用于法庭程序的生成式人工智能应用综合框架。这些新规预计将于2025年9月正式生效。
2024年,在首席大法官帕特里夏·格雷罗的领导下,一支旨在平衡创新与审慎、确保人工智能效率同时维护公信力的特别工作组推动了这些规则的制定。根据新规,该州所有使用人工智能的法院必须在2025年12月15日前制定明确政策,重点涵盖保密性、偏见控制及准确性保障。
关于为何这些防护措施至关重要,媒体和私下讨论甚嚣尘上。尽管人工智能能优化审阅判例法、起草备忘录、摘要法律文书等任务,为法院员工节省时间,但诸多风险依然存在。这些风险涵盖数据泄露、输出结果存在偏见等各类问题。 为应对这些问题,新规禁止将驾照等敏感信息输入公共人工智能工具。同时要求人工审核所有人工智能生成的输出内容,并明确标注人工智能创建的公共内容。
据《美国律师协会杂志》报道,各法院的政策必须"禁止将机密信息、个人身份信息或其他非公开信息输入公共生成式人工智能系统",同时"要求在向公众提供的书面、视觉或音频作品的最终版本完全由生成式人工智能输出构成时,必须披露使用或依赖生成式人工智能的情况"。
规则禁止人工智能自主决策或独立行动,因为人类监督确保人工智能辅助而非取代司法专业能力。
通过自动化处理被视为重复性的任务,人工智能能加速案件解决并减轻工作负担。然而相关法规也承认人工智能的局限性,尤其在偏见问题上。基于历史数据训练的人工智能系统,若缺乏监管,可能在不知不觉中加剧社会不平等。加利福尼亚州的框架要求法院在积极预防歧视性使用与充分发挥人工智能优势、降低其风险之间寻求平衡。
透明度、准确性、隐私和安全是其他重点关注领域。若要采取措施强化法律体系的信任基础,公开的人工智能生成的文件或意见必须明确标注其来源。
作为首个在法院采用如此全面的人工智能使用框架的最大州,该政策有望成为全国范本。加利福尼亚州的政策或将为负责任的人工智能使用树立标杆,纽约等更多州正着手制定各自的人工智能管理规则。
通过制定清晰的道德准则,加利福尼亚州正引领司法体系走向更高效、更公平、更便捷的未来。