斯坦福大学的研究发现,当处理特定法律查询时,大型语言模型(LLMs)产生与实际事实或确立的法律原则及判例相悖内容的现象——即所谓的"幻觉"——发生率高达69%至88%。
该研究分别对GPT 3.5、Llama 2和PaLM 2模型进行了20万次查询测试。尽管这些生成式人工智能程序据称已通过律师资格考试,但在执行初级律师完成的某些基础任务时却表现失常。例如,在评估两起不同案件先例关联性的任务中,多数大型语言模型(LLM)的表现甚至不如随机猜测。 在回答关于法院核心裁决(或判决要旨)的查询时,模型被发现至少75%的时间会产生幻觉。
使用大型语言模型进行法律研究的风险在以下方面尤为突出:
- 在基层法院或非主要司法管辖区诉讼的当事人
- 寻求详细或复杂法律信息的个人
- 用户基于错误前提提出问题
- 对大型语言模型(LLM)响应可靠性存疑者
这项研究的结果尤其令人担忧,因为数十家法律科技初创企业和律师事务所声称正在利用人工智能提供更优质、更高效的法律服务。然而,鉴于这些测试中表现如此糟糕,任何使用人工智能或大型语言模型的人都应保持高度警惕。法律似乎需要比当前人工智能所能提供的更高的智慧。
针对尖端语言模型的特定法律查询,其产生幻觉的比率介于69%至88%之间。此外,这些模型往往缺乏对自身错误的自我认知,且倾向于强化错误的法律假设与认知。这些发现引发了对大型语言模型在法律场景中可靠性的重大担忧,凸显了将这些人工智能技术审慎、有监督地融入法律实践的重要性。
查看引用文章
作者
相关洞察
2026年3月24日
福莱观点
NAIC 2026年春季会议:第三方数据与模型(H)工作组——2026年3月23日
摘要与要点:第三方数据与模型(H)工作组正继续推进其第三方监管框架……
2026年3月20日
福莱观点
联邦法院宣布拜登政府时期的高速铁路规定无效
在撤销拜登时期改革措施时,法院认定联邦贸易委员会未能证明这些改革带来的益处足以抵消其对合并方造成的重大成本——尤其对绝大多数(历史上达92%)无需接受任何反垄断审查的交易方而言。
2026年3月18日
福莱观点
当高管们俯身致意:如何保护高管薪酬免遭债权人追讨
贵公司正面临第11章破产保护,而高管薪酬中的一部分突然成了债权人的目标。高级……