生成式人工智能技术在诉讼中的应用引发了一系列问题与担忧。近期的一起案例揭示了为何律师及其客户在诉讼中使用生成式人工智能平台时必须谨慎行事——生成式人工智能的输出结果不仅可能不可靠,甚至可能纯属虚构。
鉴于此,至少有一家法院发布了关于生成式人工智能起草法律文书的常设命令——https://www.txnd.uscourts.gov/judge/judge-brantley-starr。 正如德克萨斯州北区联邦地区法院法官布兰特利·斯塔尔所指出的:"生成式人工智能(如ChatGPT、Harvey.AI或谷歌Bard)"会"编造内容——甚至包括引文和文献引用"。这仅仅是生成式人工智能在诉讼中不受约束使用所伴随的诸多挑战之一——"买者自慎"。
纽约一家人身伤害律师事务所及其两名律师因向联邦法院提交的法律简报中包含由生成式文本引擎ChatGPT编造的虚假案例和法律意见,面临潜在处罚。
查看引用文章
相关洞察
2026年3月31日
福莱观点
采购合同即将新增条款——禁止某些DEI活动的合同条款
2026年3月26日,总统签署了题为《解决联邦承包商在多样性、公平与包容(DEI)方面的歧视问题》的第14398号行政命令。该命令……
2026年3月30日
福莱观点
“若非如此”的困境——德克萨斯州公共事业委员会拟议的大型负荷并网规则如何影响政府激励策略
企业若希望为扩建或搬迁项目申请政府激励措施(例如减税或州级补助),必须……
2026年3月25日
福莱观点
NAIC 2026年春季会议最新动态:住宅业主市场数据征集(C)工作组
摘要与要点:房主市场数据电话会议(C)工作组就……的剩余实施步骤提供了最新进展……