生成式人工智能技术在诉讼中的应用引发了一系列问题与担忧。近期的一起案例揭示了为何律师及其客户在诉讼中使用生成式人工智能平台时必须谨慎行事——生成式人工智能的输出结果不仅可能不可靠,甚至可能纯属虚构。
鉴于此,至少有一家法院发布了关于生成式人工智能起草法律文书的常设命令——https://www.txnd.uscourts.gov/judge/judge-brantley-starr。 正如德克萨斯州北区联邦地区法院法官布兰特利·斯塔尔所指出的:"生成式人工智能(如ChatGPT、Harvey.AI或谷歌Bard)"会"编造内容——甚至包括引文和文献引用"。这仅仅是生成式人工智能在诉讼中不受约束使用所伴随的诸多挑战之一——"买者自慎"。
纽约一家人身伤害律师事务所及其两名律师因向联邦法院提交的法律简报中包含由生成式文本引擎ChatGPT编造的虚假案例和法律意见,面临潜在处罚。
查看引用文章