L'utilisation des technologies d'IA générative dans les litiges soulève une multitude de questions et de préoccupations. Une affaire récente illustre pourquoi les avocats et leurs clients doivent faire preuve de prudence lorsqu'ils utilisent une plateforme d'IA générative dans le cadre d'un litige. En effet, les résultats fournis par l'IA générative peuvent non seulement être peu fiables, mais aussi être inventés de toutes pièces.
Conscient de cela, au moins un tribunal a rendu une ordonnance permanente régissant l'utilisation de l'IA générative pour rédiger des mémoires juridiques – https://www.txnd.uscourts.gov/judge/judge-brantley-starr. Comme l'a fait remarquer le juge Brantley Starr de la cour fédérale du district nord du Texas, « l'intelligence artificielle générative (telle que ChatGPT, Harvey.AI ou Google Bard) » « invente des choses, même des citations et des références ». Ce n'est là qu'un des nombreux défis liés à l'utilisation incontrôlée de l'IA générative dans les litiges : « caveat emptor » (que l'acheteur soit vigilant).
Un cabinet new-yorkais spécialisé dans les dommages corporels et deux de ses avocats risquent des sanctions après avoir déposé devant un tribunal fédéral un mémoire contenant des affaires et des avis inexistants générés par le moteur de texte génératif ChatGPT.
Voir l'article référencé
