L'USPTO met en garde contre une confiance aveugle dans l'intelligence artificielle
La directrice de l'Office américain des brevets et des marques (USPTO), Kathi Vidal, a récemment publié un mémorandum sur l'utilisation de l'intelligence artificielle (IA) par les parties lors des procédures devant la Commission d'appel et d'arbitrage en matière de marques (TTAB) et la Commission d'appel et d'arbitrage en matière de brevets (PTAB).[1] Dans ce mémorandum, la directrice Vidal avertit que les parties sont responsables du contenu de leurs dépôts devant les commissions, même lorsqu'elles sont assistées par l'IA.
Préoccupations concernant l'utilisation abusive de l'IA
Le directeur Vidal commence par reconnaître que l'IA a déjà posé des défis aux juges dans d'autres instances[2]. Si le président de la Cour suprême John Roberts a observé que l'IA « offre un potentiel considérable pour améliorer considérablement l'accès à des informations clés pour les avocats comme pour les non-avocats », elle peut également présenter des informations erronées comme des faits[3]. Par exemple, dans un incident largement médiatisé, dans le district sud de New York, un avocat a remis un mémoire contenant des citations de cas inventés ou « hallucinés » par un outil d'IA populaire[4]. L'année dernière, deux avocats ont été condamnés à une amende pour avoir utilisé des cas hallucinés dans un mémoire[5]. Le directeur Vidal craint que les utilisations abusives de l'IA n'entraînent des retards et des coûts inutiles pour les parties devant le TTAB et le PTAB[6].
La responsabilité incombe aux parties
Le directeur Vidal souligne que l'USPTO a mis en place des règles visant à empêcher les parties de se livrer à des actes répréhensibles. Les règles de déontologie professionnelle de l'USPTO exigent que tout signataire d'une soumission à l'une ou l'autre des commissions certifie, entre autres, « que toutes les déclarations faites dans celle-ci dont la partie a connaissance sont véridiques, que toute contestation juridique est justifiée par la loi en vigueur ou par un argument sérieux en faveur de l'extension... ou de la révocation de la loi en vigueur, et que les contestations factuelles sont étayées par des preuves »[7]. La note précise en outre qu'il ne suffit pas de supposer que les outils d'IA utilisés pour créer une requête adressée au PTO fournissent des informations correctes. Tous les signataires d'un dépôt ont donc le devoir de s'assurer que celui-ci répond aux critères énoncés dans les règles. Il est également rappelé aux praticiens que des sanctions sont prévues par les règles, allant de la « suppression du document incriminé » à la « clôture de la procédure devant l'Office »[8]. Les violations délibérées et conscientes peuvent entraîner une responsabilité pénale[9].
A retenir
La récente note de service du directeur Vidal indique clairement que toutes les parties et tous les praticiens qui comparaissent devant les commissions de l'USPTO ont le devoir de s'assurer que toutes les informations présentées dans leurs dossiers sont exactes sur le plan factuel et que tous les arguments avancés sont fondés sur des positions juridiques valables. Les praticiens et les parties doivent être conscients des limites des outils d'IA et ne doivent pas supposer que les documents générés par ces derniers sont adaptés à une procédure judiciaire. Avant de soumettre un dossier à une commission, les parties et les praticiens doivent prendre soin de vérifier tout document généré à l'aide d'outils d'IA afin de s'assurer que le document généré par l'IA est bien exact. Il convient d'accorder une attention particulière aux citations de jurisprudence, qui doivent être soigneusement vérifiées afin de s'assurer que les affaires existent réellement et qu'elles représentent bien le principe juridique énoncé. Bien entendu, cela reste une bonne pratique même lorsque des outils de génération d'IA ne sont pas utilisés pour un dossier donné.
L'USPTO reconnaît que l'utilisation d'outils d'IA pour générer des documents dans le secteur juridique est de plus en plus courante[10]. Si les outils d'IA peuvent s'avérer extrêmement utiles, ils doivent être utilisés à bon escient et en gardant à l'esprit que la responsabilité finale d'un dépôt incombe aux personnes qui comparaissent devant les commissions.
[1] « L'applicabilité des réglementations existantes en matière de faute professionnelle et de conduite répréhensible des parties et des praticiens
Lié à l'utilisation de l'intelligence artificielle » (6 février 2024).
[2] Id. à la page 1.
[3] Id. à la page 1 (citant le rapport de fin d'année 2023 sur le système judiciaire fédéral, pages 5-6, www.supremecourt.gov/publicinfo/
fin d'année/2023rapport de fin d'année.pdf (31 décembre 2023).
[4] Pranshu Verma, « Michael Cohen a utilisé de faux dossiers créés par l'IA pour mettre fin à sa période de probation ».
Washington Post, www.washingtonpost.com/technology/2023/12/29/michael-cohen-ai-googlebard-
fausses citations (29 décembre 2023).
[5] Dan Milmo et al., « Deux avocats américains condamnés à une amende pour avoir présenté de fausses citations judiciaires provenant de ChatGPT », The Guardian, https://www.theguardian.com/technology/2023/jun/23/two-us-lawyers-fined-submitting-fake-court-citations-chatgpt (23 juin 2023).
[6] « L'applicabilité des réglementations existantes en matière de faute professionnelle et de conduite répréhensible des parties et des praticiens
Relatif à l'utilisation de l'intelligence artificielle » (6 février 2024) à la page 2.
[7] Id. à la page 3 (citant 37 C.F.R. §§ 11.18(b)(1), 11.18(b)(2), 11.18(b)(2)(ii), 11.18(b)(2)(iii) (citations internes supprimées).
[8] Id. à la page 4 (citant 37 C.F.R. §§2.119(e), 2.193, 42.6(a)(4), 42.l1, 42.12 ; Tribunal des marques et cour d'appel
Manuel de procédure du conseil d'administration §527.03).
[9] Id. ( en référence à 37 C.F.R. § l1.l8(b)(1), (c)).
[10] En effet, une première version de cet article de blog était basée sur un résumé du mémo fourni par un outil d'IA. Toutes les références ont été soigneusement vérifiées pour en garantir l'exactitude.