USPTO waarschuwt tegen blind vertrouwen op kunstmatige intelligentie
Kathi Vidal, directeur van het Amerikaanse octrooi- en merkenbureau (USPTO), heeft onlangs een memorandum gepubliceerd over het gebruik van kunstmatige intelligentie (AI) door partijen tijdens procedures voor de Trademark Trial and Appeal Board (TTAB) en de Patent Trial and Appeal Board (PTAB).[1] In het memorandum waarschuwt directeur Vidal dat partijen verantwoordelijk zijn voor de inhoud van hun stukken die zij bij de commissies indienen, zelfs wanneer zij daarbij worden bijgestaan door AI.
Zorgen over misbruik van AI
Directeur Vidal begint met te erkennen dat AI al uitdagingen heeft opgeleverd voor rechters in andere fora.[2] Hoewel opperrechter John Roberts heeft opgemerkt dat AI "een groot potentieel heeft om de toegang tot belangrijke informatie voor zowel juristen als niet-juristen drastisch te verbeteren", kan AI ook valse informatie als feit presenteren.[3] In een veelbesproken incident in het zuidelijke district van New York diende een advocaat bijvoorbeeld een pleitnota in met verwijzingen naar zaken die waren verzonnen of "gehallucineerd" door een populaire AI-tool.[4] Vorig jaar kregen twee advocaten een boete voor het gebruik van gehallucineerde zaken in een pleitnota.[5] Directeur Vidal uit zijn bezorgdheid dat misbruik van AI zal leiden tot vertragingen en onnodige kosten voor partijen voor de TTAB en PTAB.[6]
De verantwoordelijkheid ligt bij de partijen
Directeur Vidal merkt op dat het USPTO regels heeft om te voorkomen dat partijen zich schuldig maken aan wangedrag. De USPTO Rules of Professional Conduct (gedragsregels voor beroepsbeoefenaars) vereisen dat elke ondertekenaar van een indiening bij een van beide commissies onder meer verklaart "dat alle verklaringen in de indiening die op eigen kennis zijn gebaseerd, waarheidsgetrouw zijn, dat alle juridische argumenten worden gerechtvaardigd door bestaande wetgeving of door een niet-frivool argument voor de uitbreiding ... of herziening van bestaande wetgeving, en dat feitelijke argumenten worden ondersteund door bewijs."[7] In de memo wordt verder opgemerkt dat het niet voldoende is om ervan uit te gaan dat AI-tools die worden gebruikt om een indiening bij het PTO op te stellen, correcte informatie verstrekken. Alle ondertekenaars van een indiening hebben dus de plicht om ervoor te zorgen dat de indiening voldoet aan de criteria die in de regels zijn vastgelegd. Beoefenaars worden er ook aan herinnerd dat er sancties beschikbaar zijn onder de regels, variërend van "het schrappen van het overtredende document" tot "het beëindigen van de procedure bij het Bureau".[8] Bewuste en opzettelijke overtredingen kunnen leiden tot strafrechtelijke aansprakelijkheid.[9]
Afhaalmaaltijden
Uit de recente memo van directeur Vidal blijkt duidelijk dat alle partijen en beroepsbeoefenaars die voor de USPTO-commissies verschijnen, de plicht hebben om ervoor te zorgen dat alle informatie in hun dossiers feitelijk juist is en dat alle argumenten gebaseerd zijn op geldige juridische standpunten. Beroepsbeoefenaars en partijen moeten zich bewust zijn van de beperkingen van AI-tools en mogen er niet van uitgaan dat het door deze tools gegenereerde materiaal geschikt is voor gebruik in een juridische procedure. Alvorens een dossier bij een commissie in te dienen, moeten partijen en beroepsbeoefenaars extra zorgvuldig materiaal dat met behulp van AI-tools is gegenereerd, controleren om er zeker van te zijn dat het door AI gegenereerde materiaal inderdaad juist is. Bijzondere aandacht moet worden besteed aan verwijzingen naar rechtszaken, die grondig moeten worden gecontroleerd om er zeker van te zijn dat de zaken echt bestaan en het genoemde rechtsbeginsel vertegenwoordigen — dit blijft natuurlijk een goede praktijk, zelfs wanneer er voor een bepaald dossier geen AI-generatieve tools worden gebruikt.
Het USPTO erkent dat het gebruik van AI-tools voor het genereren van materiaal in de juridische sector steeds gangbaarder wordt.[10] Hoewel AI-tools potentieel enorm nuttig kunnen zijn, moeten ze met de nodige omzichtigheid worden gebruikt en moet men zich ervan bewust zijn dat de uiteindelijke verantwoordelijkheid voor een aanvraag bij de personen ligt die voor de commissies verschijnen.
[1] “De toepasselijkheid van bestaande regelgeving met betrekking tot wangedrag van partijen en beroepsbeoefenaars
Met betrekking tot het gebruik van kunstmatige intelligentie” (6 februari 2024).
[2] Id. op 1.
[3] Id. op 1 (citaat uit het eindejaarsrapport 2023 over de federale rechterlijke macht op 5-6, www.supremecourt.gov/publicinfo/
jaarverslag-2023.pdf (31 december 2023).
[4] Pranshu Verma, "Michael Cohen gebruikte door AI gecreëerde nepzaken in een poging om zijn proeftijd te beëindigen."
Washington Post, www.washingtonpost.com/technology/2023/12/29/michael-cohen-ai-googlebard-
valse citaten (29 december 2023).
[5] Dan Milmo et al., “Twee Amerikaanse advocaten beboet voor het indienen van valse gerechtelijke citaten van ChatGPT,” The Guardian, https://www.theguardian.com/technology/2023/jun/23/two-us-lawyers-fined-submitting-fake-court-citations-chatgpt (23 juni 2023).
[6] “De toepasselijkheid van bestaande regelgeving met betrekking tot wangedrag van partijen en beroepsbeoefenaars
Met betrekking tot het gebruik van kunstmatige intelligentie” (6 februari 2024) op 2.
[7] Id. op 3 (citaat uit 37 C.F.R. §§ 11.18(b)(1), 11.18(b)(2), 11.18(b)(2)(ii), 11.18(b)(2)(iii) (interne citaten verwijderd).
[8] Id. op 4 (onder verwijzing naar 37 C.F.R. §§2.119(e), 2.193, 42.6(a)(4), 42.l1, 42.12; Trademark Trial and Appeal
Procedurehandboek van de raad van bestuur §527.03).
[9] Id. ( verwijzend naar 37 C.F.R. § l1.l8(b)(1), (c)).
[10] Een eerste versie van deze blogpost was inderdaad gebaseerd op een samenvatting van de memo die door een AI-tool was verstrekt. Alle referenties zijn grondig gecontroleerd op juistheid.