Les systèmes d'IA générative s'apprêtent à lutter pour l'usage loyal
L'arrivée massive sur le marché des systèmes d'intelligence artificielle (IA) générative se heurte à une multitude de défis en matière de propriété intellectuelle devant les tribunaux. Dans un cas particulier, les titulaires de droits d'auteur affirment que les systèmes d'IA générative enfreignent les droits d'auteur des propriétaires. Selon les titulaires de droits d'auteur, cette infraction se produit à la fois du « côté entrée » et du « côté sortie » des systèmes. Du côté entrée, les titulaires de droits d'auteur affirment que le processus de « formation » des algorithmes ou des modèles des systèmes, qui consiste à ingérer de grandes quantités d'œuvres accessibles au public, enfreint les droits d'auteur des propriétaires. Du côté de la sortie, les titulaires de droits d'auteur affirment que les œuvres secondaires créées par les systèmes d'IA générative enfreignent leurs droits d'auteur. Les défendeurs affirment (ou devraient affirmer) que les activités incriminées relèvent de l'usage loyal, soulevant ainsi la question de savoir si l'usage loyal protège les entreprises d'IA contre les plaintes pour violation du droit d'auteur. Voici quelques-unes des affaires actuellement en cours que les parties intéressées pourraient souhaiter suivre pour connaître l'évolution de cette question :
- Tremblay c. OpenAI, Inc., n° 3:23-cv-03223 (N.D. Cal.) :1 Un groupe d'auteurs a poursuivi OpenAI devant le tribunal fédéral de première instance du district nord de Californie, alléguant qu'OpenAI avait enfreint les droits d'auteur des livres des plaignants en utilisant ces œuvres pour entraîner son ChatGPT et d'autres produits d'IA. Les défendeurs ont déposé une requête visant à rejeter toutes les causes d'action, à l'exception de la plainte pour violation directe des droits d'auteur. Le tribunal a rejeté certaines des plaintes contestées, mais a autorisé les plaignants à modifier leur plainte.
- Andersen c. Stability AI Ltd., n° 3:23-cv-00201 (N.D. Cal.) : Trois artistes visuels ont poursuivi Stability AI Ltd., Stability AI, Inc., Deviant Art, Inc. et Midjourney, Inc. au nom d'un groupe présumé devant le tribunal fédéral de première instance du district nord de Californie, alléguant que les défendeurs avaient enfreint les droits d'auteur des plaignants sur des images en entraînant leurs systèmes d'IA générative respectifs avec ces œuvres. Chaque défendeur a demandé le rejet de l'affaire, et le tribunal a rejeté toutes les plaintes contre les trois défendeurs avec autorisation de modification, à l'exception de la plainte pour violation directe contre Stability AI. Les plaignants ont déposé une plainte modifiée, ajoutant Runway AI, Inc. à la plainte. À la date de publication de cet article, chaque défendeur a demandé le rejet des plaintes modifiées des plaignants.
- Authors Guild c. OpenAI, Inc., n° 1:23-cv-08292 (S.D.N.Y.) : Les auteurs de droits d'auteur enregistrés ont poursuivi OpenAI devant le tribunal fédéral américain du district sud de New York, alléguant qu'OpenAI avait enfreint les droits d'auteur des auteurs en entraînant ChatGPT avec ces œuvres.À la date de publication de cet article, le défendeur a déposé sa réponse et fait valoir de nombreux moyens de défense, notamment celui de l'usage loyal.
- Getty Images (US), Inc. c. Stability AI, Inc., n° 1:23-cv-00135 (D. Del.) : Getty Images a poursuivi Stability AI devant le tribunal fédéral de première instance du district du Delaware, alléguant que Stability AI avait enfreint les droits d'auteur de Getty en entraînant l'IA incriminée de Stability AI avec plus de 12 millions d'images protégées par les droits d'auteur de Getty. Le défendeur a demandé le rejet de l'affaire pour plusieurs motifs et a demandé son transfert. À la date de publication de cet article, le tribunal ne s'est pas encore prononcé sur ces requêtes.
- The New York Times Co. c. Microsoft Corp., n° 1:23-cv-11195 (S.D.N.Y.) : Le New York Times a poursuivi OpenAI et Microsoft (ainsi que des entités commerciales liées) devant la cour fédérale du district sud de New York, alléguant que Microsoft et OpenAI avaient enfreint les droits d'auteur du Times sur ses articles de presse en entraînant les chatbots incriminés à l'aide des articles du Times. Les défendeurs ont demandé le rejet de l'affaire, et Microsoft a demandé à intervenir et à obtenir le rejet, la suspension ou le transfert de l'affaire. À la date de publication de cet article, le tribunal ne s'est pas encore prononcé sur ces requêtes.
Ces affaires en sont encore à leurs débuts, mais il est probable que chacun des défendeurs invoquera la défense du fair use, ce qui fera de ces affaires les premières à soulever la question de l'applicabilité de la défense du fair use dans le contexte de l'IA. Si certains estiment que l'entraînement de modèles d'IA à partir d'œuvres protégées par le droit d'auteur relève clairement du fair use,2 la nature unique de l'IA et le manque inhérent de transparence quant au fonctionnement des systèmes pourraient rendre cette question moins claire et présenter des défis potentiellement plus importants pour les contrefacteurs présumés.
Un défi particulier pourrait découler du fait que les auteurs présumés d'infractions ne savent pas exactement comment fonctionnent leurs systèmes d'IA. Par exemple, les modèles d'apprentissage profond, l'une des formes les plus répandues de l'IA moderne, apprennent de la même manière que les humains.3 Dans ces modèles, les entreprises entraînent leurs algorithmes à l'aide d'exemples corrects de ce qu'elles veulent que l'algorithme reconnaisse, et finalement, les algorithmes développent un « réseau neuronal » capable de catégoriser des éléments auxquels ils n'ont pas été exposés.4 En effet, les utilisateurs de sites web ont probablement participé sans le savoir à cet apprentissage en remplissant un « reCAPTCHA » pour accéder à un site web (par exemple, en cliquant sur tous les panneaux de signalisation dans une image donnée). En raison du fonctionnement de ces modèles d'apprentissage profond, les entreprises d'IA ne savent pas précisément comment leurs systèmes prennent des décisions ou parviennent à des conclusions, un phénomène connu sous le nom de « problème de la boîte noire ».5
L'usage loyal est un moyen de défense affirmatif contre la violation du droit d'auteur, et il incombe à l'auteur présumé de la violation de prouver ce moyen de défense. Pour déterminer si un usage est loyal, les tribunaux prennent en considération les facteurs suivants : (1) le but et la nature de l'usage ; (2) la nature de l'œuvre protégée par le droit d'auteur ; (3) la quantité et l'importance de la partie utilisée ; et (4) l'effet de l'usage sur le marché potentiel de l'œuvre protégée par le droit d'auteur.6 Le problème de la boîte noire pourrait bien être un obstacle que les contrefacteurs présumés devront surmonter pour démontrer que ces facteurs plaident en faveur de l'usage loyal, ce qui pourrait compliquer la démonstration de l'usage loyal. Cette question pourrait avoir une incidence sur les quatre facteurs, mais pourrait être particulièrement difficile pour le facteur (3). Par exemple, si les défendeurs utilisant l'IA ne savent pas comment leurs systèmes apprennent, il pourrait être difficile d'expliquer à un tribunal la « quantité et l'importance de la partie utilisée ». Les parties intéressées auront intérêt à suivre les affaires susmentionnées afin de voir si le problème de la boîte noire devient un enjeu et de mieux comprendre comment les tribunaux traitent l'usage loyal dans le contexte de l'IA.
- Deux autres affaires impliquant des auteurs ont été portées devant la Cour fédérale américaine du district nord de Californie contre OpenAI, puis regroupées dans l'affaire Tremblay en octobre 2023. Voir Chabon c. OpenAI, Inc., n° 3:23-cv-04625 (N.D. Cal.) et Silverman c. OpenAI, Inc., n° 3:23-cv-03416 (N.D. Cal.). ↩︎
- Voir Katherine Klosek, « Training Generative AI Models on Copyrighted Works is Fair Use » (La formation des modèles d'IA générative à partir d'œuvres protégées par le droit d'auteur relève du fair use), Association of Research Libraries, dernière mise à jour le 23 janvier 2024 (consulté le 28 février 2024), https://www.arl.org/blog/training-generative-ai-models-on-copyrighted-works-is-fair-use/. ↩︎
- Lou Blouin, « AI’s Mysterious ‘Black Box’ Problem, Explained » (Le mystérieux problème de la « boîte noire » de l'IA expliqué), UM-Dearborn News, 6 mars 2023 (consulté le 28 février 2024), https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained. ↩︎
- Id. ↩︎
- Id. ↩︎
- Voir Andy Warhol Foundation for the Visual Arts, Inc. c. Goldsmith, 143 S. Ct. 1258 (2023). ↩︎