Los sistemas de IA generativa preparan la batalla por el uso legítimo
La irrupción en el mercado de los sistemas de inteligencia artificial generativa («IA») se enfrenta a una avalancha de retos en materia de propiedad intelectual en los tribunales. En un caso concreto, los titulares de derechos de autor alegan que los sistemas de IA generativa infringen los derechos de autor de las obras de los propietarios. Según los titulares de derechos de autor, esta infracción se produce tanto en el «lado de entrada» como en el «lado de salida» de los sistemas. En el lado de entrada, los titulares de derechos de autor sostienen que el proceso de «entrenamiento» de los algoritmos o modelos de los sistemas mediante la ingesta de grandes cantidades de obras disponibles públicamente infringe los derechos de autor de los propietarios. En el lado de la salida, los titulares de los derechos de autor sostienen que las obras secundarias creadas por los sistemas de IA generativa infringen los derechos de autor de los propietarios. Los demandados sostienen (o se prevé que sostengan) que las actividades acusadas son un uso legítimo permisible, lo que plantea la cuestión de si el uso legítimo protege a las empresas de IA de las demandas por infracción de los derechos de autor. A continuación se presentan algunos de los casos actualmente pendientes que las partes interesadas pueden seguir para conocer la evolución de esta cuestión:
- Tremblay contra OpenAI, Inc., n.º 3:23-cv-03223 (N.D. Cal.):1 Un grupo de autores demandó a OpenAI ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, alegando que OpenAI infringió los derechos de autor de los libros de los demandantes al entrenar ChatGPT y otros productos de IA de OpenAI con esas obras. Los demandados presentaron una moción para desestimar todas las causas de acción, excepto la reclamación por infracción directa de los derechos de autor. El tribunal desestimó algunas de las reclamaciones impugnadas, pero concedió permiso para modificar la demanda de los demandantes.
- Andersen contra Stability AI Ltd., n.º 3:23-cv-00201 (N.D. Cal.): Tres artistas visuales demandaron a Stability AI Ltd., Stability AI, Inc., Deviant Art, Inc. y Midjourney, Inc. en nombre de una supuesta clase en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, alegando que los demandados infringieron los derechos de autor de las imágenes de los demandantes al entrenar sus respectivos sistemas de IA generativa con esas obras. Cada demandado solicitó la desestimación, y el tribunal desestimó todas las demandas contra los tres demandados con permiso para modificarlas, excepto la demanda por infracción directa contra Stability AI. Los demandantes presentaron una demanda modificada, añadiendo a Runway AI, Inc. a la demanda. A la fecha de este artículo, cada demandado ha solicitado la desestimación de las demandas modificadas de los demandantes.
- Authors Guild contra OpenAI, Inc., n.º 1:23-cv-08292 (S.D.N.Y.): Los autores de derechos de autor registrados demandaron a OpenAI en el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York, alegando que OpenAI infringió los derechos de autor de los autores al entrenar a ChatGPT con esas obras.A la fecha de este artículo, el demandado ha presentado su respuesta y ha alegado numerosas defensas, entre ellas el uso legítimo.
- Getty Images (EE. UU.), Inc. contra Stability AI, Inc., n.º 1:23-cv-00135 (D. Del.): Getty Images demandó a Stability AI ante el Tribunal de Distrito de los Estados Unidos para el Distrito de Delaware, alegando que Stability AI infringió los derechos de autor de Getty al entrenar a la IA acusada de Stability AI con más de 12 millones de imágenes protegidas por derechos de autor de Getty. El demandado solicitó la desestimación por múltiples motivos y solicitó la transferencia. A la fecha de este artículo, el tribunal no se ha pronunciado sobre esas mociones.
- The New York Times Co. contra Microsoft Corp., n.º 1:23-cv-11195 (S.D.N.Y.): The New York Times demandó a OpenAI y Microsoft (y entidades corporativas relacionadas) ante el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York, alegando que Microsoft y OpenAI infringieron los derechos de autor de los artículos periodísticos del Times al entrenar a los chatbots acusados con los artículos del Times. Los demandados solicitaron la desestimación del caso, y Microsoft solicitó intervenir y desestimar, suspender o transferir el caso. A la fecha de publicación de este artículo, el tribunal no se ha pronunciado sobre estas mociones.
Estos casos se encuentran en sus primeras fases, pero es probable que cada uno de los demandados alegue una defensa por uso legítimo, lo que convertirá a estos casos en los primeros en plantear la aplicabilidad de la defensa por uso legítimo en el contexto de la IA. Aunque algunos creen que entrenar modelos de IA con obras protegidas por derechos de autor es claramente un uso legítimo,2 la naturaleza única de la IA y la falta de transparencia inherente al funcionamiento de los sistemas podrían hacer que esta cuestión fuera menos clara y planteara mayores retos a los presuntos infractores.
Un reto particular podría derivarse del hecho de que los presuntos infractores no saben exactamente cómo funcionan sus sistemas de IA. Por ejemplo, los modelos de aprendizaje profundo, una de las formas más prevalentes de la IA moderna, aprenden de manera muy similar a como lo hacen los seres humanos.3 En estos modelos, las empresas entrenan sus algoritmos con ejemplos correctos de algo que quieren que el algoritmo reconozca y, finalmente, los algoritmos desarrollan una «red neuronal» capaz de categorizar cosas a las que los algoritmos no han estado expuestos.4 De hecho, es probable que los usuarios de sitios web hayan participado sin saberlo en ese entrenamiento al completar un «reCAPTCHA» para acceder a un sitio web (por ejemplo, hacer clic en todas las señales de tráfico de una imagen determinada). Debido al funcionamiento de estos modelos de aprendizaje profundo, las empresas de IA no saben con precisión cómo sus sistemas toman decisiones o llegan a conclusiones, un fenómeno conocido como el problema de la «caja negra».5
El uso legítimo es una defensa afirmativa contra la infracción de los derechos de autor, y el infractor acusado tiene la carga de probar la defensa. Para decidir si un uso es legítimo, los tribunales tienen en cuenta los siguientes factores: (1) el propósito y el carácter del uso; (2) la naturaleza de la obra protegida por derechos de autor; (3) la cantidad y la importancia de la parte utilizada; y (4) el efecto del uso sobre el mercado potencial de la obra protegida por derechos de autor.6 El problema de la caja negra puede ser algo que los acusados de infracción deban abordar al articular cómo estos factores favorecen el uso legítimo, lo que podría plantear dificultades para demostrar dicho uso. Esta cuestión podría afectar a los cuatro factores, pero podría ser especialmente difícil en el caso del factor (3). Por ejemplo, si los demandados de IA no saben cómo aprenden sus sistemas, podría ser difícil explicar a un tribunal la «cantidad y la importancia de la parte utilizada». Las partes interesadas querrán seguir de cerca los casos mencionados anteriormente para ver si el problema de la caja negra se convierte en un tema de debate, así como para obtener información sobre cómo tratan los tribunales el uso legítimo en el contexto de la IA.
- Otros dos casos relacionados con autores se presentaron ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California contra OpenAI y luego se consolidaron en Tremblay en octubre de 2023. Véase Chabon contra OpenAI, Inc., n.º 3:23-cv-04625 (N.D. Cal.) y Silverman contra OpenAI, Inc., n.º 3:23-cv-03416 (N.D. Cal.). ↩︎
- Véase Katherine Klosek, «Training Generative AI Models on Copyrighted Works is Fair Use»(El entrenamiento de modelos de IA generativa con obras protegidas por derechos de autor es un uso legítimo), Asociación de Bibliotecas de Investigación, última actualización el 23 de enero de 2024 (consultado el 28 de febrero de 2024), https://www.arl.org/blog/training-generative-ai-models-on-copyrighted-works-is-fair-use/. ↩︎
- Lou Blouin, «El misterioso problema de la 'caja negra' de la IA, explicado», UM-Dearborn News, 6 de marzo de 2023 (consultado el 28 de febrero de 2024), https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained. ↩︎
- Id. ↩︎
- Id. ↩︎
- Véase Andy Warhol Foundation for the Visual Arts, Inc. contra Goldsmith, 143 S. Ct. 1258 (2023). ↩︎