Abogado especializado en propiedad intelectual frente a ChatGPT: las 10 cuestiones legales más importantes sobre el uso de la IA generativa en el trabajo
Introducción de Kate Wegrzyn con artículos de Shabbi Khan y ChatGPT.
Mi madre dice que hay que leer ciencia ficción si se quiere saber cómo será el futuro. En sus más de 50 años como ávida lectora del género, ha visto cómo cosas que antes se consideraban absurdas se han convertido en realidad. Su valoración de ChatGPT y otras IA generativas es que están llegando para todos nosotros.
Yo soy más bien una persona a la que le gusta la ficción histórica, por lo que mi opinión sobre la IA generativa es un poco más moderada: es una herramienta impresionante que se convertirá en una parte integral de nuestra existencia cotidiana, al igual que lo hizo Internet en la década de 1990 y principios de la de 2000.
Hace aproximadamente un mes, mi colega Shabbi Khan y yo estábamos hablando sobre cómo el uso de esta herramienta en el lugar de trabajo seguirá expandiéndose. Aunque estábamos de acuerdo en que deberíamos escribir un blog sobre las cuestiones legales relacionadas con el uso de la IA generativa (como ChatGPT) en el trabajo, lamentábamos que llevaría bastante tiempo hacerlo. Esto supone un reto para cualquiera, pero especialmente para los abogados, cuyo producto se vende por horas divididas en incrementos de seis minutos.
Pensé que deberíamos pedirle a ChatGPT que escribiera la entrada del blog por nosotros. Nos reímos un poco. A partir de ahí, nació este experimento «hombre contra máquina». Me ofrecí generosamente a encargarme de pedirle a ChatGPT que escribiera la entrada del blog, mientras que Shabbi se encargaría de redactarla de la forma «normal».
Nota del autor: ChatGPT es un nombre muy largo. Seguramente lo puso un programador informático y no un especialista en marketing. A partir de ahora, voy a llamar a ChatGPT «Cathy», por «Chatty Cathy», la muñeca de cuerda de los años 60 que también fue una maravilla tecnológica en su época.
Los resultados de este experimento no fueron sorprendentes:
- Eficiencia: +1 punto para la máquina. El tiempo que dediqué a este experimento, apenas 11 minutos (o 0,2 horas no facturables, si se quiere), palideció en comparación con el de Shabbi, que dedicó 10 horas no facturables durante 8 días a investigar, reflexionar y, finalmente, redactar y editar el artículo. Como era de esperar, Cathy gana este punto.
- Sesgo: +1 punto para el humano. Le doy este punto a Shabbi porque Cathy no mencionó que tiene alucinaciones (es decir, que a veces inventa respuestas cuando no sabe la respuesta). Es curioso: uno pensaría que esta falta de conciencia de sí misma sería un rasgo humano, pero no es así en este caso. Quizás esto merezca un peso adicional porque el hecho de que Cathy sea tan segura de sí misma y «no sepa lo que no sabe» podría fácilmente llevar a quien confía en ella a la falsa sensación de que su resultado es más preciso de lo que realmente es. Ahora bien, Shabbi es abogado especializado en propiedad intelectual y su lista de 10 cuestiones se centra principalmente en temas de propiedad intelectual. Sin embargo, lo perdoné en mi puntuación porque, cuando Shabbi y yo decidimos emprender este proyecto, ambos acordamos que, para hacerlo de forma completa, tendríamos que pedir la opinión de muchos de nuestros colegas de diversas áreas de práctica (por ejemplo, laboral y empleo, privacidad de datos). Se determinó que hacerlo ralentizaría tanto el proceso que ChatGPT sería una tecnología obsoleta para cuando hubiéramos terminado la entrada del blog. Quizás esto demuestre que Cathy merece otro punto, pero ya se le ha concedido un punto en eficiencia y, francamente, creo que los humanos necesitan echar una mano en este momento.
- Legibilidad: +1 punto para la máquina. Las respuestas de Cathy eran concisas, breves y fáciles de leer. Pero esa legibilidad se conseguía a costa de la profundidad. Véase el siguiente punto.
- Eficacia: +1 punto para el ser humano. El artículo de Shabbi profundizó mucho más en los temas que planteó que el de Cathy. Además, ella repitió algunos de los mismos temas más de una vez, con ligeras variaciones, para completar una lista de diez. Por esta razón, Shabbi se lleva el punto.
Ganador: Con el hombre y la máquina sumando cada uno dos de los cuatro puntos disponibles en mi sistema de puntuación totalmente inventado, tenemos un empate.
Conclusiones: Mis conclusiones de este experimento, así como del contenido de los propios artículos, es que puede haber un lugar para el uso de Cathy en el trabajo, pero aún se están estableciendo los límites de cuándo es apropiado su uso. Por ahora, aquí hay algunos consejos prácticos para usar Cathy (y la IA generativa en general) de manera más eficiente y evitar problemas:
- Averigua cómo solicitarlo de manera que se obtenga el mejor resultado.
- Úsalo para proyectos adecuados: las entradas de blog sobre experimentos del tipo «el hombre contra la máquina» son un buen ejemplo de un proyecto adecuado.
- No le proporcione información confidencial: el usuario no puede controlar lo que hace con esa información.
- Verifica siempre que lo que te da es correcto: confía, pero verifica.
- Haz todo lo posible para asegurarte de que la respuesta que te da no sea plagiada.
- Incluya avisos y exenciones de responsabilidad adecuados sobre el artículo producido con ChatGPT. Espero que algún día esto sea como una advertencia de la Propuesta 65: aparecerá en todo y, por lo tanto, el lector apenas lo notará.
La conclusión es que la forma en que todos trabajamos probablemente esté a punto de cambiar a una velocidad vertiginosa, y nadie tiene del todo claro lo que eso significa desde el punto de vista legal. Las leyes se pondrán al día con la tecnología. Mientras tanto, estas son algunas de las cuestiones legales que Shabbi y Cathy identificaron con respecto al uso de la IA generativa en el lugar de trabajo:
Las 10 cuestiones legales más importantes sobre el uso de la IA generativa en el trabajo
|
Autor: |
Humano (Shabbi Khan) |
ChatGPT-3.5 (Sugerido por Kate Wegrzyn) |
|
Tiempo total: |
10 horas |
11 minutos |
|
Trabajo realizado: |
|
Tenga en cuenta que mi indicación inicial fue «Escribe un artículo de blog de 1500 palabras sobre el siguiente tema: ¿Cuáles son las principales cuestiones legales relacionadas con el uso de la IA generativa en el trabajo?». Pasé a la lista de las 10 principales, porque las 1500 palabras me parecían una limitación arbitraria.
|
|
Resultado: |
Aunque durante los últimos años se han puesto a disposición del público diversas versiones de modelos de IA generativa, ha sido el lanzamiento de ChatGPT lo que ha llamado la atención de todo el mundo. Solo dos meses después de su lanzamiento, ChatGPT alcanzó los 100 millones de usuarios mensuales, lo que lo convierte en la aplicación de software de más rápido crecimiento de la historia.
La IA generativa se refiere a la inteligencia artificial que puede generar nuevos contenidos, como texto o imágenes. El software de IA generativa incluye complejos modelos de aprendizaje automático que han sido entrenados con grandes cantidades de datos disponibles públicamente, como sitios web, imágenes, vídeos, entre otros. Para generar texto, el software utiliza estos modelos de aprendizaje automático para predecir la siguiente palabra basándose en secuencias de palabras anteriores hasta que se genera el pasaje completo del texto. Del mismo modo, para generar imágenes, el software utiliza modelos de aprendizaje automático para predecir la siguiente parte de una imagen basándose en otras imágenes que incluyen partes similares hasta que se genera una imagen completa.
Muchos profesionales han comenzado a utilizar tecnologías de IA generativa en sus lugares de trabajo, por ejemplo, para generar artículos de blog, redactar correos electrónicos, generar gráficos, y algunos incluso se atreven a utilizar ChatGPT como chatbot automatizado. Sin embargo, los profesionales suelen utilizar estas tecnologías de IA generativa sin comprender realmente los riesgos empresariales y legales asociados al uso de la IA generativa. A continuación se enumeran las diez cuestiones legales más importantes que deben tener en cuenta las empresas y sus empleados que utilizan estas herramientas de IA generativa:
Uso no autorizado de datos protegidos por derechos de autor para entrenar modelos de IA generativa Los modelos de IA generativa se entrenan con enormes cantidades de datos disponibles públicamente, incluidos datos protegidos por derechos de autor. Existe la preocupación de que el uso de datos protegidos por derechos de autor para entrenar estos modelos de aprendizaje automático viole los derechos de autor de los propietarios de dichos derechos. Los tribunales de EE. UU. aún no se han pronunciado sobre si el uso de datos protegidos por derechos de autor por parte de los sistemas de IA generativa es permisible en virtud de la doctrina del uso legítimo. Dicho esto, otras jurisdicciones no tienen excepciones de uso legítimo tan permisivas como los Estados Unidos y, por lo tanto, las empresas de IA generativa pueden estar expuestas a riesgos en otras jurisdicciones fuera de los Estados Unidos. Dado que no se sabe con certeza si las empresas de IA generativa podrán utilizar estos modelos en el futuro si se les declara responsables de infringir los derechos de autor, existe la preocupación de que los usuarios finales o las empresas que han producido resultados utilizando dichos modelos puedan verse afectados por la responsabilidad.
¿El resultado infringe las leyes de derechos de autor? Aparte de la responsabilidad que se puede imponer a las empresas de IA generativa que han entrenado estos modelos de IA generativa, existe la preocupación de que, si el resultado de un sistema de IA generativa es demasiado similar a una obra protegida por derechos de autor, dicho resultado pueda infringir las leyes de derechos de autor y, por lo tanto, exponer a la entidad que distribuye o publica el resultado a reclamaciones por infracción de derechos de autor. El mayor riesgo en este caso es que, dado que los usuarios no conocen todas las obras protegidas por derechos de autor que existen, no sabrán en qué medida el resultado se parece a una obra protegida por derechos de autor y, por lo tanto, publicarán el resultado sin saberlo (probablemente haciéndolo pasar como propio). Esto no dará lugar a reclamaciones por infracción de los derechos de autor, pero puede causar un daño significativo a la reputación del usuario.
Confidencialidad de la introducción de indicaciones Las indicaciones son las consultas que un usuario introduce en un sistema de IA generativa para generar un resultado. El software de IA generativa puede utilizar estas indicaciones para mejorar sus modelos y para otros fines. Por lo tanto, se debe tener cuidado de no compartir información confidencial o sensible, ya que el sistema de IA generativa puede incorporar las indicaciones para generar resultados para otros usuarios. Muchos sistemas de IA generativa mencionan el uso de contratistas externos para revisar tanto la entrada como la salida con fines de seguridad y moderación, lo que significa que enviar información confidencial como consulta puede dar lugar a responsabilidades derivadas de una violación de la confidencialidad.
Propiedad de los datos del mensaje y del resultado Los usuarios de software de IA generativa deben revisar los Términos de uso del sistema de IA generativa para comprender los derechos de propiedad asociados con la entrada o el comando y la salida generada por el sistema de IA. El usuario debe comprender qué derechos, si los hay, tiene el sistema de IA generativa sobre la entrada y cómo el sistema de IA puede utilizarla. Del mismo modo, el usuario debe comprender qué derechos, si los hay, tienen el software de IA generativa y el usuario sobre la salida, y qué restricciones puede tener el usuario sobre la salida. Dado que el sistema de IA generativa puede tener derechos sobre los datos de salida, es posible que el sistema de IA generativa reproduzca la misma salida para otro usuario y, si el otro usuario. Esto puede dar lugar a reclamaciones por infracción de derechos de autor y plagio, por lo que los usuarios deben actuar con precaución al tratar con las salidas generadas por el sistema de IA.
Autoría ¿Quién es el autor del resultado de un sistema de IA generativa? ¿Es solo la persona que introdujo la orden o es solo el modelo de IA generativa que produjo el resultado, o es una combinación de ambos? OpenAI sugiere a los usuarios que mencionen que el resultado se generó en parte utilizando sus modelos de IA generativa. Por ejemplo, OpenAI ha proporcionado un lenguaje estándar que el usuario puede utilizar para describir el proceso creativo, que dice lo siguiente: «El autor ha generado este texto en parte con GPT-3, el modelo de generación de lenguaje a gran escala de OpenAI. Tras generar el borrador, el autor ha revisado, editado y corregido el texto a su gusto y asume la responsabilidad última del contenido de esta publicación». No indicar correctamente la autoría puede dar lugar a posibles responsabilidades. En concreto, puede infringir las condiciones de uso de determinados sistemas de IA generativa, algunos de los cuales exigen que el autor no declare que el resultado del software de IA generativa ha sido creado por humanos cuando no es así. Además, dado que el mismo resultado puede generarse para otro usuario, no indicar que se ha utilizado IA generativa para crear el contenido podría dar lugar a reclamaciones por tergiversación una vez detectado.
Solicitud de protección de derechos de autor sobre el contenido generado por IA La protección de los derechos de autor para las obras generadas por IA varía de un país a otro. Por ejemplo, en Estados Unidos, las leyes de derechos de autor no protegen las obras creadas exclusivamente por un ordenador, pero aquellas en las que se pueda demostrar una participación humana sustancial pueden optar a la protección de los derechos de autor. En el Reino Unido, las obras generadas íntegramente por un ordenador pueden protegerse. En la Unión Europea, la situación es menos clara y se permite que la creatividad humana se exprese a través de un sistema de IA. Sin la protección de los derechos de autor sobre determinadas obras de arte, es posible que las empresas no puedan hacer valer sus derechos sobre otras en caso de copia flagrante. Esto puede ser importante para las empresas de medios de comunicación o las personas que necesitan protección de los derechos de autor sobre las obras que generan. Por consiguiente, es importante que las empresas comprendan los riesgos de no contar con protección de los derechos de autor sobre dichas obras.
Sesgo en los resultados Los usuarios pueden considerar el uso del software de IA generativa para diversos casos de uso. Por ejemplo, utilizar ChatGPT como chatbot, para evaluar currículos de candidatos o para la escritura creativa. En cada uno de estos casos de uso, los resultados del software de IA generativa pueden mostrar sesgos que, si no se detectan, pueden dar lugar a comportamientos discriminatorios. Los comportamientos discriminatorios u ofensivos pueden provocar crisis de relaciones públicas negativas, exposición a litigios y sanciones civiles. Por consiguiente, los usuarios y las empresas deben supervisar el uso de la IA generativa para garantizar que los sistemas no muestren sesgos.
Inexactitudes fácticas en los resultados Los sistemas de IA generativa son excelentes para generar contenido automáticamente. Sin embargo, es posible que el contenido generado no sea correcto desde el punto de vista factual. Uno de los mayores retos de los sistemas de IA generativa es el concepto de alucinaciones, es decir, la capacidad de la IA generativa para inventar información que parece verdadera pero no lo es. El riesgo de alucinaciones aumenta cuando se pide al modelo de IA generativa que genere grandes cantidades de información. Los usuarios y las empresas deben asegurarse de que el contenido generado por la IA que utilizan sea veraz para evitar llegar a conclusiones erróneas o tomar medidas basadas en información incorrecta. De lo contrario, la empresa podría verse expuesta a riesgos si otras personas se basan en esa información para tomar medidas desacertadas. Por ejemplo, un chatbot de IA generativa en un entorno médico podría tener una alucinación y recomendar al paciente que tome un medicamento al que este podría tener una reacción alérgica grave.
Devolución algorítmica Varias empresas de software de IA generativa se enfrentan a retos legales debido a reclamaciones por infracción de derechos de autor, y no está claro qué responsabilidad o sanción pueden afrontar estas empresas. La Comisión Federal de Comercio (FTC) ha utilizado un mecanismo de aplicación más reciente, denominado «disgorgement algorítmico», para sancionar a las empresas que han recopilado datos de forma ilegítima y los han utilizado para entrenar un algoritmo, exigiéndoles que eliminen los datos recopilados o que eliminen el algoritmo o los modelos que han desarrollado utilizando dichos datos. La amenaza de la restitución algorítmica puede extenderse a los resultados generados por estos modelos y, como tal, los usuarios pueden correr el riesgo de perder el producto de su trabajo generado utilizando modelos de IA generativa que han violado los derechos de otras entidades.
Indemnización Varios programas de IA generativa exigen a los usuarios que indemnicen al programa de IA generativa como parte de las condiciones de uso. Por lo tanto, los titulares de derechos de autor pueden considerar la posibilidad de demandar a un usuario del programa de IA generativa por utilizar un programa de IA generativa que ha sido entrenado con datos protegidos por derechos de autor del titular de dichos derechos. Este riesgo de exposición aumenta cuando se utilizan modelos de IA generativa para generar una imagen como resultado que es sustancialmente similar a las obras protegidas por derechos de autor de un artista visual en particular, o si el resultado inserta una marca de agua u otra insignia que indica que el modelo se entrenó utilizando datos protegidos por derechos de autor del artista visual o la fuente de la imagen.
A medida que las empresas y los empleados comienzan a adoptar soluciones de IA generativa en su lugar de trabajo, deben comprender los riesgos asociados a la adopción de la IA generativa y establecer políticas que ayuden a mitigar dichos riesgos.
|
La inteligencia artificial generativa (IA) tiene el potencial de revolucionar la forma en que operan las empresas, automatizar tareas repetitivas y crear nuevos productos y diseños. Sin embargo, como ocurre con cualquier nueva tecnología, también hay que tener en cuenta las implicaciones legales. Las organizaciones que utilizan la IA generativa en el trabajo deben ser conscientes de las principales cuestiones legales que surgen al utilizar esta tecnología. En este artículo, analizaremos las 10 cuestiones legales más importantes a las que se enfrentan las organizaciones cuando utilizan la IA generativa en el trabajo.
Derechos de propiedad intelectual Una de las principales cuestiones legales relacionadas con el uso de la IA generativa en el ámbito laboral es la de los derechos de propiedad intelectual. Cuando se utiliza la IA generativa para crear nuevos productos o diseños, surge la pregunta de quién es el propietario de los derechos sobre estas creaciones. En muchos casos, el resultado generado por la IA generativa puede considerarse una «obra conjunta», en la que tanto el sistema de IA como los usuarios humanos comparten los derechos. Sin embargo, la propiedad específica y la distribución de los derechos pueden ser complejas y depender de las circunstancias de cada caso.
Protección de datos Otra cuestión legal a la que se enfrentan las organizaciones cuando utilizan la IA generativa en el trabajo es la privacidad de los datos. Los sistemas de IA requieren grandes cantidades de datos para entrenarse y mejorar su rendimiento, y estos datos suelen ser de naturaleza sensible o personal. Las organizaciones deben asegurarse de que cumplen con todas las leyes y normativas pertinentes en materia de privacidad de datos, incluyendo el Reglamento General de Protección de Datos (RGPD) y la Ley de Privacidad del Consumidor de California (CCPA).
Derecho laboral Los sistemas de IA pueden automatizar muchas tareas que antes realizaban los seres humanos, lo que puede tener un impacto significativo en el panorama laboral. Las organizaciones deben asegurarse de que cumplen con todas las leyes y normativas laborales pertinentes, incluidos los procesos de selección justos para determinar qué tareas se automatizarán y la provisión de formación y apoyo adecuados a los empleados afectados.
Responsabilidad Cuando un sistema de IA genera un producto o servicio, surge la pregunta de quién es responsable de cualquier daño que pueda derivarse del uso de dicho producto o servicio. Las organizaciones deben asegurarse de contar con un seguro de responsabilidad civil adecuado que cubra cualquier posible reclamación.
Discriminación Las organizaciones también deben ser conscientes de los posibles riesgos de discriminación que pueden derivarse del uso de la IA generativa. Los sistemas de IA deben diseñarse de forma inclusiva y evitar sesgos que puedan afectar a grupos específicos. Deben realizarse supervisiones y auditorías periódicas para garantizar que los sistemas de IA funcionan de forma justa y eficaz.
Equidad El uso de la IA generativa también debe ser justo y transparente. Las organizaciones deben asegurarse de que los sistemas de IA no tomen decisiones discriminatorias o sesgadas y deben poder demostrar cómo se tomaron las decisiones si es necesario.
Derecho contractual Las organizaciones también deben conocer la legislación contractual cuando utilicen IA generativa en el trabajo. Los contratos deben definir claramente los derechos y responsabilidades del sistema de IA, los usuarios humanos y cualquier otra parte implicada en la creación del resultado.
Cumplimiento de la normativa Las organizaciones deben asegurarse de que cumplen con todas las normativas pertinentes, incluidas las normativas específicas del sector, como las normativas sobre servicios financieros o las normativas sobre asistencia sanitaria.
Ciberseguridad La ciberseguridad es una preocupación importante cuando se utiliza la IA generativa en el trabajo. Las organizaciones deben implementar medidas de seguridad adecuadas para proteger los datos, incluyendo cifrado, controles de acceso y sistemas de supervisión.
Derecho internacional Las organizaciones también deben tener en cuenta el derecho internacional cuando utilizan la IA generativa en el trabajo. Cada país tiene sus propias leyes y normativas en materia de uso de la IA, y las organizaciones deben asegurarse de que cumplen con las leyes y normativas de cada jurisdicción en la que operan.
Conclusión La IA generativa tiene el potencial de transformar la forma en que operan las empresas, automatizar tareas repetitivas y crear nuevos productos y diseños. Sin embargo, las organizaciones deben ser conscientes de las implicaciones legales del uso de la IA generativa en el trabajo.
|
Contexto
No se nos escapa que en este experimento, como abogados, utilizamos contenido jurídico como caso de prueba, concretamente pidiendo a Cathy que identificara y escribiera sobre las cuestiones jurídicas relacionadas con el uso de la IA generativa. Como abogados, nos preocupa especialmente proporcionar contenido preciso tanto para nuestro trabajo con los clientes como, en este caso, cuando nuestro análisis se ofrece a título informativo y no se considera asesoramiento jurídico. Pero la precisión es de vital importancia en casi cualquier campo.
Por lo tanto, como se ha señalado anteriormente, incluso antes de que Shabbi publicara su trabajo para consumo público, dijimos que normalmente consultaría con abogados más expertos (lo que no hizo en este caso). Lo mismo se aplica a cualquiera que confíe en Cathy. El contenido que ella genera no debe utilizarse por sí solo, sino que debe ser revisado y verificado antes de que alguien confíe en él o lo ofrezca a otra persona como fidedigno. Huelga decir que el contenido generado por este experimento es meramente ilustrativo y no pretende ser fiable en cuanto a su exactitud sustantiva.
Si tiene alguna pregunta sobre la IA generativa, los temas tratados en este artículo o la IA en general, póngase en contacto con cualquier miembro del equipo de Inteligencia Artificial de Foley & Lardner LLP.