El uso de información personal en el entrenamiento de modelos de IA debe ser igual al uso de materiales protegidos por derechos de autor.
Existe mucho revuelo en torno a la concesión de derechos a los interesados por el uso de datos personales en el entrenamiento de modelos de IA. Siempre he pensado que realmente no hay necesidad de conceder derechos para eliminar, corregir o incluso acceder a la información personal «en» el modelo de IA entrenado, ya que este, por sí mismo, no contiene realmente ninguna información personal (quizás este sea un tema para una entrada de blog más extensa). Los argumentos esgrimidos por el tribunal a favor de la moción de desestimación de Meta Platform parecen respaldar esta teoría: si el modelo de IA no contiene una obra derivada de material protegido por derechos de autor, es lógico que el modelo de lenguaje grande (LLM) entrenado tampoco contenga información personal (según cualquier definición moderna).
Por supuesto, el tiempo dirá si un tribunal aborda directamente la necesidad de garantizar los derechos de los interesados en relación con la información personal utilizada para entrenar un modelo de IA. Por ahora, lo único que sabemos es que la Comisión Federal de Comercio de los Estados Unidos exige que se notifique el uso de información personal en el entrenamiento de modelos de IA.
Los demandantes alegan que «los modelos lingüísticos LLaMA son en sí mismos obras derivadas infractoras» porque «los modelos no pueden funcionar sin la información expresiva extraída» de los libros de los demandantes. Esto no tiene sentido. Una obra derivada es «una obra basada en una o más obras preexistentes» en cualquier «forma en la que una obra pueda ser reelaborada, transformada o adaptada». 17 U.S.C. § 101. No hay forma de entender los modelos LLaMA en sí mismos como una reelaboración o adaptación de ninguno de los libros de los demandantes.
Ver artículo de referencia