Cómo la inteligencia artificial, los dobles digitales y las nuevas leyes están transformando el mundo de la moda y la belleza
La inteligencia artificial (IA) ha pasado de ser una simple palabra de moda a convertirse en el motor invisible de los sectores de la moda, la confección y la belleza (FAB). Cuando Foley analizó este ámbito en 2024, la IA ya se utilizaba para impulsar motores de recomendación, búsquedas y personalización. Desde entonces, la IA impulsa herramientas de diseño, experiencias de prueba virtual, modelos sintéticos e incluso la «resurrección» digital de iconos de la moda y la belleza, y los legisladores se han dado cuenta.
En todo el sector, la inteligencia artificial permite cambiar de atuendo en los catálogos, generar tejidos y estampados virtuales y crear campañas con modelos sintéticos. Las herramientas de prueba virtual ayudan a los consumidores a probar tonos de pintalabios, elegir el tono adecuado de base de maquillaje y visualizar conjuntos, mientras que las aplicaciones de belleza ofrecen diagnósticos de la piel y recomendaciones de productos. Entre bastidores, estas herramientas se basan en enormes conjuntos de datos de entrenamiento: fotografía de moda, imágenes de pasarelas, contenido de influencers, datos extraídos de redes sociales y catálogos de comercio electrónico. Cada vez más, también dependen de la captura digital completa de los modelos, incluyendo escaneos corporales en 3D, mapeo facial, clonación de voz y réplicas digitales.
El negocio de los bots de belleza: por qué las marcas deberían prestarle atención
Para las marcas, el atractivo es evidente. La IA reduce los costes, agiliza los ciclos creativos, permite generar y localizar contenidos rápidamente y promete experiencias de compra altamente personalizadas. Los sistemas generativos pueden producir nuevas imágenes en cuestión de horas, en lugar de días, mientras que los motores de estilismo basados en IA seleccionan conjuntos y rutinas de belleza adaptados a cada consumidor.
El problema es que estos sistemas suelen basarse en imágenes, cuerpos, voces e interpretaciones de personas reales, o en obras creativas que nunca se concibieron para ser utilizadas como material de entrenamiento. Las mismas herramientas que permiten a las marcas «hacer más con menos» también facilitan la reutilización de la imagen de una modelo de formas que esta nunca aceptó.
Derechos en la pasarela: publicidad, dobles digitales y deepfakes
Dado que no existe una ley federal exhaustiva sobre la IA, las marcas de FAB operan en un entramado de doctrinas tradicionales y leyes emergentes específicas sobre la IA. Las leyes sobre el derecho de publicidad y el nombre, la imagen y la semejanza (NIL) en estados como California, Nueva York, Tennessee, Florida y Arkansas protegen desde hace tiempo el uso comercial de la identidad de una persona, a menudo incluso tras su fallecimiento. Una marca que «resucite» a un icono querido de la moda o la belleza en una campaña de IA sin el permiso de los herederos podría estar abocándose a un litigio.
Nueva York se ha convertido en la principal pasarela para la legislación sobre IA y modelos[1]. La Ley de Trabajadores de la Moda de Nueva York[1], que entrará en vigor el 19 de junio de 2025, aborda directamente el uso de la IA en relación con los modelos de moda. El consentimiento requerido debe especificar el alcance, la finalidad, la duración y la remuneración; sin embargo, se excluyen los retoques rutinarios. La Ley de Réplicas Digitales de Nueva York[2], que entrará en vigor el 1 de enero de 2025, se centra en los contratos que «acaparan derechos». Un acuerdo de réplica digital es nulo si (i) permite que se utilice una réplica en lugar del trabajo que la persona habría realizado en persona, (ii) no ofrece una descripción razonablemente específica del uso previsto, y (iii) se negoció cuando la persona no contaba con asesoramiento jurídico ni con un sindicato al que consultar. Las marcas y las agencias ya no pueden recurrir a un lenguaje ambiguo para retener indefinidamente al doble digital de una modelo.
La Ley de Nueva York sobre transparencia en la publicidad y divulgación de intérpretes sintéticos generados porIA³, que entrará en vigor el 9 de junio de 2026, se inclina a favor del consumidor. Si un anuncio publicitario utiliza un intérprete sintético generado por IA, o una persona digital realista creada por IA, este hecho debe revelarse claramente, y se impondrán sanciones civiles por no etiquetar el anuncio. Unaley de Nueva York independiente sobre el derecho de publicidad póstumo⁴ exige el consentimiento de los herederos o albaceas antes de utilizar el nombre, la imagen, la voz o la semejanza de una persona fallecida en campañas, lo que afecta directamente a los lanzamientos o colecciones creadas en torno a iconos «resucitados».
Otros estados están tomando medidas similares.La Ley ELVIS de Tennessee⁵ yel proyecto de ley HB 1071⁶ de Arkansas amplían explícitamente los derechos de publicidad a las imágenes y voces generadas por IA, prohibiendo su uso comercial no autorizado e imponiendo sanciones civiles (y, en Tennessee, algunas penales). A nivel federal, la propuestade Ley NOFAKES⁷ establecería un derecho a nivel nacional contra las réplicas digitales no autorizadas de la imagen, la voz o la interpretación de una persona. La Ley de Responsabilidad por Deepfakes, la Ley Take It Down y la PADRA tienen como objetivo hacer que las plataformas y los creadores rindan más cuentas por los deepfakes perjudiciales y agilizar las retiradas de contenido, tanto para los influencers y modelos cuyas imágenes se utilizan indebidamente como para las marcas que distribuyen contenido con un alto uso de IA.8
Publicidad, privacidad y datos biométricos
Las normas tradicionales en materia de publicidad y protección del consumidor se aplican incluso cuando el contenido ha sido creado por la IA. Un modelo sintético o un testimonio generado por la IA que induzca a error a los consumidores puede dar lugar a las mismas denuncias por publicidad engañosa y prácticas desleales o engañosas que cualquier otra campaña.
Las leyes sobre privacidad y datos biométricos imponen restricciones adicionales. Normativas como la Ley de Privacidad de la Información Biométrica (BIPA) de Illinois y la CCPA/CPRA de California regulan la forma en que las marcas recopilan y utilizan los escáneres faciales para los servicios de prueba virtual, los escáneres corporales para las herramientas de talla y ajuste, y las huellas vocales para las experiencias basadas en la voz. Los incumplimientos a la hora de obtener el consentimiento o de gestionar estos datos pueden dar lugar a indemnizaciones por daños y perjuicios y a demandas colectivas.
Las nuevas propuestas en materia de transparencia y detección apuntan hacia el rumbo que está tomando la legislación.El proyectode Ley de Transparencia de la IA de California⁹ exigiría el uso de herramientas de detección para los contenidos multimedia modificados por IA.El proyectode ley de Nueva York sobre la procedencia de los contenidossintéticos¹⁰ obligaría a los sistemas de IA a incorporar datos criptográficos de procedencia, creando así un registro verificable de cómo se generó un activo. Estas propuestas legislativas apuntan a un futuro en el que las marcas de agua y la información de origen verificable para los contenidos generados por IA serán algo habitual, en lugar de opcional.
Copyright Catwalk: datos de entrenamiento y diseños creados por IA
En el caso Thaler contra Perlmutter, ¹¹ el Tribunal de Apelación del Distrito de Columbia confirmó que las obras generadas exclusivamente por IA, sin intervención humana, no pueden ser objeto de derechos de autor según la legislación vigente en Estados Unidos. Las marcas que utilicen IA para generar estampados, diseños o imágenes necesitan una aportación creativa humana significativa para poder reclamar dicha protección.
Al mismo tiempo, los datos de entrenamiento de la IA son objeto de un escrutinio cada vez mayor. El proyecto deley «Generative AI Copyright DisclosureAct»¹², que se ha presentado, obligaría a los desarrolladores de IA a revelar el uso que hacen de obras protegidas por derechos de autor en los datos de entrenamiento. El proyecto de ley AB 412 deCalifornia¹³, que se encuentra estancado, obligaría a los desarrolladores de IA a obtener permiso y pagar derechos de licencia para utilizar obras protegidas por derechos de autor con fines de entrenamiento.
El proyecto de leyHR 8114 de Pensilvania insta al Congreso a excluir de la protección de los derechos de autor las obras generadas predominantemente por IA y a aclarar cómo se aplican los derechos de autor y el uso legítimo al uso de obras protegidas por derechos de autor en el entrenamiento de la IA.
Fuera de Estados Unidos,la Ley de Inteligencia Artificial de la UniónEuropea¹⁵ establece un marco basado en el riesgo con obligaciones de transparencia para los contenidos generados por IA y los deepfakes. Las marcas multinacionales del sector FAB que utilicen herramientas de prueba virtual, motores de recomendación y modelos sintéticos en Europa deberán ajustarse a esas normas, incluso si la legislación estadounidense sigue evolucionando a un ritmo más lento.
Contract Couture
Los contratos con los artistas y los proveedores deben ajustarse al uso real que se da a la IA. Los acuerdos deben especificar si la marca creará réplicas digitales, escaneos o modelos 3D; dónde y cómo se podrán utilizar esos activos, incluyendo nombres concretos de campañas, canales, territorios y periodos de tiempo; y si las imágenes de los artistas podrán utilizarse para entrenar sistemas de IA internos o de terceros. La remuneración por los usos relacionados con la IA debe tratarse por separado de las tarifas diarias estándar o los honorarios fijos, en lugar de dar por sentado que se incluye la reutilización sintética ilimitada.
La redacción jurídica es solo una parte de la solución. Las marcas de FAB también necesitan medidas de control internas. Muchas están creando comités multifuncionales de IA que reúnen a los departamentos jurídico, de marketing, de RR. HH. y de TI para hacer un inventario de las herramientas; analizar cómo interactúan con imágenes de personas, contenidos de terceros, datos de consumidores y propiedad intelectual creativa; y señalar los usos de mayor riesgo antes de su lanzamiento. La gestión de proveedores se está volviendo más rigurosa: las marcas preguntan a sus socios comerciales cómo se entrenan las herramientas, si admiten marcas de agua y trazabilidad, y exigen indemnizaciones por reclamaciones relacionadas con el uso de la IA. Los flujos de trabajo que incluyen la obtención del consentimiento informado, especialmente para escaneos biométricos, y el etiquetado de contenidos generados por IA[1] o muy alterados cuando lo exija la ley o lo esperen los consumidores, se están convirtiendo en procedimientos operativos estándar.
Si se utiliza con criterio, la inteligencia artificial puede aportar mejoras significativas: menos devoluciones, una mejor adaptación y combinación de tonos, una producción más rápida de las campañas, decisiones de inventario más acertadas y recomendaciones de productos más relevantes. La diferencia entre una ventaja competitiva y una crisis de relaciones públicas suele residir en cómo trata una empresa a las personas que hay detrás de los datos, lo que incluye contar con cláusulas contractuales claras y transparentes.
El auge de la IA y el riesgo creciente para la imagen de los talentos
Aunque las marcas recurren a la inteligencia artificial para optimizar sus campañas, reducir costes y ampliar la producción creativa, estas tecnologías plantean riesgos específicos —y a menudo subestimados— para los modelos y otros profesionales creativos. El principal de ellos es el uso no autorizado o excesivo de la imagen de un modelo más allá del alcance del contrato original.
Cuando se utilizan herramientas de inteligencia artificial para reproducir o manipular esos atributos sin un consentimiento claro, los modelos pueden perder el control sobre cómo, dónde y durante cuánto tiempo aparece su imagen.
Una situación habitual: de una campaña única a una expansión sintética
Se contrata a una modelo para que aparezca en una sola campaña o para que pose con una prenda concreta. El contrato contempla la fotografía tradicional y un ámbito de uso definido. Una vez finalizada la campaña, la marca utiliza herramientas de inteligencia artificial para reproducir digitalmente la imagen de la modelo e incorporarla a otros conjuntos, campañas o formatos promocionales que nunca se habían discutido ni aprobado.
Desde el punto de vista de la marca, esto puede parecer una ampliación eficaz de los contenidos bajo licencia. Sin embargo, desde el punto de vista de la modelo, supone una ampliación sustancial de su uso, lo que podría afectar a futuros contratos, diluir la exclusividad o asociar a la modelo con productos o mensajes que ella no ha elegido promocionar.
Esta discrepancia suele surgir porque el contenido generado por IA difumina la línea divisoria entre el «uso de imágenes existentes» y la creación de representaciones totalmente nuevas. Aunque las fotografías originales puedan haber sido autorizadas, las imágenes generadas por IA resultantes pueden mostrar escenarios, prendas o marcas que nunca existieron en el momento de la sesión fotográfica.
Lagunas contractuales en los acuerdos de modelaje tradicionales
En la actualidad, existe una discrepancia entre los contratos de modelos tradicionales y las capacidades modernas de la inteligencia artificial. Muchos acuerdos se redactaron en una época en la que las campañas se limitaban a fotografías físicas y a productos finales claramente definidos. Como consecuencia, los contratos suelen conceder derechos de uso sobre «imágenes», «fotografías» o «grabaciones», pero no contemplan los medios sintéticos, las réplicas digitales ni los derivados generados por inteligencia artificial.
A falta de disposiciones expresas sobre la inteligencia artificial, las marcas pueden recurrir a cláusulas de uso redactadas en términos generales para justificar un uso más amplio, mientras que los modelos pueden suponer razonablemente que el consentimiento para aparecer en una sola campaña no autoriza la creación de versiones digitales ilimitadas de su imagen.
Esta ambigüedad genera incertidumbre jurídica y comercial para ambas partes. En el caso de los artistas, suscita inquietudes en torno al consentimiento, la remuneración y el control.
Posibles acciones legales a las que pueden recurrir los artistas
Dependiendo de la jurisdicción y de la redacción concreta del contrato en cuestión, los modelos pueden disponer de varias vías legales si su imagen se utiliza más allá del ámbito acordado. Entre ellas pueden figurar las reclamaciones por violación del derecho de imagen, especialmente cuando el contenido generado por IA explota la identidad de un modelo con fines comerciales sin su consentimiento.
Los modelos también pueden presentar reclamaciones por incumplimiento de contrato cuando el uso de la IA exceda el ámbito definido de uso permitido, o cuando el contrato limite implícitamente el uso a campañas o formatos específicos. En determinadas circunstancias, pueden surgir reclamaciones basadas en publicidad engañosa o competencia desleal si las imágenes generadas por IA dan a entender una relación o aprobación continuadas que no existen.
Aunque estas reclamaciones pueden servir de palanca, los litigios suelen ser una solución imperfecta. El contenido generado por IA puede difundirse rápidamente y a gran escala, lo que hace difícil controlarlo una vez publicado.
Medidas contractuales proactivas para proteger a modelos e influencers
Ante estos retos, las estrategias preventivas cobran cada vez más importancia. Los modelos y sus representantes deberían centrarse en abordar los riesgos relacionados con la IA en la fase de contratación, antes de que se capturen imágenes o se cree contenido.
Entre las principales garantías contractuales pueden figurar prohibiciones explícitas de crear réplicas o derivados generados por IA sin un consentimiento por escrito específico. El establecimiento de estructuras de remuneración independientes para los usos sintéticos o ampliados puede contribuir a garantizar que los artistas reciban una remuneración justa por la explotación continuada de su imagen.
Los derechos de aprobación también son un aspecto importante a tener en cuenta. Los modelos pueden solicitar el derecho a revisar y aprobar el contenido generado por IA antes de su publicación, especialmente cuando dicho contenido pueda afectar a la imagen de marca o a la percepción del público.
Seguimiento, aplicación y supervisión continua
Más allá de la contratación inicial, las empresas deben considerar mecanismos de supervisión y cumplimiento. Los derechos de auditoría, los requisitos de notificación para nuevos usos y las cláusulas contractuales de retirada pueden proporcionar una ventaja significativa sin tener que recurrir inmediatamente a los tribunales.
En el caso de los talentos de mayor renombre, puede ser conveniente incluir cláusulas específicas adicionales. Estas pueden incluir restricciones sobre categorías de productos sensibles, protecciones contra usos políticos o controvertidos, y disposiciones relativas a los derechos morales o al daño a la reputación.
Mirando hacia el futuro: la protección de la imagen en un mercado sintético
A medida que la inteligencia artificial sigue transformando los sectores creativos, es probable que aumente el desequilibrio en el poder de negociación entre las marcas y los modelos individuales. La clave para desenvolverse en este panorama en constante evolución reside en la redacción proactiva de contratos, la negociación bien fundamentada y la revisión jurídica temprana.
Al abordar desde el principio los riesgos relacionados con la inteligencia artificial, las marcas y los creadores pueden proteger mejor la integridad, el valor y la perdurabilidad de su imagen en un mercado cada vez más sintético, al tiempo que permiten que la innovación avance de una manera que respete el consentimiento y la propiedad creativa.
Referencias
- Ley Laboral de Nueva York, art. 36 (Ley de los Trabajadores de la Moda), S.9832 (2024); Véase N.Y. S.B. S9832, Legislatura 2023-2024, Sesión Ordinaria (N.Y. 2023), https://www.nysenate.gov/legislation/bills/2023/S9832.
- Ley General de Obligaciones de Nueva York, art. 5-302 (Ley de Réplicas Digitales), 2024 N.Y. S.B. 7676-B.
- 2024 N.Y. S.8420-A/A.8887-B (Transparencia de la IA en la publicidad y divulgación de intérpretes sintéticos) (firmada el 11 de diciembre de 2025; en vigor a partir del 9 de junio de 2026).
- 2024 N.Y. S.8391/A.8882 (derecho de publicidad póstumo).
- Código Anotado de Tennessee, art. 47-25-1101 (2024) (Ley de Protección de la Semejanza, la Voz y la Imagen, «Ley ELVIS»).
- Proyecto de ley H.B. 1071 de Arkansas, 94.ª Asamblea General, sesión ordinaria (2023) (por el que se modifica la ley de derechos de imagen de Arkansas para incluir las representaciones y voces generadas por IA).
- Véase, por ejemplo, la Ley «Nurture Originals, Foster Act, and Keep Entertainment Safe» («NO FAKES»), borrador de debate, 118.º Congreso (2023).
- Ley de Responsabilidad por Deepfakes, H.R. 6334, 118.º Congreso (2023); Ley «Take It Down», S.4569, 118.º Congreso (2023); Ley de Protección de Todas las Realidades Digitales (PADRA), H.R. 10550, 118.º Congreso (2023).
- Proyecto de Ley de la Asamblea de California n.º 853, Legislatura 2023-24, sesión ordinaria (Ley de Transparencia en materia de IA de California).
- Proyecto de ley S.6954 de Nueva York (2023-24) (procedencia y marcas de agua del contenido sintético).
- Thaler contra Perlmutter, 130 F.4th 1039 (Tribunal de Apelación del Distrito de Columbia, 2025).
- Ley de divulgación de derechos de autor en materia de IA generativa, H.R. 7913, 118.º Congreso (2023) (propuesta por el diputado Adam Schiff).
- Proyecto de Ley de la Asamblea de California n.º 412, Legislatura 2023-24, Sesión Ordinaria (IA generativa: datos de entrenamiento).
- Proyecto de ley H.R. 81 de Pensilvania, Asamblea General de 2025, sesión ordinaria (que aclara cuestiones relativas a la inteligencia artificial y los derechos de autor).
- Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 21 de mayo de 2024, sobre la inteligencia artificial (Ley de Inteligencia Artificial).