在时尚、服装和美妆(FAB)行业,人工智能(AI)已从一个流行词演变为幕后的主力军。当Foley在2024年展望这一领域时,AI已被用于驱动推荐引擎、搜索功能和个性化服务。此后,AI如今已驱动设计工具、虚拟试穿体验、合成模特,甚至时尚与美妆偶像的数字“复活”——而立法者们也已注意到这一点。
在整个行业中,人工智能可以替换型录中的服装、生成虚拟面料和印花,并围绕合成模特打造营销活动。虚拟试穿工具帮助消费者试用口红色号、挑选粉底,并预览穿搭效果,而美妆应用则提供肤质诊断和产品推荐。 在幕后,这些工具依赖于海量的训练数据集:时尚摄影、T台影像、网红内容、抓取的社交媒体数据以及电商产品目录。此外,它们也越来越依赖于对模特的全面数字化捕捉,包括3D身体扫描、面部映射、声音克隆以及数字复刻。
美妆聊天机器人的商机:品牌为何应予以关注
对于品牌而言,其吸引力不言而喻。人工智能不仅能降低成本、加快创意周期,还能快速生成并本地化营销素材,并承诺提供高度个性化的购物体验。生成式系统能在数小时内而非数天内生成全新视觉内容,而人工智能造型引擎则能根据每位消费者的特点,为其精心搭配服饰和美容方案。
问题在于,这些系统往往依赖于真实人物的图像、身体、声音和表演,或是那些原本不打算用作训练材料的创意作品。正是这些让品牌能够“以更少投入获得更多成效”的工具,也使得模型的肖像被以他们从未同意的方式反复使用变得轻而易举。
T台上的权利:宣传、数字替身与深度伪造
由于目前尚无全面的联邦人工智能法规,FAB品牌只能在由传统法理和新兴的人工智能专项法律构成的“拼凑式”框架下运营。加利福尼亚州、纽约州、田纳西州、佛罗里达州和阿肯色州等州的公开权及姓名、肖像和形象(NIL)相关法律,长期以来一直保护着个人身份的商业使用权,这种保护往往甚至在当事人去世后依然有效。 若某品牌在未获得遗产管理人许可的情况下,通过人工智能营销活动“复活”一位备受喜爱的时尚或美容偶像,可能会招致诉讼。
纽约已成为人工智能与[1]模特相关立法的主要阵地。《纽约时尚从业人员法案》¹将于2025年6月19日生效,该法案直接针对涉及时尚模特的AI使用问题。所要求的同意书必须明确说明使用范围、目的、时长及报酬;但常规修图不在此列。《纽约数字复制品法》²将于2025年1月1日生效,旨在打击“掠夺权利”的合同。 若数字复制品协议(i)允许使用复制品代替当事人本应亲自完成的工作,(ii)未能对预期用途作出合理具体的描述,且(iii)在谈判时当事人未获得法律顾问或工会咨询,则该协议无效。品牌和经纪公司再也不能依靠模糊的措辞来无限期地锁定模特的数字分身。
纽约州《广告人工智能透明度与合成表演者披露法》³将于2026年6月9日生效,该法案将保护重点转向消费者。 若商业广告使用了由人工智能生成的合成表演者,或由人工智能创建的逼真数字人物,必须明确披露这一事实;若未对广告进行标注,将面临民事处罚。此外,纽约州另一项关于死后肖像权的法律⁴规定,在营销活动中使用已故人士的姓名、形象、声音或肖像前,必须征得其继承人或遗嘱执行人的同意,这直接影响了以“复活”的偶像为卖点的新品发布或系列产品。
其他各州也在同步推进相关立法。田纳西州的《ELVIS法案》⁵和阿肯色州的HB1071号法案⁶明确将肖像权和声音权延伸至人工智能生成的肖像和声音,禁止未经授权的商业使用,并规定了民事(在田纳西州还包括某些刑事)处罚。在联邦层面,拟议的《NOFAKES法案》⁷将确立一项全国性的权利,禁止未经授权复制个人的肖像、声音或表演。 《深度伪造责任法案》、《下架法案》和《PADRA》旨在让平台和创作者对有害的深度伪造内容承担更多责任,并简化下架流程,这既适用于形象被滥用的网红和模特,也适用于发布大量AI生成内容的品牌。8
广告、隐私与生物识别技术
即使内容由人工智能生成,传统广告和消费者保护规则依然适用。任何会误导消费者的合成模型或人工智能生成的推荐,都可能引发与其他营销活动相同的虚假广告及不公平或欺骗性行为指控。
隐私和生物识别相关法律进一步增加了限制。诸如伊利诺伊州的《生物识别信息隐私法》(BIPA)和加利福尼亚州的《加州消费者隐私法》(CCPA)及《加州隐私权法案》(CPRA)等法规,对品牌如何收集和使用面部扫描数据(用于虚拟试穿服务)、身体扫描数据(用于尺码和合身度工具)以及语音指纹数据(用于语音交互体验)进行了规范。若未能获得同意或处理此类数据不当,可能导致法定赔偿和集体诉讼。
新的透明度与检测提案预示了法律的发展方向。加利福尼亚州拟议的《人工智能透明度法案》9将要求对经人工智能修改的媒体内容配备检测工具。纽约州拟议的《合成内容溯源法案》10将推动人工智能系统嵌入加密溯源数据,从而建立一条可验证的资产生成轨迹。这些拟议法律预示着一个未来:届时,人工智能内容的水印和可验证的来源信息将不再是可选项,而是必备要素。
版权声明:《Catwalk》:训练数据与人工智能生成的设计
在“Thaler诉Perlmutter案”中,哥伦比亚特区巡回上诉法院确认,根据现行美国法律,完全由人工智能生成且无人为创作参与的作品不享有版权。品牌若利用人工智能生成印花、图案或图像,必须包含具有实质意义的人为创意投入,方可主张版权保护。
与此同时,人工智能训练数据正面临越来越多的审查。拟议的《生成式人工智能版权披露法案》¹²将要求人工智能开发商披露其在训练数据中使用受版权保护作品的情况。目前已陷入停滞的加州AB 412法案¹³则要求人工智能开发商在使用受版权保护的作品进行训练时,必须获得许可并支付许可费。
宾夕法尼亚州的HR8114号议案敦促国会将主要由人工智能生成的作品排除在版权保护范围之外,并明确版权和合理使用原则如何适用于人工智能训练中对受版权保护作品的使用。
在美国以外,欧盟的《人工智能法案》¹⁵提出了一套基于风险的框架,并针对人工智能生成的内容和深度伪造内容规定了透明度义务。在欧洲使用虚拟试穿工具、推荐引擎和合成模型的跨国时尚品牌,即使美国法律的演变步伐依然缓慢,也必须遵守这些标准。
定制时装
艺人和供应商的合同必须与人工智能的实际使用情况相匹配。协议应明确说明品牌方是否会制作数字复制品、扫描件或3D模型;这些资产的使用范围和方式,包括具体的营销活动名称、渠道、地区和时间段;以及艺人形象是否可用于训练内部或第三方的人工智能系统。 与AI相关的使用补偿应与标准日薪或固定费用分开处理,而非默认包含无限次合成再利用的权利。
法律文件的起草仅是解决方案的一部分。FAB品牌还需要建立内部防护机制。许多品牌正在组建跨职能的人工智能委员会,汇集法律、市场营销、人力资源和信息技术部门的成员,共同盘点现有工具;梳理这些工具如何涉及人才形象、第三方内容、消费者数据及创意知识产权;并在上线前标记高风险用途。 供应商管理正变得日益严格,品牌方会询问商业合作伙伴工具的训练方式、是否支持水印和来源追溯功能,并要求对方就与AI使用相关的索赔提供赔偿。包含获取知情同意的工作流程——尤其是针对生物特征扫描,以及在法律要求或消费者期望的情况下对AI[1]生成或经过大幅修改的内容进行标注——正逐渐成为标准操作流程。
如果运用得当,人工智能能够带来切实的效率提升:减少退货率、优化尺码和色号匹配、加快营销活动制作速度、做出更明智的库存决策,以及提供更精准的产品推荐。竞争优势与公关危机的区别,往往取决于企业如何对待数据背后的人,这包括制定清晰透明的合同条款。
人工智能的崛起与人才肖像面临的日益扩大的风险
尽管各品牌纷纷采用人工智能来优化营销活动、降低成本并提升创意产出,但这些技术却给模特及其他创意人才带来了独特且往往被低估的风险。其中最主要的问题在于,在超出原始合约范围的情况下,未经授权或过度使用模特的肖像。
如果AI工具在未获得明确同意的情况下复制或篡改这些特征,模特可能无法控制其肖像以何种方式、在何处以及持续多长时间地出现。
常见场景:从单一活动到综合扩展
雇佣模特通常是为了参与单次宣传活动或展示特定服装。相关协议通常涵盖传统摄影及明确的使用范围。宣传活动结束后,品牌方会利用人工智能工具对模特的形象进行数字化复制,并将其应用于此前从未商讨或批准过的其他服装、宣传活动或推广形式中。
从品牌角度来看,这或许被视为对授权内容的有效延伸。但从模特角度来看,这代表着使用范围的根本性扩大,可能会影响未来的接单机会、削弱其独家代言的独特性,或使模特与他们并未选择代言的产品或宣传信息产生关联。
这种脱节往往源于人工智能生成的内容模糊了“使用现有图像”与创造全新表现形式之间的界限。尽管原始照片可能已获得授权,但由此生成的图像所呈现的场景、服装或品牌标识,在拍摄当时可能根本不存在。
传统建模协议中的合同漏洞
目前,传统的模特合约与现代人工智能技术之间存在脱节。许多合约是在广告活动仅限于实体照片且交付成果界定明确的时代起草的。因此,这些合约通常仅授予使用“图像”、“照片”或“录音”的权利,却未考虑到合成媒体、数字复制品或人工智能生成的衍生作品。
在缺乏针对人工智能的明确条款的情况下,品牌方可能会援引措辞宽泛的使用条款来为扩大使用范围辩护,而模特则有理由认为,同意出现在单个广告活动中并不意味着授权品牌方无限次制作其肖像的数字版本。
这种模糊性给双方都带来了法律和商业上的不确定性。对于人才而言,这引发了关于同意、报酬和控制权的担忧。
艺人可主张的潜在法律索赔
根据管辖权及具体合同条款的不同,如果模特的肖像被超出约定范围使用,模特可能有多种潜在的法律救济途径。这可能包括主张公开权,特别是在人工智能生成的内容未经同意便利用模特的身份谋取商业利益的情况下。
如果人工智能的使用超出了合同规定的许可范围,或者合同隐含地将使用范围限定在特定的营销活动或格式内,模特也可就此主张违约索赔。在某些情况下,如果人工智能生成的图像暗示了实际上并不存在的持续合作关系或认可,则可能引发基于虚假代言或不正当竞争的索赔。
尽管这些主张或许能起到施压作用,但诉讼往往并非万全之策。人工智能生成的内容能够快速且大规模地发布,一旦发布便难以控制。
针对模特和网红的主动性合同保障
鉴于这些挑战,预防性策略变得日益重要。模型及其代表方应着眼于在签约阶段——即在拍摄任何图像或创作任何内容之前——就着手应对与人工智能相关的风险。
关键的合同保护条款可能包括:在未获得单独书面同意的情况下,明确禁止制作由人工智能生成的复制品或衍生作品。针对合成或扩展用途制定单独的报酬方案,有助于确保艺人在其肖像被持续利用时获得公平报酬。
审批权也是一项重要考量因素。模特可能会要求在人工智能生成的内容发布前拥有审核和批准的权利,尤其是在此类内容可能影响品牌形象或公众认知的情况下。
监测、执法及持续监督
除了签订初始合同外,人才还应考虑建立监督和执行机制。审计权、新用途的通知要求以及合同中的下架条款,都能在不立即诉诸诉讼的情况下提供有力的制衡手段。
对于知名度更高的人才,可能需要制定额外的特殊条款。这些条款可包括对敏感产品类别的限制、防止政治用途或争议性用途的保护措施,以及涉及精神权利或声誉损害的条款。
展望未来:在合成市场中保护肖像权
随着人工智能持续重塑创意产业,品牌方与个人模特之间的议价能力失衡现象可能会进一步加剧。要应对这一不断变化的局面,关键在于积极起草合同、基于充分信息的谈判以及尽早进行法律审查。
通过提前应对与人工智能相关的风险,品牌和人才能够在这个日益虚拟化的市场中更好地保护其肖像权的完整性、价值和持久性,同时确保创新活动在尊重同意权和创作所有权的前提下进行。
参考文献
- 《纽约州劳动法》第36条(《时装业工人法》),S.9832(2024); 参见《纽约州参议院第9832号法案》,2023-2024立法年度,例行会议(纽约州2023年),https://www.nysenate.gov/legislation/bills/2023/S9832。
- 《纽约州一般义务法》第5-302条(《数字复制品法》),2024年纽约州参议院第7676-B号法案。
- 2024年纽约州参议院第8420-A号法案/众议院第8887-B号法案(《广告中人工智能透明度及合成表演者披露法案》)(2025年12月11日签署;2026年6月9日生效)。
- 2024年纽约州参议院第8391号/众议院第8882号法案(死后肖像权)。
- 《田纳西州法典汇编》第47-25-1101条(2024年)(《确保肖像、声音和形象安全法》(“ELVIS法案”)。
- 阿肯色州众议院第1071号法案,第94届州议会例会(2023年)(修订阿肯色州肖像权法,将人工智能生成的肖像和声音纳入适用范围)。
- 参见,例如,《培育原创、扶持法案》及《保障娱乐安全(“NO FAKES”)法案》讨论稿,第118届国会(2023年)。
- 《深度伪造责任法案》(H.R. 6334,第118届国会,2023年);《下架法案》(S.4569,第118届国会,2023年);《保护所有数字现实法案》(PADRA)(H.R. 10550,第118届国会,2023年)。
- 《加州议会法案》第853号,2023-24立法年度,例行会议(《加州人工智能透明度法案》)。
- 2023-24年纽约州第6954号法案(合成内容来源溯源与水印技术)。
- Thaler 诉 Perlmutter 一案,130 F.4th 1039(哥伦比亚特区巡回上诉法院,2025年)。
- 《生成式人工智能版权披露法案》,H.R. 7913,第118届国会(2023年)(由众议员亚当·希夫提出)。
- 《加州议会法案》第412号,2023-24立法年度,例行会议(生成式人工智能:训练数据)。
- 宾夕法尼亚州众议院第81号议案,2025年州议会常会(关于人工智能与版权的澄清)。
- 欧洲议会和理事会2024年5月21日关于人工智能的第2024/1689号条例(《人工智能法》)。