Décryptage de la récente vague de lois californiennes sur l'IA
Le gouverneur de Californie, Gavin Newsom, a récemment été confronté à une vague de projets de loi liés à l'IA, avec 38 projets de loi arrivés sur son bureau. Bien qu'il ait rejeté le très controversé SB-1047, le gouverneur Newsom a signé plus d'une douzaine d'autres projets de loi axés sur l'IA au cours du mois de septembre. Ceux-ci abordent toute une série de préoccupations liées à l'intelligence artificielle, des risques posés par l'IA à la montée de la pornographie deepfake et des clones d'acteurs hollywoodiens décédés générés par l'IA.
« Abritant la majorité des principales entreprises mondiales spécialisées dans l'IA, la Californie s'efforce d'exploiter ces technologies transformatrices pour aider à relever les défis urgents tout en étudiant les risques qu'elles présentent », a déclaré le bureau du gouverneur Newsom dans uncommuniqué de presse.
Parmi les projets de loi relatifs à l'IA qui ont été promulgués, 18 se distinguent comme étant parmi les plus complets aux États-Unis à ce jour. Voici un aperçu des principaux thèmes abordés par ces nouvelles lois.
Projets de loi liés à l'IA signés par le gouverneur Newsom
Transparence dans les données d'entraînement de l'IA
L'une des lois les plus importantes est l'AB-2013, qui introduit des exigences de transparence pour les fournisseurs d'IA générative. Prévue pour entrer en vigueur en 2026, cette loi obligera les entreprises d'IA à divulguer des informations sur les ensembles de données utilisés pour entraîner leurs modèles. Cette législation oblige ces entreprises à révéler les sources de leurs données, à expliquer comment celles-ci sont utilisées, à indiquer le nombre de points de données, à divulguer si des données protégées par des droits d'auteur ou sous licence sont incluses, et à préciser la période pendant laquelle les données ont été collectées. Cette transparence accrue vise à renforcer la responsabilité des systèmes d'IA, en particulier ceux qui s'appuient sur des données à grande échelle pour leur formation.
Un article répondant aux questions fréquentes sur cette législation est disponible ici.
Gestion des risques liés à l'IA
Une autre loi importante qui a été promulguée est la SB-896, qui oblige le Bureau des services d'urgence de Californie (CalOES) à mener des analyses de risques concernant les dangers potentiels de l'IA générative. La loi exige une collaboration avec des entreprises pionnières dans le domaine de l'IA, telles qu'OpenAI et Anthropic, afin d'évaluer les risques que l'IA pourrait présenter pour les infrastructures critiques de l'État et d'évaluer les menaces potentielles susceptibles d'entraîner des événements causant des pertes humaines massives. Cette approche proactive vise à atténuer les conséquences imprévisibles que les systèmes d'IA avancés pourraient avoir sur la sécurité publique.
L'IA dans les soins de santé
Plusieurs projets de loi portent sur l'utilisation de l'IA dans le domaine de la santé. Le projet AB-3030 oblige les prestataires de soins de santé à divulguer lorsqu'ils utilisent l'IA générative pour communiquer avec leurs patients, en particulier lorsque les messages contiennent des informations cliniques. Parallèlement, le projet SB-1120 fixe des limites à l'automatisation des services par les prestataires de soins de santé et les assureurs, garantissant ainsi que l'utilisation des outils d'IA dans ces environnements soit supervisée par des médecins agréés. Ces lois visent à protéger les droits des patients et à garantir une utilisation appropriée de l'IA dans le domaine de la santé.
Confidentialité et IA
Élargissant (une fois de plus) le cadre californien en matière de protection de la vie privée, l'AB-1008 étend les lois existantes de l'État à l'égard de la protection de la vie privée afin de couvrir les systèmes d'IA générative. Cela signifie que si un système d'IA expose des informations personnelles, telles que des noms, des adresses ou des données biométriques, les entreprises seront soumises à des restrictions quant à la manière dont elles peuvent utiliser ces données et en tirer profit. L'objectif est de garantir que les systèmes d'IA respectent les mêmes mesures de protection de la vie privée que celles qui régissent les autres formes de traitement et d'utilisation des données.
Filigranage du contenu généré par l'IA
Le SB-942, un autre projet de loi important qui a été promulgué, exige que les systèmes d'IA générative largement utilisés divulguent que le contenu qu'ils créent est généré par l'IA. Cela se fera grâce à des « données de provenance » intégrées dans les métadonnées du contenu. Par exemple, toutes les images créées par DALL-E d'OpenAI doivent désormais comporter une balise dans leurs métadonnées indiquant qu'elles ont été générées par l'IA. Bien que certaines entreprises d'IA ajoutent déjà volontairement ces filigranes, la loi officialise cette exigence, aidant ainsi le public à identifier plus facilement le contenu généré par l'IA.
Définition juridique de l'IA
Une autre loi importante, AB-2885, établit une définition officielle de l'intelligence artificielle dans le droit californien. Selon ce projet de loi, l'IA est définie comme « un système conçu ou basé sur une machine, dont le niveau d'autonomie varie et qui peut, pour des objectifs explicites ou implicites, déduire à partir des données qu'il reçoit comment générer des résultats susceptibles d'influencer des environnements physiques ou virtuels ». Cette définition uniforme vise à créer un cadre juridique plus clair pour réglementer les technologies d'IA dans l'État.
Initiatives en matière d'éducation à l'IA
Le gouverneur Newsom a également signé des lois qui traitent du rôle de l'IA dans l'éducation. La loi AB-2876 exige que le Conseil de l'éducation de l'État de Californie tienne compte des connaissances en matière d'IA lors de l'élaboration des programmes d'études pour des matières telles que les mathématiques, les sciences et l'histoire. Cette initiative vise à préparer les élèves à un avenir où l'IA jouera un rôle de plus en plus important en leur enseignant son fonctionnement, ses limites et les considérations éthiques liées à son utilisation. En outre, la loi SB-1288 exige des surintendants californiens qu'ils forment des groupes de travail afin d'étudier l'utilisation de l'IA dans l'enseignement public et d'identifier les opportunités et les défis potentiels.
Appels automatisés utilisant l'IA
Pour lutter contre les appels automatisés trompeurs générés par l'IA, le gouverneur Newsom a promulgué la loi AB-2905. Ce projet de loi exige que les appels automatisés divulguent lorsqu'ils utilisent des voix générées par l'IA, dans le but d'éviter toute confusion comme celle survenue plus tôt en 2024, lorsque les électeurs du New Hampshire ont été induits en erreur par un appel automatisé deepfake imitant la voix du président Joe Biden. Cette loi s'inscrit dans le cadre d'un effort plus large visant à lutter contre l'utilisation abusive de l'IA dans les contextes politiques et commerciaux.
Lutter contre la pornographie deepfake
La pornographie deepfake est devenue un problème préoccupant, et le gouverneur Newsom a signé plusieurs projets de loi visant à lutter contre ce fléau. Le projet de loi AB-1831 élargit les lois existantes sur la pornographie infantile afin d'y inclure les contenus générés par des systèmes d'IA. Le projet de loi SB-926 rend illégal le chantage à l'encontre d'individus à l'aide d'images de nudité générées par IA qui leur ressemblent, tandis que le projet de loi SB-981 oblige les plateformes de réseaux sociaux à mettre en place des mécanismes de signalement permettant aux utilisateurs de signaler les images de nudité deepfake. Les plateformes doivent bloquer temporairement ces contenus pendant l'enquête et les supprimer définitivement s'ils sont confirmés comme étant des deepfakes.
Fausses élections
Le gouverneur Newsom a également signé une série de lois visant à empêcher les deepfakes générés par l'IA d'influencer les élections. L'AB-2655 oblige les grandes plateformes en ligne telles que Facebook et X (anciennement Twitter) à supprimer ou à signaler les deepfakes liés aux élections générés par l'IA et à créer des canaux permettant de signaler ce type de contenu. Les candidats et les élus peuvent demander une réparation juridique si les plateformes ne se conforment pas à la loi. La loi AB-2839 traite des actions des utilisateurs de réseaux sociaux qui publient ou republient des deepfakes générés par l'IA susceptibles d'induire les électeurs en erreur, en les tenant responsables de la diffusion de fausses informations. En outre, la loi AB-2355 exige que les publicités politiques créées à l'aide de l'IA comportent des mentions claires, afin de garantir la transparence des campagnes politiques.
L'IA et l'industrie du divertissement
Deux autres lois, fortement soutenues par la Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA), établissent de nouvelles normes pour l'industrie du divertissement et des médias en matière d'IA. La loi AB-2602 oblige les studios à obtenir l'autorisation des acteurs avant de créer des répliques générées par l'IA de leur voix ou de leur image. La loi AB-1836 étend des protections similaires aux artistes décédés, en exigeant des studios qu'ils obtiennent le consentement des ayants droit avant de créer des répliques numériques. Ces lois visent à protéger les droits des acteurs et de leurs ayants droit face aux capacités croissantes de l'IA, qui permet de recréer numériquement des artistes.
SB-1047 Veto
Alors que de nombreux projets de loi liés à l'IA ont été approuvés, le projet SB-1047, qui visait à réglementer les grands systèmes d'IA, a été rejeté par le gouverneur Newsom. Dans sa lettre de veto, le gouverneur a expliqué que le projet de loi était trop axé sur les grands modèles d'IA, ce qui, selon lui, pourrait « donner au public un faux sentiment de sécurité ». Il a en outre souligné la nécessité d'une approche réglementaire plus souple qui tienne compte à la fois des grands et des petits systèmes d'IA, car les modèles plus petits peuvent également présenter des risques importants.
Lors d'une conversation avec Marc Benioff, PDG de Salesforce, lors de la conférence Dreamforce 2024, le gouverneur a évoqué l'importance de faire la distinction entre les risques avérés et les risques hypothétiques liés à l'IA. Il a reconnu qu'il était impossible de traiter tous les problèmes potentiels liés à l'IA, mais que les efforts réglementaires de l'État se concentreraient sur la résolution des défis les plus urgents.
Le gouverneur Newsom a également fait allusion à son approche plus large de la réglementation de l'IA. « Il y a un projet de loi qui prend une importance démesurée dans le débat public et dans la conscience collective : il s'agit du SB-1047 », a déclaré M. Newsom. « Quels sont les risques avérés de l'IA et quels sont les risques hypothétiques ? Je ne peux pas tout résoudre. Que pouvons-nous résoudre ? C'est donc l'approche que nous adoptons à tous les niveaux dans ce domaine. »
Impact sur les entreprises
La récente vague de législations sur l'IA en Californie reflète l'approche proactive de l'État pour aborder à la fois les opportunités et les dangers posés par l'intelligence artificielle. De la vie privée à l'éducation, en passant par les soins de santé et l'intégrité des élections, ces nouvelles lois représentent certaines des réglementations les plus complètes en matière d'IA aux États-Unis.
Les entreprises qui exercent leurs activités en Californie ou qui interagissent avec des résidents californiens doivent prendre des mesures dès maintenant pour se conformer à ces lois. Les entreprises qui n'exercent pas leurs activités en Californie doivent également prendre note de ces lois et prendre des mesures pour évaluer et envisager des mesures de conformité avec les thèmes généraux, car d'autres États ne manqueront pas de suivre le mouvement.