Naviguer dans l'IA au travail lorsque les politiques fédérales et étatiques s'opposent
Cet article a été initialement publié dans Law360 le 7 janvier 2026 et est republié ici avec autorisation.
Les législateurs aux niveaux fédéral, étatique et local s'attaquent à la législation visant à comprendre ou à réglementer l'utilisation de l'intelligence artificielle dans les décisions liées à l'emploi.
Les employeurs doivent connaître les deux dernières initiatives en date dans ce domaine : un projet de loi bipartite du Sénat américain qui obligerait certaines entreprises à rendre compte régulièrement des décisions en matière de personnel influencées par l'IA, et un projet de loi bipartite de la Chambre des représentants américaine qui imposerait un contrôle humain et la divulgation des outils d'IA utilisés dans les décisions en matière d'emploi.
Ces propositions du Sénat et de la Chambre des représentants, ainsi que la législation des États, pourraient entrer en conflit avec le récent décret présidentiel appelant à la mise en place d'un cadre national minimaliste pour la réglementation de l'IA.
Avec la multitude de priorités concurrentes et les différentes interprétations de la réglementation, les employeurs doivent rester vigilants pour rester en conformité.
Cela signifie à tout le moins que les employeurs doivent être en mesure de comprendre et d'expliquer leur utilisation de l'IA — une tâche peut-être plus facile à dire qu'à faire — et doivent se conformer à toutes les lois applicables de l'État en attendant de nouvelles directives du gouvernement fédéral.
Le projet de loi du Sénat : mises à jour trimestrielles sur l'impact de l'IA sur la main-d'œuvre
Le 5 novembre, les sénateurs Josh Hawley (républicain du Missouri) et Mark Warner (démocrate de Virginie) ont présenté le projet de loi AI-Related Job Impacts Clarity Act, invoquant leur conviction qu'il faut davantage de transparence sur l'impact de l'IA sur la main-d'œuvre.
À cette fin, le projet de loi du Sénat exigerait que les entités concernées soumettent des rapports trimestriels au ministère américain du Travail indiquant le nombre d'employés licenciés parce que leurs fonctions ont été remplacées ou automatisées par l'IA, le nombre d'employés embauchés à la suite de l'adoption de l'IA par l'employeur et le nombre de postes vacants que l'employeur a choisi de ne pas pourvoir pour des raisons essentiellement liées au remplacement ou à l'automatisation par l'IA.
Les employeurs devraient également déclarer le nombre d'employés ayant suivi une formation complémentaire en raison de l'IA, ainsi que toute information supplémentaire concernant les répercussions de l'IA sur l'emploi que le secrétaire au Travail pourrait exiger.
Le projet de loi du Sénat exigerait de telles divulgations de la part des sociétés cotées en bourse et du gouvernement fédéral, ainsi que de certaines sociétés non cotées en bourse dont l'identité n'est pas encore connue.
Pour ce dernier groupe, le projet de loi du Sénat exige que des règlements, qui doivent être publiés dans les 180 jours suivant son adoption, précisent quelles entreprises privées sont concernées.
Le projet de loi du Sénat prévoit que la réglementation s'applique également aux entreprises non cotées en bourse qui ont « un effectif important, une valeur estimée élevée ou un impact significatif sur l'emploi à l'échelle régionale ou nationale », en tenant compte de facteurs tels que la taille de l'employeur, son chiffre d'affaires annuel et sa classification sectorielle.
Le secrétaire au Travail serait chargé de préparer des rapports trimestriels et annuels résumant les données communiquées par les entités concernées. À l'heure actuelle, le projet de loi n'a pas d'autres coauteurs que Hawley et Warner, et a été renvoyé à la commission sénatoriale sur la santé, l'éducation, le travail et les retraites.
On ne sait pas encore à quelle vitesse le projet de loi sera examiné par le Sénat puis par la Chambre des représentants. On ignore également si le président Donald Trump approuvera le projet de loi du Sénat, compte tenu de ses appels en faveur d'une réduction de la réglementation de l'IA par les États.
Ce que cela signifierait pour les employeurs
Même si le projet de loi du Sénat est loin d'être adopté, les employeurs devraient se demander s'ils seraient en mesure de respecter ses obligations en matière de déclaration, notamment les suivantes :
Qui est chargé de déterminer si l'IA a une incidence significative sur les décisions relatives au personnel, ce qui pourrait nécessiter la déclaration prévue par la loi ? Envisagez de désigner une équipe ou une personne responsable de ces évaluations afin d'assurer la cohérence.
Comment un employeur peut-il déterminer que l'IA a une incidence significative sur les décisions relatives au personnel ? Souvent, plusieurs facteurs nuancés sont à l'origine des licenciements ou des embauches, et les employeurs devront évaluer le rôle potentiel de l'IA parmi ceux-ci. Si la décision peut être claire lorsqu'un chatbot remplace un travailleur humain, elle peut être moins évidente lorsque des outils d'IA sont intégrés dans les flux de travail de plusieurs employés, ce qui permet de gagner en efficacité au fil du temps.
Les systèmes internes de l'employeur permettent-ils de déterminer si et comment l'IA influence les décisions relatives au personnel ? Une documentation solide pourrait s'avérer essentielle pour démontrer la conformité.
En résumé, les employeurs pourraient souhaiter évaluer de manière proactive leur processus décisionnel et leur hygiène des données afin de déterminer s'ils sont en mesure d'identifier et de documenter les postes supprimés ou créés en raison de l'IA, ainsi que les postes nécessitant une formation supplémentaire en IA.
Bien sûr, la complexité liée à la collecte de ces informations auprès de chaque employeur individuellement souligne les questions que les parties prenantes sont susceptibles de se poser quant à la valeur des données agrégées provenant d'un grand nombre d'employeurs, chacun ayant sa propre interprétation des critères du projet de loi du Sénat.
Projet de loi de la Chambre des représentants : contrôle humain et divulgation des outils d'IA dans le domaine de l'emploi
Dans la foulée du projet de loi du Sénat visant à recueillir des informations sur l'utilisation de l'IA par les employeurs, un petit groupe bipartite au Congrès a présenté un projet de loi qui réglementerait plus directement et plus largement cette utilisation, principalement en imposant une surveillance humaine et la divulgation d'informations aux employés, entre autres exigences.
Le 3 décembre, les représentants Suzanne Bonamici (D-Ore.) et Chris Deluzio (D-Pa.), ainsi que le délégué James Moylan (R-Guam), ont présenté le projet de loi « No Robot Bosses Act of 2025 ». S'il est adopté, ce projet de loi s'appliquera aux employeurs comptant 11 employés ou plus. Selon Mme Bonamici, le projet de loi exigerait, entre autres, que les employeurs :
Vérifier leurs outils d'IA pour détecter des problèmes tels que la discrimination et les préjugés, avant de les utiliser et périodiquement ;
Assurer une supervision humaine indépendante des informations, décisions, prévisions ou recommandations générées par les outils d'IA utilisés par l'employeur ; et
Informer les employés de l'utilisation par l'employeur d'outils d'IA dans les décisions liées à l'emploi, telles que l'embauche, le licenciement, la rémunération, la promotion, la planification des horaires, les avantages sociaux et autres. [1]
La loi « No Robot Bosses Act » de 2025 est la dernière version en date de propositions similaires qui avaient été présentées sans soutien bipartite en 2023 et 2024. Mais le sort de la version 2025 est également incertain, notamment en raison des critiques formulées par Trump à l'encontre d'une législation étatique similaire.
Lois nationales relatives à l'IA
En effet, plusieurs juridictions, notamment la Californie, le Colorado, l'Illinois, la ville de New York et le Texas, ont déjà adopté leur propre législation concernant l'impact de l'IA sur l'emploi.[2] D'une manière générale, ces lois limitent la manière et le moment où les entreprises peuvent utiliser l'IA pour prendre des décisions en matière d'emploi.
Par exemple, la Californie et le Texas interdisent l'utilisation de l'IA d'une manière qui discrimine les candidats.[3]
Le Colorado, l'Illinois et la ville de New York obligent les employeurs concernés à informer leurs employés et candidats s'ils utilisent l'IA pour prendre des décisions en matière d'embauche et d'emploi.[4]
La loi sur l'IA de la ville de New York va plus loin, interdisant aux employeurs d'utiliser un outil d'IA s'il n'a pas fait l'objet d'un audit spécifique sur les biais dans un délai d'un an.[5]
Les employeurs soumis à ces lois étatiques et qui utilisent l'IA dans leurs processus de recrutement doivent évaluer attentivement leurs processus afin de garantir leur conformité.
Par exemple, les lois sur l'IA en vigueur dans l'Illinois et le Colorado, qui entreront respectivement en vigueur en janvier et en juin, obligeront les employeurs à fournir certaines informations aux employés ou aux candidats concernant leur utilisation de l'IA. Les employeurs doivent comprendre quand ces informations doivent être divulguées et être prêts à les fournir.
À titre d'exemple supplémentaire, les employeurs soumis à la loi de la ville de New York doivent s'assurer qu'ils respectent les exigences en matière d'audit de partialité pour l'utilisation d'outils d'IA dans le domaine de l'emploi.
En outre, les employeurs qui recherchent des candidats à distance ou qui emploient des travailleurs à distance doivent également savoir que, même s'ils ne sont pas basés dans une juridiction dotée d'une loi sur l'IA, le fait de recruter ou d'embaucher dans ces juridictions les soumet aux réglementations de ces dernières.
Décret présidentiel de la Maison Blanche
Alors que les législateurs fédéraux, étatiques et locaux s'affairent à proposer des réglementations sur l'IA ou à réglementer son utilisation par les employeurs, la Maison Blanche vient de publier un décret critiquant la « réglementation excessive de l'État » en matière d'IA, qui freine l'innovation, et appelant à la mise en place d'un « cadre politique national minimalement contraignant pour l'IA ».
Plus précisément, le 11 décembre, la Maison Blanche a publié le décret n° 14365, qui vise à décourager les réglementations étatiques en matière d'IA[6].
L'ordonnance charge le procureur général de créer un groupe de travail dédié aux litiges liés à l'IA. Entre autres choses, cette unité serait chargée de contester les législations spécifiques à certains États en matière d'IA qui seraient en contradiction avec les objectifs politiques nationaux.
Le décret ordonne également au secrétaire au Commerce de publier dans les 90 jours une analyse des lois étatiques relatives à l'IA et de restreindre le financement des États dont les lois en la matière sont jugées contestables.
La préférence de la Maison Blanche pour une politique nationale en matière d'IA aussi peu contraignante que possible semble aller à l'encontre des objectifs des législateurs fédéraux et étatiques des deux bords, dont les politiques et les propositions favorisent la législation.
Par exemple, l'ordonnance critique explicitement l'interdiction de la discrimination algorithmique au Colorado, mais la loi No Robot Bosses Act exige également que les outils d'IA utilisés dans le domaine de l'emploi soient validés en ce qui concerne « l'absence de tout impact discriminatoire potentiel » de ces outils.
Nous prévoyons que cette ordonnance fera l'objet de contestations judiciaires, tout comme le groupe de travail sur les litiges liés à l'IA envisagé dans l'ordonnance pourrait contester les lois des États relatives à l'IA.
En attendant, les employeurs soumis aux lois nationales sur l'IA sont tenus de s'y conformer, sauf décision contraire d'un tribunal.
Le bilan
Le projet de loi du Sénat décrit ci-dessus reflète l'intérêt des deux partis pour comprendre comment l'IA affecte les travailleurs. De même, le No Robot Bosses Act suggère que certains membres du Congrès souhaitent mettre en place des garde-fous sur l'utilisation de l'IA par les employeurs, comme certains États l'ont déjà fait.
L'adoption et les contours définitifs de ces propositions restent inconnus et, compte tenu notamment de la position favorable de Trump à l'égard de l'IA, beaucoup de choses pourraient changer. Mais les employeurs auraient néanmoins tout intérêt à surveiller de manière proactive et méthodique leur propre utilisation de l'IA et à se tenir informés des mises à jour des lois fédérales et étatiques.
[2] Voir, par exemple, Cal. Code Reg. tit. 2, § 11008-11097 (2025) ; Colo. Rev. Stat. § 6-1-1701 (2024) ; 775 III. Comp. Stat. 5/2-101-110 (2026) ; N.Y., Admin. Code §§ 20-870 à 20-874 ; Texas Responsible Artificial Intelligence Governance Act, 89th Leg., R.S., ch. 1174, 2025 Tex. Gen. Laws.
[3] Voir, par exemple, Cal. Code Reg. tit. 2, § 11008-11097 (2025) ; Texas Responsible Artificial Intelligence Governance Act, 89th Leg., R.S., ch. 1174, 2025 Tex. Gen. Laws.
[4] Voir, par exemple, Colo. Rev. Stat. § 6-1-1701 (2024) ; 775 III. Comp. Stat. 5/2-101-110 (2026) ; N.Y., Admin. Code §§ 20-870 – 20-874.
[5] Code administratif de la ville de New York, §§ 20-871. [6] https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/