Cet article a été initialement publié dans Law360 le 6 septembre 2024 et est republié ici avec autorisation.
The integration of artificial intelligence into the workplace has sparked a flurry of legal and regulatory discussions in recent months.
Les juges instaurent des interdictions et d'autres réglementations sur l'utilisation de l'IA dans les tribunaux. Les États adoptent des lois visant à limiter ou à contrôler l'utilisation de l'IA dans les politiques et les décisions liées à l'emploi. Et les employeurs se demandent comment les lois existantes en matière d'emploi s'appliquent à une offre d'outils d'IA en pleine évolution et très diversifiée.
Si l'IA introduit de nouvelles dimensions technologiques dans le paysage de l'emploi, les questions juridiques fondamentales soulevées par son utilisation ne sont pas nouvelles. L'IA est plutôt une réinterprétation métaphorique d'un classique, où les préoccupations familières en matière de droit du travail sont simplement reformulées et replacées dans un nouveau cadre technologique brillant.
Les employeurs, en particulier ceux qui, il n'y a pas si longtemps, auraient dûrechercher sur Googlece qu'était l'IA, peuvent se rassurer : l'IA et les lois et réglementations en plein essor qui l'entourent reflètent le plus souvent des questions juridiques familières et anciennes, bien qu'avec une touche de modernité.
Discrimination et pratiques équitables en matière d'emploi
Que l'IA soit impliquée ou non, la question centrale de nombreuses préoccupations en matière de droit du travail est celle de la discrimination. Les lois traditionnelles sur l'emploi, telles que le titre VII de la loi sur les droits civils, interdisent aux employeurs d'exercer une discrimination dans le processus d'embauche et de sélection sur la base de la race, de la couleur, de la religion, du sexe et de l'origine nationale.
Avec l'avènement et la mise en œuvre rapide de l'IA dans les entreprises à travers le pays, ces principes restent d'actualité, mais avec une complexité légèrement accrue, les employeurs intégrant désormais des outils d'IA et des données pour soutenir le processus de décision en matière de recrutement et d'embauche. Mais qu'est-ce qui a vraiment changé ?
Comme pour le risque d'erreur humaine dans la prise de décision en général, les systèmes d'IA sont conçus par des humains, et les outils d'IA utilisés dans le recrutement et l'embauche peuvent perpétuer, voire exacerber, les préjugés humains s'ils ne sont pas soigneusement conçus, contrôlés et validés.
Par exemple, si un système d'IA est entraîné à partir de données historiques qui reflètent des préjugés passés en matière de recrutement, il peut reproduire et renforcer ces préjugés dans ses processus décisionnels, même s'il semble à première vue se baser uniquement sur des mesures et des données objectives. Sans validation, cela peut entraîner des résultats discriminatoires qui désavantagent injustement certains groupes de personnes protégés, ce qui peut conduire à des violations potentielles des lois anti-discrimination.
L'IA ne fait que renforcer le besoin éternel des employeurs de faire confiance, mais de vérifier.
La Commission américaine pour l'égalité des chances en matière d'emploi (EEOC)et d'autres organismes chargés de l'application de la loi ont récemment averti que les outils de sélection basés sur l'IA pouvaient comporter des biais implicites ou réels intégrés à leurs systèmes, mais cela ne devrait pas être une surprise pour les employeurs.[1] En 1978, l'EEOC,le ministère américain du Travailetle ministère américain de la Justiceont publié conjointement un ensemble très complet de réglementations appelé « Uniform Guidelines on Employee Selection Procedures » (UGESP, directives uniformes sur les procédures de sélection des employés), qui visait à garantir que tous les dispositifs et procédures de sélection ne soient pas utilisés de manière discriminatoire. [2]
La portée de l'UGESP est extrêmement large. À l'époque, elle se concentrait sur les tests papier-crayon utilisés pour prendre toute décision liée à l'emploi, car depuis longtemps, bon nombre de ces tests avaient un impact disparate sur les groupes protégés, sans qu'il y ait beaucoup de preuves scientifiques qu'ils permettaient réellement de prédire la réussite professionnelle. L'IA ne change pas cette dimension du droit du travail, elle l'étend simplement à une nouvelle frontière, car l'UGESP reste en vigueur aujourd'hui.
Les préoccupations liées aux effets disparates sous-tendent les réglementations relatives à l'IA à travers le pays, qui visent souvent à garantir la transparence des données et des informations utilisées pour créer ou guider l'IA dans la prise de décisions. Mais plutôt que de se focaliser sur les réglementations très variées et d'y voir un changement de paradigme dans le fonctionnement du recrutement des employés, les employeurs peuvent se rassurer en se disant que ce qui se passe n'est en réalité qu'une nouvelle façon d'aborder un vieux problème.
Essentiellement, la plupart des nouvelles réglementations relatives à l'IA posent des questions qui devaient auparavant être posées aux responsables du recrutement : d'où proviennent les données sources ? Qui procède à l'interprétation ? La décision et les données sous-jacentes sont-elles valides et objectives ?
Les réponses à ces questions ne dépendent pas et ne changent pas selon que l'IA a été impliquée ou non à un moment donné dans le processus décisionnel. En bref, les employeurs n'ont pas besoin de faire quoi que ce soit de conceptuellement différent, ils doivent simplement apprendre à utiliser les nouveaux outils — et comprendre comment les mêmes vieux problèmes peuvent se poser avec ces nouveaux outils — afin de s'assurer que ces problèmes sont traités à l'avance.
Confidentialité et protection des données
Les questions relatives à la confidentialité constituent un autre domaine où les lois traditionnelles sur l'emploi recoupent la technologie de l'IA.
Historiquement, les lois sur l'emploi ont imposé la protection des informations personnelles des employés. Avec la prolifération de l'IA, qui repose souvent sur de grands ensembles de données pour fonctionner efficacement, le volume et la sensibilité des données collectées ont considérablement augmenté. Mais l'augmentation du volume et de la sensibilité ne change rien aux risques juridiques sous-jacents et aux préoccupations qui sont pris en compte par le comportement actuel des employeurs.
Tout comme les violations de données peuvent survenir lors du stockage et de la maintenance généraux des informations personnelles, l'IA peut également faire l'objet de violations. Les préoccupations sous-jacentes restent les mêmes. En substance, si la technologie a évolué, le problème fondamental demeure : garantir que les informations personnelles des employés sont protégées et utilisées conformément aux lois en vigueur en matière de confidentialité. Les employeurs doivent simplement poursuivre leurs efforts en ajoutant les applications et outils liés à l'IA à la liste des sources de données qu'ils surveillent déjà à des fins de conformité.
Il en va de même pour la protection des informations confidentielles et exclusives d'un employeur.
Les employeurs ont toujours protégé leurs données sensibles en obligeant leurs employés à signer des accords de confidentialité ou en promulguant des politiques d'emploi à ce sujet, puis en informant leurs employés de la surveillance active ou aléatoire de leurs activités lorsqu'ils utilisent des équipements électroniques. L'utilisation par les employés de technologies d'IA à des fins professionnelles, en particulier les outils d'IA basés sur le web et non captifs des employeurs, ne fait qu'augmenter le risque de fuite d'informations sensibles, confidentielles et exclusives vers le public.
Il est essentiel de revoir, mettre à jour et former les employés aux politiques et accords existants afin de les avertir de ces risques et des conséquences d'une utilisation imprudente de l'IA dans le cadre de leur travail, afin de réduire les risques de fuites malheureuses et coûteuses. Une telle formation devrait déjà être dispensée en dehors du paradigme de l'IA.
Classification des emplois et sécurité d'emploi
La classification professionnelle, qui détermine si les travailleurs sont considérés comme des employés ou des entrepreneurs indépendants, est également une question qui se pose depuis longtemps dans le droit du travail. Cette classification a une incidence sur les droits des travailleurs en matière d'avantages sociaux, de sécurité de l'emploi et de protection en vertu du droit du travail. L'essor de l'IA et de l'automatisation ajoute une nouvelle dimension à ce sujet.
Plus précisément, l'IA et l'automatisation peuvent entraîner des changements dans les rôles et les fonctions des emplois, ce qui soulève des questions sur la manière dont les travailleurs devraient être classés. Par exemple, si un système d'IA effectue des tâches traditionnellement accomplies par des employés, cela modifie-t-il la nature de l'emploi de ces derniers ou leurs principales fonctions telles que définies par les critères de classification établis ? La généralisation des systèmes d'IA suscite également des inquiétudes quant à la suppression d'emplois et à la nécessité de mettre en place de nouveaux types de protections pour les travailleurs.
Mais « La mort des emplois en Amérique due à l'avènement des nouvelles technologies » n'est pas un titre nouveau en 2024 et n'a jamais été une nouveauté dans le paysage de l'emploi au cours du siècle dernier. L'IA peut fonctionner différemment de certaines innovations technologiques passées, mais les défis fondamentaux qu'elle pose restent les mêmes. L'IA englobe un large éventail d'outils que les employeurs peuvent utiliser pour faciliter leurs opérations, mais ces outils nécessitent toujours une intervention, une surveillance et une validation humaines.
Les employeurs doivent réfléchir attentivement à la meilleure façon d'intégrer l'IA dans leurs activités existantes, en gardant à l'esprit toutes les questions relatives à la classification des travailleurs dont ils devaient déjà se préoccuper bien avant que le terme « IA » ne fasse son apparition.
Santé et sécurité au travail
Les réglementations en matière de santé et de sécurité au travail ont traditionnellement mis l'accent sur la protection des employés contre les dommages physiques. À mesure que les systèmes d'IA s'intègrent davantage dans le milieu de travail, de nouvelles considérations en matière de sécurité apparaissent. Par exemple, le déploiement de robots et de machines automatisées nécessite des normes de sécurité rigoureuses afin de prévenir les accidents et les blessures.
De plus, l'utilisation de l'IA dans la surveillance et la gestion des conditions de travail, telles que l'ergonomie ou les facteurs environnementaux, soulève des questions quant à l'impact de ces technologies sur le bien-être des travailleurs. Il est essentiel de veiller à ce que les systèmes d'IA soient conçus et mis en œuvre dans un souci de sécurité afin de maintenir un environnement de travail sûr, mais cela ne modifie pas fondamentalement le paysage juridique et les facteurs de risque inhérents à ce facteur de risque courant de litige sur le lieu de travail.
Plats à emporter
En résumé, si l'essor de l'IA soulève de nouveaux défis et considérations en matière de droit du travail, bon nombre de ces questions ne sont que des préoccupations juridiques existantes réinterprétées dans un cadre technologique. La discrimination, la vie privée, la classification des emplois et la sécurité au travail ont toujours été au cœur du droit du travail, et l'IA ne modifie pas fondamentalement ces questions, mais souligne plutôt leur pertinence continue avec une nouvelle dimension technologique.
Les employeurs doivent examiner attentivement toute utilisation de l'IA dans le cadre de décisions de sélection, de promotion ou autres décisions liées à l'emploi, ce qui devrait simplement s'inscrire dans la continuité de l'examen minutieux de la validité du test tel qu'il s'applique au lieu de travail de l'employeur et aux postes spécifiques auxquels le test est applicable. Les conséquences de l'utilisation d'un outil de sélection ayant un impact négatif sans étude de validation appropriée peuvent être graves, ce qui était déjà le cas bien avant que l'IA ne se généralise.
À mesure que la technologie de l'IA continue d'évoluer, il est essentiel que les cadres juridiques s'adaptent et tiennent compte des nuances spécifiques introduites par l'IA, mais les principes fondamentaux d'équité, de confidentialité et de protection qui guident le droit du travail depuis des décennies restent plus pertinents que jamais. Le défi pour les régulateurs et les employeurs consistera à veiller à ce que ces principes soient respectés face aux nouvelles avancées technologiques, en garantissant que les avantages de l'IA puissent être exploités tout en maintenant des protections solides pour les travailleurs.
Employeurs, vous pouvez pousser un soupir de soulagement. La technologie évolue, mais les régimes de conformité juridique que vous avez mis en place n'ont pas besoin d'être fondamentalement repensés. Ce qui est ancien redevient nouveau, et tout le monde aime les classiques.
[2]https://www.ecfr.gov/current/title-41/subtitle-B/chapter-60/part-60-3.