Procédez avec prudence lorsque vous supprimez l'aspect humain des ressources humaines : la loi sur l'intelligence artificielle du Colorado aura un impact immédiat sur les employeurs.
Le rôle de l'intelligence artificielle (IA) prend de plus en plus d'importance dans notre vie quotidienne, qu'il s'agisse des chatbots du service client, des assistants numériques ou des appareils domestiques intelligents omniprésents. De même, cette technologie s'étend rapidement au domaine des ressources humaines. De nombreuses entreprises utilisent l'IA pour suivre les performances de leurs employés : par exemple, l'IA peut être utilisée pour évaluer les performances commerciales des employés à partir de données électroniques ou pour évaluer les résultats d'un projet. Il est plus courant que jamais pour les employeurs d'utiliser des outils d'IA pour sélectionner les candidats à un poste ou à une promotion, notamment en examinant les CV et les candidatures. L'EEOC rapporte que jusqu'à 99 % des entreprises du classement Fortune 500 utilisent une forme d'IA pour sélectionner ou classer les candidats à l'embauche. Si ces outils permettent souvent de gagner du temps et de rationaliser l'accès à l'information, certaines utilisations font l'objet d'un examen minutieux de la part des agences fédérales (telles que le ministère du Travail) et des législatures des États.
Le Colorado est entré dans la discussion le 17 mai 2024, lorsque le gouverneur Jared Polis a signé la loi sur l'intelligence artificielle du Colorado (CAIA). Prévue pour entrer en vigueur le 1er février 2026, cette loi traite de manière générale de l'utilisation de l'IA dans le domaine de la consommation, y compris dans le domaine de l'emploi. La CAIA comprend des dispositions qui exigent des développeurs et des déployeurs d'outils d'IA qu'ils fassent preuve d'une diligence raisonnable pour éviter toute discrimination liée à l'utilisation de systèmes d'IA « à haut risque ». Pour comprendre ces considérations, certaines définitions légales sont utiles :
- Les déployeurs comprennent ceux qui exercent leurs activités dans le Colorado en utilisant un système d'IA « à haut risque ».
- Un système « à haut risque » est tout système d'IA qui « prend, ou contribue de manière significative à la prise d'une décision importante », y compris les décisions relatives à l'emploi ou aux opportunités d'emploi.
- Un « facteur déterminant » désigne l'utilisation d'un système d'IA pour générer tout contenu, décision, prédiction ou recommandation concernant un consommateur qui sert de base à la prise d'une « décision importante » concernant ce consommateur.
- Le terme « consommateur » désigne une personne physique résidant dans l'État du Colorado.
La CAIA s'applique à tous les employeurs du Colorado, à l'exception de ceux qui comptent moins de 50 employés et qui n'utilisent pas leurs propres informations ou données pour enseigner ou améliorer le système d'IA utilisé, ou ceux qui utilisent des systèmes répondant à certains critères. L'un des objectifs de la loi est de garantir que les algorithmes d'IA ne donnent pas de résultats discriminatoires fondés sur l'âge réel ou perçu, la couleur de peau, le handicap, l'origine ethnique ou d'autres caractéristiques protégées. Les utilisateurs de systèmes d'IA dans le domaine du recrutement et de l'embauche sont tenus de faire preuve d'une diligence raisonnable pour protéger les candidats contre tout risque connu ou raisonnablement prévisible de discrimination. Bien que cela soit conforme aux lois actuelles qui obligent les employeurs à utiliser des pratiques d'embauche non discriminatoires, la CAIA va plus loin en exigeant des employeurs qui utilisent l'IA dans ce processus qu'ils prennent certaines mesures positives.
- Plus précisément, la CAIA impose un certain nombre de mesures aux déployeurs qui utilisent l'IA et qui ne sont pas autrement exemptés. Parmi les obligations les plus importantes, on peut citer l'obligation pour le déployeur de mettre en œuvre une politique et un programme de gestion des risques afin de régir l'utilisation du système d'IA. Cette politique doit être régulièrement révisée et mise à jour.
- Réaliser une analyse d'impact pour le système d'IA.
- Informer le consommateur que l'IA est utilisée pour prendre une décision importante avant que celle-ci ne soit prise et divulguer l'objectif du système, les coordonnées du déployeur, une description du programme et la manière d'accéder à des informations supplémentaires.
- Informer le procureur général dans un délai de 90 jours s'il découvre que les algorithmes utilisés par le système d'IA entraînent un résultat discriminatoire.
En cas de mesure défavorable au consommateur, le déployeur doit, entre autres :
- Informer le consommateur des principales raisons qui ont motivé la décision, notamment :
- La mesure dans laquelle et la manière dont le système d'IA a contribué à la décision
- Le type de données traitées par le système d'IA en rapport avec la décision
- La source des données considérées
- Offrir la possibilité de corriger toute donnée incorrecte utilisée par le système d'IA.
- Offrir la possibilité de faire appel de la décision en demandant un examen humain.
Il est important de noter que lorsqu'un déployeur respecte ses obligations en vertu de la CAIA, il aura droit à une présomption réfutable selon laquelle il a effectivement pris des mesures raisonnables pour protéger les consommateurs contre les risques prévisibles de discrimination par le biais du système d'IA.
La CAIA prévoit également des mécanismes d'application publics ; toutefois, la loi stipule expressément que les particuliers n'ont pas le droit d'intenter une action en justice pour violation de la CAIA. Le procureur général du Colorado est chargé de faire appliquer la loi. Les déployeurs qui agissent rapidement pour remédier aux violations et qui maintiennent généralement leurs systèmes en conformité avec les pratiques généralement acceptées en matière de gestion des risques liés à l'IA peuvent bénéficier d'une défense affirmative contre les mesures d'application. En cas de contestation, il incombe au déployeur de prouver la conformité avec ces défenses.
Bien que la loi doive entrer en vigueur début 2026, elle fait encore l'objet d'un processus réglementaire. Le gouverneur Polis, qui était notamment un entrepreneur du secteur des technologies de l'information, ayant fondé un fournisseur d'accès à Internet et plusieurs détaillants en ligne bien connus avant de se lancer dans la politique, a également informé le législateur que le long délai avant l'entrée en vigueur de la loi visait à permettre au gouvernement d'examiner et d'affiner davantage le texte, qui est intrinsèquement complexe tant sur le plan de la conformité technique que sur celui de la navigation dans un paysage réglementaire national potentiellement complexe.
Les employeurs qui utilisent des outils d'IA pour recruter ou employer des résidents du Colorado devraient mettre à profit les 18 prochains mois pour affiner leurs systèmes, leurs approches et leurs processus afin d'éviter toute discrimination liée à la technologie. Le temps passe vite, surtout lorsque les délais de mise en conformité approchent. Adopter une approche proactive permettra d'éviter les pièges potentiels de l'IA dans le domaine du recrutement.