Le recrutement basé sur l'IA visé par un recours collectif et un projet de loi
Comme dans presque tous les domaines, l'intelligence artificielle (IA) transforme rapidement la manière dont les employés sont recrutés et embauchés. Les outils d'analyse de CV et de mise en correspondance des candidats basés sur l'IA promettent de rendre le processus de recrutement plus efficace, plus efficient et plus économique. Une enquête a montré que 70 % des employeurs prévoient d'utiliser l'IA dans leur processus de recrutement d'ici fin 2025. Cependant, les accusations de discrimination et d'injustice menacent de faire dérailler, ou du moins de ralentir, la dynamique de l'IA.
En mai 2025, dans l'affaire Mobley c. Workday, Inc, un tribunal fédéral du district nord de Californie a certifié à titre conditionnel un groupe national de travailleurs âgés sur la base de l'allégation selon laquelle les outils de sélection algorithmiques de Workday avaient un impact disproportionné sur les travailleurs âgés. En d'autres termes, ces outils auraient éliminé un plus grand nombre de travailleurs âgés avant même qu'un être humain n'ait examiné les candidatures. Le tribunal a noté que plus d'un milliard de candidats auraient été rejetés à l'aide de Workday. Tout récemment, le tribunal a ordonné à Workday de communiquer la liste des employeurs clients qui ont utilisé l'outil HiredScore de Workday pour noter, trier, classer ou sélectionner des candidats. Cette liste servira à déterminer si une personne peut être incluse dans le recours collectif. Bien que Workday soit pour l'instant le seul défendeur dans l'affaire Mobley, il existe un risque certain que d'autres employeurs deviennent défendeurs dans cette affaire ou dans d'autres actions. Compte tenu de l'omniprésence et de la croissance de l'IA, de nombreux employeurs sont des défendeurs potentiels.
Pendant ce temps, les Américains se méfient de l'utilisation de l'IA dans le recrutement, et plusieurs États ont proposé des lois visant à limiter ou à contrôler son utilisation. Par exemple, la Californie a publié des réglementations qui entreront en vigueur le 1er octobre 2025, précisant que les biais de l'IA sont inclus dans ses lois sur la discrimination et encourageant fortement les audits d'entreprises. Le Colorado a adopté une loi radicale exigeant des avis de transparence et des droits de recours pour les travailleurs affectés négativement par les outils d'IA, ainsi que des évaluations et un contrôle de la part des développeurs de technologies d'IA et des entreprises et entités gouvernementales qui déploient ces outils. Cependant, en août, la législature du Colorado a voté le report de la date d'entrée en vigueur de la loi au 30 juin 2026. Ce report, ainsi que la suspension du projet de loi dans d'autres États, s'expliquent en partie par le récent plan d'action de l'administration Trump en matière d'IA, qui prévoitdes menaces de suppression des financements fédérauxet une éventuelle préemption par la Commission fédérale des communications (FCC) des lois étatiques trop restrictives en matière d'IA.
La loi est en retard sur cette technologie révolutionnaire. Cependant, les employeurs doivent être conscients du risque et prendre des mesures pour y remédier, notamment :
- Comprendre la technologie de dépistage et les critères utilisés
- Veiller à ce que les êtres humains soient les décideurs ultimes et exercent un contrôle
- Exiger la validation des outils de dépistage basés sur l'IA et réaliser des audits sur les biais
- Évaluer minutieusement les contrats des fournisseurs afin d'y inclure des déclarations et garanties, ainsi qu'une répartition appropriée des responsabilités.