La Californie ouvre la voie avec une nouvelle réglementation sur l'utilisation de l'IA dans les décisions en matière d'emploi

La réglementation californienne actualisée concernant l'utilisation de systèmes de décision automatisés basés sur l'intelligence artificielle (IA) dans le domaine de l'emploi est entrée en vigueur le 1er octobre 2025. Cette réglementation porte sur l'utilisation de "systèmes de décision automatisés", qu'elle définit comme des processus informatiques qui prennent des décisions ou facilitent la prise de décision humaine concernant un avantage lié à l'emploi. Selon le règlement, "les systèmes de décision automatisés peuvent être dérivés et/ou utiliser l'intelligence artificielle, l'apprentissage automatique, les algorithmes, les statistiques et/ou d'autres techniques de traitement des données".
Les règlements rendent illégale l'utilisation d'un système de décision automatisé qui discrimine un candidat ou un employé sur la base d'une catégorie protégée par la loi californienne sur l'emploi et le logement équitables (Fair Employment and Housing Act - FEHA). Le règlement vise des scénarios tels que : un employeur utilise un système de décision automatisé pour faire un premier examen des CV des candidats, et le système de décision automatisé élimine tous les candidats handicapés (ou de toute autre catégorie protégée, par exemple en fonction de l'âge, du sexe, etc.) Un exemple fourni par le règlement concerne un système de décision automatisé qui "analyse le ton de la voix, les expressions faciales ou d'autres caractéristiques physiques ou comportementales d'un candidat [ce qui] peut entraîner une discrimination à l'encontre de personnes en raison de leur race, de leur origine nationale, de leur sexe, d'un handicap ou d'autres caractéristiques".
En particulier, le règlement prévoit que "la preuve, ou l'absence de preuve, de tests anti-biais ou d'efforts proactifs similaires visant à éviter la discrimination illégale, y compris la qualité, l'efficacité, la récurrence et l'étendue de ces efforts, les résultats de ces tests ou autres efforts, et la réponse aux résultats" est pertinente pour toute réclamation introduite en vertu du règlement.
Cette formulation fournit une feuille de route aux employeurs en ce qui concerne la prévention des réclamations fondées sur l'utilisation de systèmes de décision automatisés. Les employeurs qui utilisent des systèmes de décision automatisés doivent prendre des mesures de protection, notamment en vérifiant que ces systèmes ne sont pas biaisés et en exigeant des fournisseurs qu'ils certifient que ces systèmes ont fait l'objet de tests approfondis pour détecter les biais et que tout problème de biais a été suffisamment pris en compte. Comme c'est souvent le cas, la Californie est l'un des premiers États à s'intéresser à ce type de technologie dans le cadre de sa législation sur l'emploi. Nous espérons que d'autres juridictions lui emboîteront bientôt le pas.