Utiliser l'IA pour faciliter le recrutement peut sembler facile, jusqu'à ce que des problèmes juridiques surgissent.
Je ne suis pas très doué pour les prédictions, mais je suis convaincu que les actualités concernant l'IAcontinueront d'affluer, certaines bonnes, d'autres mauvaises. Nous pouvons tous nous attendre à ce que l'IA fasse déjà partie intégrante de vos processus de recrutement et d'embauche, ou qu'elle le devienne, voire qu'elle aide à gérer les performances à terme. L'utilisation de l'IA devrait contribuer à alléger la charge administrative liée à la sélection des candidatures et même à la conduite des premiers entretiens. Mais elle risque également d'augmenter le risque de plaintes pour discrimination.
L'EEOC a récemment publié des directives à ce sujet. Les nouvelles directives s'appuient sur les directives uniformes de 1978 relatives aux procédures de sélection des employés, qui exigent généralement que des études de validité soient réalisées afin de garantir que les caractéristiques mesurées constituent des indicateurs fiables de la réussite professionnelle.
Pour rappel, on parle d'impact disparate lorsqu'une pratique d'emploi apparemment neutre (comme l'utilisation de l'IA pour sélectionner les candidatures afin de déterminer qui répond aux critères minimaux) conduit à écarter de manière disproportionnée des personnes appartenant à une certaine catégorie protégée (comme les personnes âgées de quarante ans ou plus) ou à une combinaison de catégories protégées (par exemple, les femmes hispaniques).
Une première question — et une conclusion qui en découle — est la suivante : comment déterminer quand un impact est disproportionné ? Une approche courante et simple consiste à appliquer la règle des 80 % (également appelée règle des quatre cinquièmes). Supposons que votre groupe de candidats compte 100 hommes et 100 femmes. L'IA indique que 50 des hommes (50 %) et 25 des femmes (25 %) sont qualifiés. Comparez le taux de sélection du groupe protégé à celui du groupe non protégé — 25/50 — et la différence est de 50 %. Comme ce ratio est inférieur à 80 %, cela indique un impact statistiquement disparate.
Cependant, cela peut ne pas suffire pour conclure à l'existence d'un impact disparate. La règle des 80 % ne convient pas à tous les scénarios, et d'autres types de tests peuvent être mieux adaptés aux circonstances. Même si la règle des 80 % est appropriée, l'impact disparate peut être légalement justifié si l'entreprise peut prouver que l'outil de sélection est lié à l'emploi et conforme aux nécessités de l'entreprise. Cela signifie que si votre mesure professionnelle ne satisfait pas à la règle des 80 %, vous devez effectuer des tests supplémentaires ou différents, ou fournir davantage de justifications expliquant pourquoi, malgré ce résultat, vos méthodes de test sont nécessaires.
Par ailleurs, le fait de respecter la règle des 80 % ne signifie pas automatiquement qu'il n'y a pas de risque juridique. Si la description du poste ou une autre partie du processus de recrutement décourage certaines personnes en raison d'une caractéristique protégée, l'outil de sélection peut satisfaire à la règle des 80 %, mais poser néanmoins un problème juridique global ou faire l'objet d'une contestation judiciaire.
De plus, les employeurs ne peuvent pas simplement se fier aux déclarations du fournisseur concernant les tests pour échapper à leur responsabilité en cas de contestation pour impact discriminatoire. Le risque juridique ne se transfère pas simplement au fournisseur, et l'employeur peut toujours être tenu responsable. Quel que soit le scénario, l'utilisation appropriée de l'IA dans la sélection et le recrutement nécessitera du temps et de l'argent pour justifier son utilisation et ses résultats.
Un problème connexe peut être la conservation des dossiers. Une affaire récente, alléguant une utilisation abusive d'un outil de sélection basé sur l'IA développé par HireVue, repose sur une candidature à un emploi datant de 2021. Dans un article du Washington Post publié en 2019, HireVue affirmait qu'une évaluation standard de trente minutes pouvait fournir jusqu'à 500 000 points de données, bien qu'il ne soit pas clair s'il s'agit du même type d'outil que celui en cause dans le récent procès. Cela représente une quantité considérable de données à conserver pendant deux ans ou plus, jusqu'à la conclusion de l'affaire. Tout cet investissement en ressources s'ajoute à la nécessité de s'assurer que le contenu de l'outil d'IA est approprié. En supposant que vous disposiez de toutes les données relatives à l'impact sur la sélection, vous avez également besoin que les gens se souviennent à quoi ressemblait le processus d'IA il y a deux ans. Dans un domaine en constante évolution, cela pourrait constituer un défi de taille.
En résumé, vous devez être vigilant et rester vigilant. Comme le montrent les actualités, l'IA évolue rapidement. Évaluez les avantages liés à l'utilisation de l'IA dans vos processus de sélection et de recrutement, puis comparez-les aux investissements supplémentaires qui pourraient être nécessaires si l'outil d'IA venait à être remis en question.