El año pasado, Amazon descartó su algoritmo de aprendizaje automático porque descubrió que tenía un problema grave: a la inteligencia artificial no le gustaban las mujeres. La herramienta de aprendizaje automático estaba diseñada para analizar currículos y comparar a los posibles candidatos con la plantilla actual de Amazon. El algoritmo estaba diseñado para tomar 100 currículos y filtrar a los cinco mejores candidatos.
El problema era que ya existía una brecha de género en los puestos de desarrollador de software y otros puestos técnicos. Por lo tanto, cuando la herramienta de inteligencia artificial analizó los patrones en las prácticas de contratación de Amazon durante los últimos 10 años, aprendió por sí misma a favorecer a los hombres sobre las mujeres. Amazon finalmente desmanteló la herramienta.
La inteligencia artificial de Amazon pone de relieve una limitación importante de las herramientas de aprendizaje automático: estas herramientas solo son tan buenas como la información que se les proporciona. Si bien la inteligencia artificial puede seleccionar de forma rápida y más eficiente a los posibles candidatos a un puesto de trabajo, estos algoritmos pueden reforzar inadvertidamente la discriminación en las prácticas de contratación. En el caso de Amazon, los solicitantes de empleo con formación tecnológica eran más propensos a ser hombres que mujeres. El algoritmo interpretó erróneamente esta brecha de género como una preferencia de contratación por parte de Amazon. Así, en lugar de destacar a las mujeres cualificadas, el algoritmo descartó a dichas candidatas.
Hoy en día, los empleadores tienen a su disposición una gran variedad de herramientas tecnológicas. Sitios web como Monster.com e Indeed.com publican ofertas de empleo y generan un gran número de solicitudes. Los empleadores están recurriendo a herramientas tecnológicas para reducir el tiempo y los costes de contratación. Sin embargo, estas herramientas tecnológicas están diseñadas para imitar la toma de decisiones humana. Por lo tanto, cuando la herramienta se basa en datos inexactos o sesgados, puede discriminar inadvertidamente a las mujeres o a las minorías. Los estudios también han descubierto que las herramientas tecnológicas pueden discriminar de formas más sutiles. Por ejemplo, un empleador que intentaba maximizar la permanencia en el puesto de trabajo descubrió que quienes vivían más cerca del trabajo tendían a permanecer más tiempo en él. Sin embargo, la selección de candidatos en función de la proximidad de su domicilio al lugar de trabajo tendía a descartar de forma desproporcionada a ciertos candidatos pertenecientes a minorías.
En virtud del Título VII de la Ley de Derechos Civiles de 1964 y de leyes estatales y locales análogas, el empleador es responsable de garantizar que la selección de los candidatos a un puesto de trabajo se realice de manera no discriminatoria. Por lo tanto, si utiliza o está considerando utilizar una herramienta tecnológica para ayudarle a seleccionar a los candidatos, debe tomar medidas para garantizar que dichas herramientas no descarten de manera desproporcionada a candidatos por motivos de género, raza u otras clases protegidas. No basta con indicar a las herramientas tecnológicas que no discriminen a las minorías o a las mujeres, ya que dichas herramientas intentarán identificar a los candidatos que reflejen sus prácticas de contratación actuales. A continuación, se ofrecen algunos consejos útiles que debe tener en cuenta al utilizar herramientas tecnológicas de contratación:
- No confíe exclusivamente en herramientas tecnológicas para la contratación. La mayoría de las herramientas clasifican a los candidatos. Los empleadores deben revisar a los candidatos con puntuaciones más bajas y realizar evaluaciones independientes basadas en criterios no discriminatorios.
- Revise y actualice constantemente los datos proporcionados a su herramienta de contratación. Asegúrese de que los datos en los que se basa su herramienta de contratación no reflejen prácticas de contratación discriminatorias.
- Auditar de forma independiente los resultados y las clasificaciones generados por la herramienta de contratación y realizar los ajustes oportunos según sea necesario.
Con el tiempo, estas herramientas tecnológicas de contratación probablemente mejorarán y, con suerte, seleccionarán a los candidatos sin ningún tipo de sesgo discriminatorio. Pero hasta que la tecnología se perfeccione, los empleadores deben tomar medidas para garantizar que los miembros de las clases protegidas no sean seleccionados de manera desproporcionada mediante el uso de algoritmos tecnológicos de contratación.