Nueva guía de la EEOC: El uso de inteligencia artificial puede discriminar a empleados o solicitantes de empleo con discapacidades
A medida que el uso de la inteligencia artificial se abre camino en todos los ámbitos de la empresa y la cultura, la normativa gubernamental se mueve (quizá con demasiada lentitud) para establecer límites legales en torno a su uso.
El 12 de mayo de 2022, la Comisión para la Igualdad de Oportunidades en el Empleo publicó una nueva guía exhaustiva de "asistencia técnica" titulada The Americans with Disabilities Act and the Use of Software, Algorithms, and Artificial Intelligence to Assess Job Applicants and Employees (La Ley de Estadounidenses con Discapacidades y el uso de software, algoritmos e inteligencia artificial para evaluar a solicitantes de empleo y empleados). La guía, que cubre una serie de áreas, define los algoritmos y la inteligencia artificial (IA); da ejemplos de cómo la IA es utilizada por los empleadores; responde a la cuestión de la responsabilidad del empleador por el uso de herramientas de IA de proveedores; requiere ajustes razonables en el despliegue de la IA en este contexto; aborda el problema de la "pantalla" de la IA rechazando candidatos que de otro modo calificarían para el trabajo con ajustes razonables; requiere limitaciones para evitar hacer preguntas relacionadas con la discapacidad y médicas; promueve "prácticas prometedoras" para los empleadores, solicitantes de empleo y empleados por igual; y da muchos ejemplos específicos de trampas de discriminación por discapacidad en el uso de herramientas de IA.
Estas son algunas de las principales conclusiones de las nuevas orientaciones:
Los empleadores pueden verse expuestos a la responsabilidad de la ADA por el software del proveedor de IA:
- Exposición al riesgo de los proveedores de software. Los empleadores que utilizan herramientas de toma de decisiones basadas en IA para evaluar a los empleados o solicitantes de empleo pueden ser responsables en virtud de la Ley de Estadounidenses con Discapacidades (ADA) por las deficiencias de esa tecnología. Incluso si la herramienta de IA fue desarrollada o administrada por un tercer proveedor, el empleador puede estar en el gancho - especialmente si el empleador ha "dado [al proveedor] autoridad para actuar en nombre del empleador."
- Del lado de las pruebas y del lado de las adaptaciones. Esto significa que los empleadores deben gestionar el riesgo derivado de la acción u omisión del proveedor de IA en la administración de la evaluación y en la concesión de ajustes razonables. Si una persona solicita un ajuste razonable debido a una discapacidad y el proveedor deniega la solicitud, el empleador puede verse expuesto a la inacción del proveedor a pesar de no tener conocimiento de la solicitud.
- Compruebe el acuerdo con el proveedor. Los empresarios deben examinar detenidamente las cláusulas de indemnización y otras cláusulas de limitación y atribución de responsabilidad de sus acuerdos con proveedores de IA.
Las herramientas Al pueden "excluir" ilegalmente a personas discapacitadas cualificadas:
- Descartes. Los "descartes" en el contexto de la IA pueden producirse cuando una discapacidad disminuye el rendimiento de una persona al realizar una prueba de empleo basada en la IA, o impide que se tenga en cuenta a un candidato en primer lugar, por no cumplir los criterios de umbral basados en la IA. En virtud de la ADA, una exclusión es ilegal si la herramienta excluye a una persona capaz de desempeñar las funciones esenciales del puesto de trabajo con una adaptación razonable.
- Ejemplos. Las herramientas de IA pueden descartar a personas con destreza manual limitada (para utilizar un teclado); con problemas de vista, oído o habla; con lagunas laborales debidas a problemas de discapacidad en el pasado; o que sufren TEPT (lo que sesga los resultados, por ejemplo, de pruebas de personalidad o de memoria gamificadas).
Según las directrices: "Una discapacidad podría tener este efecto [de exclusión], por ejemplo, reduciendo la precisión de la evaluación, creando circunstancias especiales que no se han tenido en cuenta o impidiendo por completo que la persona participe en la evaluación."
- ¿Sin sesgos? Algunas herramientas de toma de decisiones basadas en IA se comercializan como "validadas" para ser "libres de prejuicios". Suena bien, pero esa etiqueta puede no referirse a las discapacidades, a diferencia del género, la edad o la raza. Las discapacidades -físicas, mentales o emocionales- abarcan una amplia franja de la vida, pueden ser muy individualizadas (incluso en lo que se refiere a las adaptaciones necesarias) y, como tales, son menos susceptibles de un ajuste de software libre de prejuicios. Por ejemplo, los problemas de aprendizaje a menudo pueden pasar desapercibidos para los observadores humanos porque su gravedad y características varían mucho. Los empresarios necesitarán garantías de que la IA puede hacerlo mejor.
Las pantallas de inteligencia artificial pueden generar consultas ilegales sobre discapacidad y cuestiones médicas:
- Consultas ilegales. Las herramientas basadas en IA pueden generar "consultas relacionadas con la discapacidad" ilegales o buscar información como parte de un "examen médico" antes de aprobar a los candidatos para ofertas de empleo condicionales.
Según las directrices: "Una evaluación incluye "preguntas relacionadas con la discapacidad" si formula a los solicitantes de empleo o a los empleados preguntas que puedan suscitar información sobre una discapacidad o pregunta directamente si un solicitante o empleado es una persona con una discapacidad. Se califica de "examen médico" si busca información sobre las deficiencias físicas o mentales o la salud de una persona. Una herramienta algorítmica de toma de decisiones que pudiera utilizarse para identificar las condiciones médicas de un solicitante infringiría estas restricciones si se administrara antes de una oferta condicional de empleo."
- Fallo indirecto. No todas las consultas relacionadas con la salud realizadas por herramientas de IA se consideran "consultas relacionadas con la discapacidad o reconocimiento médico."
Según las directrices: "Aunque una solicitud de información relacionada con la salud no infrinja las restricciones de la ADA sobre las consultas y los reconocimientos médicos relacionados con la discapacidad, puede infringir otras partes de la ADA. Por ejemplo, si en un test de personalidad se hacen preguntas sobre el optimismo y una persona con trastorno depresivo mayor (TDM) responde negativamente a esas preguntas y pierde por ello una oportunidad de empleo, el test puede "descartar" al solicitante por padecer TDM".
Buenas prácticas: Notificación fehaciente de lo que se está midiendo y de la existencia de ajustes razonables:
Hay una serie de buenas prácticas que los empleadores pueden seguir para gestionar el riesgo de utilizar herramientas de IA. La guía las denomina "Prácticas prometedoras". Puntos principales:
- Divulgar los temas y la metodología. Como mejor práctica, independientemente de que el software, la herramienta o la aplicación de IA hayan sido desarrollados por un proveedor externo, los empleadores (o sus proveedores) deben informar a los empleados o solicitantes de empleo -en términos claros y comprensibles- de lo que implica la evaluación. En otras palabras, revelar por adelantado los conocimientos, habilidades, capacidades, educación, experiencia, cualidades o rasgos que se medirán o evaluarán con la herramienta de IA. En la misma línea, revele por adelantado cómo se llevarán a cabo las pruebas y qué se requerirá: utilizar un teclado, responder verbalmente a preguntas, interactuar con un chatbot, o lo que sea.
- Invite a solicitar adaptaciones. Al disponer de esa información, el solicitante o empleado tiene más oportunidades de hablar con antelación si cree que necesitará algún tipo de adaptación por discapacidad. Por ello, las empresas deberían plantearse preguntar a los empleados y solicitantes de empleo si necesitan alguna adaptación razonable utilizando esta herramienta.
-
- Discapacidad evidente o conocida: Si un empleado o solicitante con una discapacidad obvia o conocida pide una adaptación, el empleador debe responder rápida y adecuadamente a esa solicitud.
-
- Discapacidad oculta: Si la discapacidad se desconoce por otros motivos, el empresario puede solicitar documentación médica.
- Realizar ajustes razonables. Una vez confirmada la discapacidad alegada, el empleador debe proporcionar un ajuste razonable, incluso si eso significa proporcionar un formato de prueba alternativo. Aquí es donde las directrices pueden entrar verdaderamente en conflicto con el uso de la IA. A medida que estas herramientas se hacen endémicas, las pruebas alternativas pueden parecer inadecuadas en comparación, y puede surgir una discriminación potencial entre las personas sometidas a pruebas de IA y las sometidas a pruebas de la vieja escuela.
Según las directrices: "Ejemplos de adaptaciones razonables pueden ser equipos especializados, pruebas o formatos de prueba alternativos, permiso para trabajar en un entorno tranquilo y excepciones a las políticas del lugar de trabajo."
- Proteger la PHI. Como siempre, cualquier información médica obtenida en relación con las solicitudes de adaptación debe mantenerse confidencial y guardarse separada del expediente personal del empleado o solicitante.
Con la creciente dependencia de la IA en el sector privado, los empleadores tendrán que ampliar su gestión proactiva de riesgos para controlar las consecuencias imprevistas de esta tecnología. Las normas legales siguen siendo las mismas, pero la tecnología de IA puede ampliar los límites del cumplimiento. Además de hacer todo lo posible en esa dirección, los empleadores deben revisar de cerca otros medios de gestión de riesgos, como las condiciones contractuales de los proveedores y la cobertura de los seguros.
Este artículo ha sido elaborado con la ayuda de la asociada de verano de 2022 Ayah Housini.