Regulación de la inteligencia artificial en la toma de decisiones laborales: ¿qué nos depara el futuro para 2025?
La legislación laboral en 2024 podría resumirse acertadamente como el «Año de la legislación sobre inteligencia artificial». De hecho, todos los estados excepto cinco introdujeron nueva legislación sobre inteligencia artificial (IA) en 2024, y cuatro de los cinco que se quedaron al margen simplemente no celebraron sesiones legislativas en 2024. Texas fue uno de esos estados atípicos, pero está a punto de unirse a la mayoría cuando su legislatura se reúna de nuevo en enero de 2025 y considere la legislación recientemente propuesta conocida como la Ley de Gobernanza Responsable de la IA de Texas (TRAIGA). A medida que entramos en el nuevo año, los empleadores, en particular los que operan en varios estados, deben estar al tanto de la legislación actual y propuesta relacionada con la IA en sus jurisdicciones para asegurarse de que siguen cumpliendo con el panorama normativo de la IA, en constante evolución.
La regulación de la IA es un tema frecuente en este blog porque, aunque no existe una legislación federal exhaustiva al respecto, la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) y el Departamento de Trabajo (DOL) han publicado documentos orientativos y se centran especialmente en garantizar la supervisión humana del uso responsable de la IA. Existen numerosas preocupaciones válidas, especialmente en lo que respecta al uso de herramientas de IA para la toma de decisiones en materia de recursos humanos, que van desde la privacidad de los datos y la discriminación algorítmica hasta la seguridad laboral y la transparencia.
Actualmente se han implementado o se prevé que entren en vigor en breve un conjunto de normativas estatales de diversa complejidad. Uno de los ejemplos más sólidos y comentados de regulación de la IA promulgada en 2024 fue la Ley de Inteligencia Artificial de Colorado (CAIA), considerada una de las primeras del mundo en definir y regular de forma exhaustiva los «sistemas de inteligencia artificial de alto riesgo». En virtud de la CAIA, los empleadores que utilicen estas herramientas de IA deben actuar con «diligencia razonable» para proteger a los empleados de la discriminación algorítmica, lo que incluye la obligación de desarrollar una política de gestión de riesgos para mitigar posibles sesgos, así como realizar evaluaciones de impacto anuales. Además, la CAIA incluye un requisito similar al exigido por la Ley Federal de Informes Crediticios Justos (FCRA), en el sentido de que los empleadores deben notificar a los empleados cuando se utiliza un sistema de IA de alto riesgo para tomar decisiones sobre ellos. Aunque la CAIA no entrará en vigor hasta el 1 de febrero de 2026, los empleadores deben prepararse desde ahora para cumplir sus exigentes normas.
La TRAIGA recientemente propuesta propone de manera similar regular a los desarrolladores e implementadores de «sistemas de IA de alto riesgo». En concreto, los implementadores de sistemas de IA de alto riesgo estarían obligados a realizar evaluaciones de impacto detalladas al menos dos veces al año, incluyendo la supervisión continua de la discriminación algorítmica real o sospechada, las medidas de seguridad cibernética y las cuestiones relacionadas con la transparencia. Según la propuesta, la definición de «sistemas de IA de alto riesgo» incluiría cualquier herramienta de inteligencia artificial que sea un «factor contribuyente» a una decisión u oportunidad de empleo, lo que significa que todos los empleadores de Texas que utilicen la IA en la toma de decisiones de recursos humanos podrían entrar en el ámbito de aplicación de la TRAIGA. La TRAIGA incluye mecanismos para la aplicación tanto gubernamental como privada, lo que la convierte en una de las legislaciones más importantes en materia de IA a seguir de cara a 2025.
Los empleadores deben seguir estas mejores prácticas para responder a la explosión de legislación sobre IA en 2024, incluida la CAIA, así como a la legislación prevista, como la TRAIGA, en el próximo año:
- Evalúa el panorama normativo en el estado o estados en los que operas para determinar qué obligaciones de cumplimiento se aplican a tu organización.
- Evalúa qué herramientas de inteligencia artificial (por ejemplo, filtros de currículums, sistemas de seguimiento de candidatos, chatbots, etc.) utiliza tu organización.
- Comuníquese con los desarrolladores de las herramientas de IA que su organización utiliza o tiene previsto implementar para elaborar un plan de acción que permita cumplir con la normativa aplicable.
- Desarrollar una política organizativa sobre el uso de la IA en el lugar de trabajo, estableciendo parámetros sobre cómo se evaluarán y aprobarán dichas herramientas para mitigar posibles sesgos algorítmicos y garantizar la transparencia y la privacidad de los datos.
Para mantenerse a la vanguardia en 2025, los empleadores deberán actuar con rapidez y de forma estratégica, alineando sus prácticas de recursos humanos con el marco regulatorio de la IA, que evoluciona rápidamente.