Navegando por la IA en el lugar de trabajo cuando las políticas federales y estatales entran en conflicto
Este artículo se publicó originalmente en Law360 el 7 de enero de 2026 y se reproduce aquí con permiso.
Los legisladores a nivel estatal, federal y local están tomando medidas legislativas destinadas a comprender o regular el uso de la inteligencia artificial en las decisiones relacionadas con el empleo.
Los empleadores deben conocer dos de las iniciativas más recientes que se han sumado a la contienda: un proyecto de ley bipartidista del Senado de los Estados Unidos que obligaría a determinadas empresas a informar periódicamente sobre las decisiones de personal afectadas por la IA, y un proyecto de ley bipartidista de la Cámara de Representantes de los Estados Unidos que exigiría la supervisión humana y la divulgación de las herramientas de IA que se utilizan en las decisiones de empleo.
Estas propuestas del Senado y la Cámara de Representantes, junto con la legislación estatal, podrían entrar en conflicto con la reciente orden ejecutiva de la Casa Blanca que exige un marco nacional mínimamente gravoso para la regulación de la IA.
Con la avalancha de prioridades contrapuestas y las diversas interpretaciones de la normativa, los empleadores deben estar muy atentos para seguir cumpliendo con la ley.
Como mínimo, esto significa que los empleadores deben ser capaces de comprender y explicar el uso que hacen de la IA —una tarea que quizá sea más fácil de decir que de hacer— y deben cumplir con todas las leyes estatales aplicables mientras esperan nuevas instrucciones del gobierno federal.
El proyecto de ley del Senado: Actualizaciones trimestrales sobre el impacto de la IA en la fuerza laboral
El 5 de noviembre, los senadores Josh Hawley, republicano por Misuri, y Mark Warner, demócrata por Virginia, presentaron la Ley de Claridad sobre el Impacto de la IA en el Empleo, invocando su convicción de que necesitamos más transparencia sobre cómo la IA afecta a la fuerza laboral.
Con ese fin, el proyecto de ley del Senado exigiría a las entidades afectadas que presentaran informes trimestrales al Departamento de Trabajo de los Estados Unidos en los que se identificara cuántos empleados fueron despedidos porque sus funciones laborales fueron sustituidas o automatizadas por la IA, cuántos empleados fueron contratados como resultado de la adopción de la IA por parte del empleador y cuántas vacantes el empleador decidió no cubrir por razones sustancialmente relacionadas con la sustitución o la automatización impulsadas por la IA.
Los empleadores también tendrían que informar del número de empleados que han recibido formación adicional debido a la IA, junto con cualquier información adicional sobre el impacto de la IA en el empleo que el secretario de Trabajo pueda requerir.
El proyecto de ley del Senado exigiría dicha divulgación a las empresas que cotizan en bolsa y al gobierno federal, así como a un conjunto aún desconocido de empresas que no cotizan en bolsa.
Para este último grupo, el proyecto de ley del Senado exige que se publiquen normas, en un plazo de 180 días a partir de su aprobación, en las que se especifique qué empresas privadas están incluidas.
El proyecto de ley del Senado exige que las regulaciones incluyan categorías de empresas que no cotizan en bolsa y que tengan «una plantilla significativa, un valor empresarial estimado o un impacto en el empleo a nivel regional o nacional», teniendo en cuenta aspectos como el tamaño de la empresa, los ingresos anuales y la clasificación del sector.
El secretario de Trabajo sería responsable de preparar informes trimestrales y anuales que resuman los datos comunicados por las entidades afectadas. Actualmente, el proyecto de ley no cuenta con otros copatrocinadores aparte de Hawley y Warner, y ha sido remitido al Comité Senatorial de Salud, Educación, Trabajo y Pensiones.
No está claro cuánto tardará el proyecto de ley en tramitarse en el Senado y luego en la Cámara de Representantes. Aún menos claro está si el presidente Donald Trump aprobaría el proyecto de ley del Senado, dadas sus peticiones de reducir la regulación estatal de la IA.
Qué significaría para los empleadores
Aunque el proyecto de ley del Senado puede estar lejos de ser aprobado, los empleadores deben considerar si estarían en condiciones de cumplir con sus obligaciones de presentación de informes, entre las que se incluyen las siguientes:
¿Quién es responsable de determinar si la IA está afectando sustancialmente a las decisiones sobre el personal, lo que podría requerir la presentación de informes en virtud de la ley? Considere la posibilidad de designar un equipo o una persona de contacto que se encargue de estas evaluaciones con el fin de garantizar la coherencia.
¿Cómo determinará un empleador que la IA está afectando sustancialmente a las decisiones sobre el personal? A menudo, son múltiples fuerzas matizadas las que impulsan los despidos o las contrataciones, y los empleadores tendrán que evaluar el papel potencial de la IA entre ellas. Si bien la determinación puede ser clara cuando un chatbot sustituye a un trabajador humano, puede no estarlo cuando las herramientas de IA se incorporan a los flujos de trabajo de varios empleados, impulsando la eficiencia a lo largo del tiempo.
¿Permiten los sistemas internos del empleador realizar un seguimiento de si la IA está afectando a las decisiones sobre el personal y de qué manera? Una documentación sólida podría ser fundamental para demostrar el cumplimiento normativo.
En resumen, los empleadores pueden querer evaluar de manera proactiva su toma de decisiones y la higiene de los datos para determinar si pueden identificar y documentar los puestos que se eliminan o se crean debido a la IA, así como los puestos que requieren formación adicional en IA.
Por supuesto, la complejidad de recopilar esta información solo sobre la base de cada empleador individual subraya las posibles preguntas de las partes interesadas sobre el valor de los datos agregados de un gran número de empleadores, cada uno con su propia interpretación de los criterios del proyecto de ley del Senado.
El proyecto de ley de la Cámara de Representantes: Supervisión humana y divulgación de herramientas de IA en el ámbito laboral
Tras la iniciativa del Senado de recopilar información sobre el uso de la IA por parte de los empleadores, un pequeño grupo bipartidista del Congreso presentó un proyecto de ley que regularía de forma más directa y exhaustiva dicho uso, principalmente exigiendo la supervisión humana y la divulgación de información a los empleados, entre otros requisitos.
El 3 de diciembre, los representantes Suzanne Bonamici, demócrata por Oregón, y Chris Deluzio, demócrata por Pensilvania, junto con el delegado James Moylan, republicano por Guam, presentaron la Ley contra los jefes robots de 2025. Si se aprueba, la ley se aplicaría a los empleadores con 11 o más empleados. Según Bonamici, el proyecto de ley exigiría, entre otras cosas, que los empleadores:
Auditar sus herramientas de IA en busca de problemas como la discriminación y los sesgos, tanto antes de utilizarlas como periódicamente.
Proporcionar una supervisión independiente y humana de la información, las decisiones, las predicciones o las recomendaciones generadas por las herramientas de IA que utiliza el empleador; y
Informar a los empleados sobre el uso que hace el empleador de herramientas de IA en decisiones relacionadas con el empleo, como la contratación, el despido, la remuneración, la promoción, la programación, las prestaciones y otras. [1]
La Ley contra los jefes robots de 2025 es la última versión de propuestas similares que se presentaron sin apoyo bipartidista en 2023 y 2024. Pero el destino de la versión de 2025 también es incierto, sobre todo teniendo en cuenta las críticas de Trump a una legislación estatal posiblemente similar.
Leyes estatales relativas a la IA
De hecho, varias jurisdicciones —entre ellas California, Colorado, Illinois, la ciudad de Nueva York y Texas— ya han aprobado sus propias leyes sobre el impacto de la IA en el empleo.[2] En términos generales, estas leyes restringen cómo y cuándo las empresas pueden utilizar la IA para tomar decisiones laborales.
Por ejemplo, California y Texas prohíben el uso de la IA de forma que discrimine a los solicitantes.[3]
Colorado, Illinois y la ciudad de Nueva York exigen que los empleadores afectados notifiquen a los empleados y solicitantes si utilizan IA para tomar decisiones de contratación y otras decisiones laborales.[4]
La ley sobre IA de la ciudad de Nueva York va más allá y prohíbe a los empleadores utilizar una herramienta de IA si no ha sido sometida a un tipo específico de auditoría de sesgos en el plazo de un año.[5]
Los empleadores que están sujetos a estas leyes estatales y utilizan la IA en sus procesos de contratación deben evaluar cuidadosamente sus procesos para garantizar el cumplimiento.
Por ejemplo, las leyes sobre IA de Illinois y Colorado, que entrarán en vigor en enero y junio, respectivamente, exigirán a los empleadores que proporcionen determinados avisos a los empleados o solicitantes sobre el uso de la IA. Los empleadores deben comprender cuándo se requieren dichas divulgaciones y estar preparados para proporcionarlas.
Otro ejemplo: los empleadores sujetos a la ley de la ciudad de Nueva York deben asegurarse de que cumplen los requisitos de auditoría de sesgos para el uso de herramientas de IA en el ámbito laboral.
Además, los empleadores que buscan candidatos remotos o que contratan trabajadores remotos también deben tener en cuenta que, aunque no tengan su sede en una jurisdicción con una ley sobre IA, el hecho de reclutar o contratar en dichas jurisdicciones los somete a la normativa de dichas jurisdicciones.
La Orden Ejecutiva de la Casa Blanca
Mientras los legisladores federales, estatales y locales se afanan en proponer regulaciones para la IA o regular su uso por parte de los empleadores, la Casa Blanca acaba de emitir una orden ejecutiva en la que critica la «regulación estatal excesiva» de la IA por frenar la innovación y, en su lugar, aboga por «un marco normativo nacional mínimamente gravoso para la IA».
Concretamente, el 11 de diciembre, la Casa Blanca emitió la Orden Ejecutiva n.º 14365, cuyo objetivo es desalentar las regulaciones estatales en materia de IA.[6]
La orden instruye al fiscal general a crear un grupo de trabajo dedicado a los litigios relacionados con la IA. Entre otras cosas, esta unidad se encargaría de impugnar la legislación estatal específica sobre IA que supuestamente entra en conflicto con los objetivos de la política nacional.
La orden también instruye al secretario de Comercio a publicar una revisión de las leyes estatales sobre IA en un plazo de 90 días y a restringir la financiación a los estados con leyes sobre IA que se consideren objetables.
La preferencia de la Casa Blanca por una política nacional de IA mínimamente restrictiva parece entrar en conflicto con los objetivos de los legisladores federales y estatales de ambos partidos, cuyas políticas y propuestas favorecen la legislación.
Por ejemplo, la orden critica explícitamente la prohibición de Colorado sobre la discriminación algorítmica, pero la Ley No Robot Bosses exige de manera similar que las herramientas de IA que se utilizan en el ámbito laboral se validen con respecto a la «ausencia de cualquier impacto discriminatorio potencial» de las herramientas.
Prevemos que la orden será objeto de impugnaciones legales, al igual que el grupo de trabajo sobre litigios relacionados con la IA que contempla la orden podría impugnar las leyes estatales sobre IA.
Mientras tanto, sin embargo, los empleadores que están sujetos a las leyes estatales sobre inteligencia artificial están obligados a cumplirlas, salvo que exista una orden judicial que indique lo contrario.
El resultado final
El proyecto de ley del Senado detallado anteriormente refleja el interés bipartidista por comprender cómo está afectando la IA a los trabajadores. Del mismo modo, la Ley contra los jefes robots sugiere que algunos miembros del Congreso quieren establecer límites al uso de la IA por parte de los empleadores, como ya han hecho algunos estados.
El resultado final y los contornos definitivos de estas propuestas siguen siendo desconocidos y, especialmente dada la postura favorable a la IA de Trump, podrían producirse muchos cambios. No obstante, los empleadores se beneficiarían ahora de supervisar de forma proactiva y metódica tanto su propio uso de la IA como de mantenerse al tanto de las actualizaciones de las leyes federales y estatales.
[2] Véase, por ejemplo, Código Regulatorio de California, título 2, § 11008-11097 (2025); Estatuto Revisado de Colorado § 6-1-1701 (2024); 775 III. Comp. Stat. 5/2-101-110 (2026); N.Y., Admin. Code §§ 20-870 a 20-874; Texas Responsible Artificial Intelligence Governance Act, 89.ª Legislatura, R.S., cap. 1174, 2025 Tex. Gen. Laws.
[3] Véase, por ejemplo, Código Regulatorio de California, título 2, § 11008-11097 (2025); Ley de Gobernanza Responsable de la Inteligencia Artificial de Texas, 89.ª Legislatura, R.S., cap. 1174, 2025 Tex. Gen. Laws.
[4] Véase, por ejemplo, Colo. Rev. Stat. § 6-1-1701 (2024); 775 III. Comp. Stat. 5/2-101-110 (2026); N.Y., Admin. Code §§ 20-870 – 20-874.
[5] Código Administrativo de la Ciudad de Nueva York, §§ 20-871. [6] https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/