Navegando pela IA no local de trabalho quando as políticas federais e estaduais entram em conflito
Este artigo foi originalmente publicado na Law360 em 7 de janeiro de 2026 e é republicado aqui com permissão.
Legisladores estaduais, federais e locais estão a debater uma legislação que visa compreender ou regulamentar o uso da inteligência artificial em decisões relacionadas ao emprego.
Os empregadores devem estar cientes de duas das iniciativas mais recentes que entraram na disputa: um projeto de lei bipartidário do Senado dos EUA que exigiria que certas empresas relatassem regularmente as decisões pessoais afetadas pela IA e um projeto de lei bipartidário da Câmara dos Representantes dos EUA que exigiria supervisão humana e divulgação das ferramentas de IA utilizadas nas decisões de emprego.
Essas propostas do Senado e da Câmara — juntamente com a legislação estadual — podem entrar em conflito com a recente ordem executiva da Casa Branca que exige uma estrutura nacional minimamente onerosa para a regulamentação da IA.
Com a enxurrada de prioridades concorrentes e várias abordagens sobre regulamentação, os empregadores devem permanecer atentos para continuar em conformidade.
No mínimo, isso significa que os empregadores devem ser capazes de compreender e explicar o uso da IA — uma tarefa que talvez seja mais fácil dizer do que fazer — e devem cumprir todas as leis estaduais aplicáveis enquanto aguardam novas orientações do governo federal.
O projeto de lei do Senado: atualizações trimestrais sobre o impacto da IA na força de trabalho
Em 5 de novembro, os senadores Josh Hawley, republicano do Missouri, e Mark Warner, democrata da Virgínia, apresentaram a Lei de Clareza sobre os Impactos da IA no Mercado de Trabalho — invocando a sua convicção de que precisamos de mais transparência sobre como a IA afeta a força de trabalho.
Para esse fim, o projeto de lei do Senado exigiria que as entidades abrangidas apresentassem relatórios trimestrais ao Departamento do Trabalho dos EUA identificando quantos funcionários foram demitidos porque as suas funções foram substituídas ou automatizadas pela IA, quantos funcionários foram contratados como resultado da adoção da IA pelo empregador e quantas vagas o empregador optou por não preencher por motivos substancialmente relacionados à substituição ou automação impulsionada pela IA.
Os empregadores também teriam de comunicar o número de funcionários que receberam nova formação devido à IA, juntamente com quaisquer informações adicionais sobre os impactos da IA no emprego que o secretário do Trabalho possa exigir.
O projeto de lei do Senado exigiria tais divulgações de empresas de capital aberto e do governo federal, bem como de um universo ainda desconhecido de empresas que não são de capital aberto.
Para o último grupo, o projeto de lei do Senado exige regulamentos, que devem ser emitidos no prazo de 180 dias após a aprovação, para definir quais empresas privadas estão abrangidas.
O projeto de lei do Senado exige que os regulamentos incluam categorias de empresas que não são negociadas publicamente, mas que têm uma «força de trabalho significativa, valor empresarial estimado ou impacto no emprego em nível regional ou nacional», considerando fatores como o tamanho do empregador, receita anual e classificação do setor.
O secretário do Trabalho seria responsável pela elaboração de relatórios trimestrais e anuais resumindo os dados comunicados pelas entidades abrangidas. Atualmente, o projeto de lei não tem outros coautores além de Hawley e Warner, e foi encaminhado à Comissão de Saúde, Educação, Trabalho e Pensões do Senado.
Não está claro com que rapidez o projeto de lei poderá ser aprovado pelo Senado e, em seguida, pela Câmara. Ainda menos claro é se o presidente Donald Trump aprovaria o projeto do Senado, tendo em vista os seus apelos por menos regulamentação estatal da IA.
O que isso significaria para os empregadores
Embora o projeto de lei do Senado esteja longe de ser aprovado, os empregadores devem considerar se estarão em condições de cumprir as suas obrigações de comunicação, incluindo as seguintes:
Quem é responsável por determinar se a IA está a afetar substancialmente as decisões relativas ao pessoal, exigindo, assim, potencialmente a apresentação de relatórios nos termos da lei? Considere designar uma equipa ou pessoa responsável por essas avaliações, a fim de garantir a consistência.
Como um empregador determinará que a IA está a afetar substancialmente as decisões relativas ao pessoal? Frequentemente, várias forças subtis impulsionam demissões ou contratações, e os empregadores terão de avaliar o papel potencial da IA entre elas. Embora a determinação possa ser clara quando um chatbot substitui um trabalhador humano, pode não ser clara quando as ferramentas de IA são incorporadas nos fluxos de trabalho de vários funcionários, impulsionando a eficiência ao longo do tempo.
Os sistemas internos da entidade empregadora permitem acompanhar se e como a IA está a afetar as decisões relativas ao pessoal? Uma documentação sólida pode ser fundamental para demonstrar a conformidade.
Em suma, os empregadores podem querer avaliar proativamente a sua tomada de decisões e higiene de dados para determinar se conseguem identificar e documentar cargos que estão a ser eliminados ou criados devido à IA, bem como cargos que exigem formação adicional em IA.
É claro que a complexidade de reunir essas informações apenas com base em cada empregador individualmente reforça as prováveis dúvidas das partes interessadas sobre o valor dos dados agregados de um grande número de empregadores, cada um com a sua própria interpretação dos critérios do projeto de lei do Senado.
Projeto de lei da Câmara: Supervisão humana e divulgação de ferramentas de IA no emprego
Na sequência da iniciativa do Senado de recolher informações sobre a utilização da IA pelos empregadores, um pequeno grupo bipartidário no Congresso apresentou um projeto de lei que regulamentaria de forma mais direta e abrangente essa utilização — principalmente exigindo supervisão humana e divulgação aos funcionários, entre outros requisitos.
Em 3 de dezembro, os deputados Suzanne Bonamici, D-Ore., e Chris Deluzio, D-Pa., juntamente com o deputado James Moylan, R-Guam, apresentaram a Lei No Robot Bosses Act of 2025. Se aprovada, a lei se aplicaria a empregadores com 11 ou mais funcionários. De acordo com Bonamici, o projeto de lei exigiria, entre outras coisas, que os empregadores:
Auditar as suas ferramentas de IA quanto a questões como discriminação e preconceito, tanto antes de as utilizar como periodicamente;
Fornecer supervisão humana independente das informações, decisões, previsões ou recomendações geradas pelas ferramentas de IA utilizadas pelo empregador; e
Divulgar aos funcionários o uso de ferramentas de IA pelo empregador em decisões relacionadas ao emprego, como contratação, demissão, remuneração, promoção, programação, benefícios e outros. [1]
A Lei contra Chefes Robôs de 2025 é a mais recente versão de propostas semelhantes que foram apresentadas sem apoio bipartidário em 2023 e 2024. Mas o destino da versão de 2025 também é incerto, especialmente devido às críticas de Trump a uma legislação estadual semelhante.
Leis estaduais relativas à IA
De facto, várias jurisdições — incluindo Califórnia, Colorado, Illinois, Nova Iorque e Texas — já aprovaram a sua própria legislação relativa ao impacto da IA no emprego.[2] Em termos gerais, estas leis restringem como e quando as empresas podem utilizar a IA na tomada de decisões relacionadas com o emprego.
Por exemplo, a Califórnia e o Texas proíbem o uso da IA de forma a discriminar candidatos.[3]
Colorado, Illinois e Nova Iorque exigem que os empregadores abrangidos notifiquem os funcionários e candidatos se estiverem a usar IA para tomar decisões de contratação e outras decisões relacionadas ao emprego.[4]
A lei de IA da cidade de Nova Iorque vai mais longe, proibindo os empregadores de utilizarem uma ferramenta de IA se esta não tiver sido submetida a um tipo específico de auditoria de preconceitos no prazo de um ano.[5]
Os empregadores que estão sujeitos a essas leis estaduais e utilizam IA nos seus processos de contratação devem avaliar cuidadosamente os seus processos para garantir a conformidade.
Por exemplo, as leis de IA em Illinois e Colorado, que entram em vigor em janeiro e junho, respetivamente, exigirão que os empregadores forneçam certas notificações aos funcionários ou candidatos sobre o uso de IA. Os empregadores devem entender quando essas divulgações são necessárias e estar preparados para fornecê-las.
Como outro exemplo, os empregadores sujeitos à lei da cidade de Nova Iorque devem garantir que estão a cumprir os requisitos de auditoria de preconceito para o uso de ferramentas de IA no emprego.
Além disso, os empregadores que procuram candidatos remotos ou empregam trabalhadores remotos também devem estar cientes de que, embora possam não estar sediados numa jurisdição com uma lei de IA, o seu recrutamento ou contratação nessas jurisdições os sujeita às regulamentações dessas jurisdições.
A ordem executiva da Casa Branca
Enquanto legisladores federais, estaduais e locais estão ocupados a propor regulamentações para a IA ou a regulamentar a sua utilização pelos empregadores, a Casa Branca acaba de emitir uma ordem executiva criticando a «regulamentação estatal excessiva» da IA como algo que sufoca a inovação e, em vez disso, apelando a «um quadro político nacional minimamente oneroso para a IA».
Especificamente, em 11 de dezembro, a Casa Branca emitiu a Ordem Executiva n.º 14365, que visa desencorajar regulamentações estaduais sobre IA.[6]
A ordem instrui o procurador-geral a criar uma força-tarefa dedicada a litígios relacionados à IA. Entre outras coisas, essa unidade seria responsável por contestar legislações estaduais específicas sobre IA que supostamente estejam em desacordo com os objetivos da política nacional.
A ordem também instrui o secretário do Comércio a publicar uma revisão das leis estaduais sobre IA dentro de 90 dias e a restringir o financiamento a estados com leis sobre IA consideradas questionáveis.
A preferência da Casa Branca por uma política nacional de IA minimamente onerosa parece entrar em conflito com os objetivos dos legisladores federais e estaduais de ambos os lados do espectro político, cujas políticas e propostas favorecem a legislação.
Por exemplo, a ordem critica explicitamente a proibição do Colorado à discriminação algorítmica, mas a Lei No Robot Bosses exige, de forma semelhante, que as ferramentas de IA utilizadas no emprego sejam validadas no que diz respeito à «ausência de qualquer impacto discriminatório potencial» das ferramentas.
Prevemos que a ordem será alvo de contestação judicial, assim como a força-tarefa de litígios de IA prevista na ordem poderá contestar as leis estaduais de IA.
Entretanto, os empregadores sujeitos às leis estaduais de IA são obrigados a cumprir essas leis, a menos que haja uma ordem judicial em contrário.
A linha de fundo
O projeto de lei do Senado detalhado acima reflete o interesse bipartidário em compreender como a IA está a afetar os trabalhadores. Da mesma forma, a Lei No Robot Bosses sugere que alguns membros do Congresso querem impor restrições ao uso da IA pelos empregadores — como já aconteceu em alguns estados.
A aprovação e os contornos finais dessas propostas ainda são desconhecidos e, especialmente devido à postura pró-IA de Trump, muita coisa pode mudar. No entanto, os empregadores se beneficiariam agora ao monitorar de forma proativa e metódica o seu próprio uso de IA e se manterem informados sobre as atualizações das leis federais e estaduais.
[2] Ver, por exemplo, Código Regulamentar da Califórnia, título 2, § 11008-11097 (2025); Estatuto Revisado do Colorado § 6-1-1701 (2024); 775 III. Comp. Stat. 5/2-101-110 (2026); N.Y., Admin. Code §§ 20-870 a 20-874; Lei de Governança Responsável da Inteligência Artificial do Texas, 89ª Leg., R.S., cap. 1174, 2025 Tex. Gen. Laws.
[3] Ver, por exemplo, Código Regulamentar da Califórnia, título 2, § 11008-11097 (2025); Lei de Governança Responsável da Inteligência Artificial do Texas, 89ª Legislatura, R.S., cap. 1174, 2025 Tex. Gen. Laws.
[4] Ver, por exemplo, Colo. Rev. Stat. § 6-1-1701 (2024); 775 III. Comp. Stat. 5/2-101-110 (2026); N.Y., Admin. Code §§ 20-870 – 20-874.
[5] Código Administrativo de Nova Iorque §§ 20-871. [6] https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/