Regulamentação da inteligência artificial na tomada de decisões relacionadas ao emprego: o que está previsto para 2025
A legislação laboral em 2024 poderia ser resumida como o «Ano da Legislação sobre Inteligência Artificial». De facto, todos os estados, exceto cinco, introduziram nova legislação sobre inteligência artificial (IA) em 2024, com quatro dos cinco estados excecionais simplesmente não tendo sessões legislativas em 2024. O Texas foi um desses estados excecionais, mas está prestes a juntar-se à maioria quando a sua legislatura se reunir novamente em janeiro de 2025 e considerar a legislação recentemente proposta, conhecida como Lei de Governança Responsável da IA do Texas (TRAIGA). À medida que entramos no novo ano, os empregadores — especialmente aqueles que operam em vários estados — precisam estar cientes da legislação atual e proposta relacionada à IA em suas jurisdições para garantir que continuem em conformidade com o cenário regulatório da IA em constante evolução.
A regulamentação da IA é um tema frequente neste blog porque, embora não exista uma legislação federal abrangente sobre o assunto, a Comissão de Oportunidades Iguais de Emprego (EEOC) e o Departamento do Trabalho (DOL) emitiram documentos de orientação e estão fortemente focados em garantir a supervisão humana da utilização responsável da IA. Existem muitas preocupações válidas, particularmente no uso de ferramentas de IA para a tomada de decisões em recursos humanos, que vão desde a privacidade de dados e discriminação algorítmica até a segurança no emprego e transparência.
Atualmente, um conjunto heterogéneo de regulamentações estaduais de complexidade variada foi implementado ou deverá entrar em vigor em breve. Um dos exemplos mais robustos e comentados de regulamentação de IA promulgada em 2024 foi a Lei de Inteligência Artificial do Colorado (CAIA), considerada uma das primeiras no mundo a definir e regulamentar de forma abrangente os «sistemas de inteligência artificial de alto risco». De acordo com a CAIA, os empregadores que utilizam essas ferramentas de IA devem tomar «cuidados razoáveis» para proteger os funcionários contra a discriminação algorítmica, incluindo a exigência de desenvolver uma política de gestão de riscos para mitigar possíveis preconceitos, bem como realizar avaliações de impacto anuais. Além disso, a CAIA inclui um requisito semelhante ao exigido pela Lei Federal de Relatórios de Crédito Justos (FCRA), no sentido de que os empregadores devem notificar os funcionários quando um sistema de IA de alto risco for utilizado para tomar decisões sobre eles. Embora a CAIA só entre em vigor em 1 de fevereiro de 2026, os empregadores devem começar a preparar-se agora para cumprir os seus rigorosos padrões.
A TRAIGA, recentemente proposta, propõe de forma semelhante regulamentar os desenvolvedores e implementadores de «sistemas de IA de alto risco». Especificamente, os implementadores de sistemas de IA de alto risco seriam obrigados a realizar avaliações de impacto detalhadas pelo menos semestralmente, incluindo monitorização contínua de discriminação algorítmica real ou suspeita, salvaguardas de cibersegurança e questões de transparência. Conforme proposto, a definição de «sistemas de IA de alto risco» incluiria qualquer ferramenta de inteligência artificial que seja um «fator contribuinte» para uma decisão ou oportunidade de emprego, o que significa que todos os empregadores do Texas que utilizam IA na sua tomada de decisões de RH poderiam potencialmente estar sujeitos ao âmbito de aplicação da TRAIGA. A TRAIGA inclui mecanismos de aplicação tanto governamentais como privados, tornando-a uma das legislações de IA mais importantes a acompanhar à medida que nos aproximamos de 2025.
Os empregadores devem seguir estas melhores práticas para responder à explosão da legislação sobre IA em 2024, incluindo a CAIA, bem como a legislação prevista, como a TRAIGA, no ano que vem:
- Avalie o panorama regulatório no(s) estado(s) em que opera para determinar quais obrigações de conformidade se aplicam à sua organização.
- Avalie quais ferramentas de inteligência artificial (por exemplo, filtros de currículos, sistemas de rastreamento de candidatos, chatbots, etc.) a sua organização está a utilizar.
- Comunique-se com os desenvolvedores das ferramentas de IA que a sua organização utiliza ou pretende implementar para desenvolver um plano de ação para cumprir as regulamentações aplicáveis.
- Desenvolva uma política organizacional sobre o uso de IA no local de trabalho, estabelecendo parâmetros para como essas ferramentas serão avaliadas e aprovadas para mitigar possíveis vieses algorítmicos e garantir transparência e privacidade de dados.
Para se manterem à frente da concorrência em 2025, os empregadores precisarão agir de forma rápida e estratégica, alinhando as suas práticas de RH com o quadro regulatório da IA, que está em rápida evolução.