A Califórnia é pioneira com novos regulamentos que abordam a utilização da IA nas decisões de emprego

Os regulamentos actualizados da Califórnia relativamente à utilização de Sistemas de Decisão Automatizados baseados em inteligência artificial (IA) no emprego entraram em vigor a 1 de outubro de 2025. Estes regulamentos abordam a utilização de "Sistemas de decisão automatizados", que os regulamentos definem como processos computacionais que tomam decisões ou facilitam a tomada de decisões humanas relativamente a um benefício laboral. De acordo com os regulamentos, "os sistemas de decisão automatizados podem ser derivados de e/ou utilizar inteligência artificial, aprendizagem automática, algoritmos, estatísticas e/ou outras técnicas de processamento de dados".
Os regulamentos tornam ilegal a utilização de um sistema de decisão automatizado que discrimine um candidato ou trabalhador com base numa categoria protegida ao abrigo da Lei do Emprego Justo e da Habitação da Califórnia (FEHA). Os regulamentos destinam-se a situações como: uma entidade patronal utiliza um sistema de decisão automática para fazer uma primeira análise dos currículos dos candidatos e o sistema de decisão automática elimina todos os candidatos com deficiência (ou de qualquer outra categoria protegida, como a idade, o sexo, etc.). Um exemplo fornecido pelos regulamentos envolve um Sistema de Decisão Automatizado que "analisa o tom de voz de um candidato, expressões faciais ou outras caraterísticas físicas ou comportamento [que] pode discriminar indivíduos com base na raça, nacionalidade, género, deficiência ou outras caraterísticas."
Nomeadamente, os regulamentos prevêem que "as provas, ou a falta de provas, de testes anti-preconceito ou de esforços pró-activos semelhantes para evitar a discriminação ilegal, incluindo a qualidade, a eficácia, a frequência e o âmbito de tais esforços, os resultados de tais testes ou outros esforços e a resposta aos resultados" são relevantes para qualquer queixa apresentada ao abrigo dos regulamentos.
Esta redação fornece um roteiro para os empregadores relativamente à prevenção contra reclamações baseadas na utilização de sistemas de decisão automatizados. As entidades patronais que utilizam sistemas de decisão automatizados devem tomar medidas de proteção, tais como auditar estes sistemas para detetar parcialidade e exigir que os vendedores certifiquem que tais sistemas foram exaustivamente testados para detetar parcialidade e que quaisquer questões de parcialidade foram suficientemente resolvidas. Como é frequentemente o caso, a Califórnia é um dos primeiros estados a abordar este tipo de tecnologia no contexto das suas leis laborais. Esperamos que outras jurisdições sigam o exemplo em breve.