Tenha cuidado ao retirar o elemento humano dos recursos humanos: a Lei de Inteligência Artificial do Colorado terá impacto imediato sobre os empregadores
O papel da inteligência artificial (IA) tem vindo a aumentar nas nossas vidas quotidianas, desde chatbots de atendimento ao cliente e assistentes digitais até dispositivos domésticos inteligentes omnipresentes. Da mesma forma, o alcance da tecnologia está a expandir-se rapidamente para os recursos humanos. Muitas empresas utilizam IA para acompanhar o desempenho dos funcionários: por exemplo, a IA pode ser utilizada para avaliar o desempenho de vendas dos funcionários através de dados eletrónicos ou avaliar os resultados dos projetos. É mais comum do que nunca que os empregadores utilizem ferramentas de IA para selecionar candidatos a vagas ou promoções, incluindo a análise de currículos e candidaturas. A EEOC relata que até 99% das empresas da Fortune 500 utilizam alguma forma de IA para selecionar ou classificar candidatos a vagas. Embora essas ferramentas muitas vezes economizem tempo e simplifiquem o acesso às informações, alguns usos estão sendo analisados por agências federais (como o Departamento do Trabalho) e legislaturas estaduais.
O Colorado entrou na discussão em 17 de maio de 2024, quando o governador Jared Polis assinou a Lei de Inteligência Artificial do Colorado (CAIA). Com entrada em vigor prevista para 1 de fevereiro de 2026, a lei aborda de forma ampla o uso da IA em contextos de consumo, incluindo o emprego. A CAIA inclui disposições que exigem que tanto os desenvolvedores quanto os implementadores de ferramentas de IA tomem os cuidados razoáveis para evitar a discriminação através do uso de sistemas de IA de “alto risco”. Para entender as considerações, algumas definições legais são úteis:
- Os implementadores incluem aqueles que fazem negócios no Colorado utilizando um sistema de IA de «alto risco».
- Um sistema de «alto risco» é qualquer sistema de IA que «toma, ou é um fator substancial na tomada de, uma decisão consequente», incluindo decisões relacionadas com emprego ou oportunidades de emprego.
- Um «fator substancial» refere-se à utilização de um sistema de IA para gerar qualquer conteúdo, decisão, previsão ou recomendação relativa a um consumidor que seja utilizada como base para tomar uma «decisão consequente» relativamente a esse consumidor.
- «Consumidor» significa um indivíduo residente no Colorado.
A CAIA aplica-se a todos os empregadores do Colorado, isentando apenas aqueles com menos de 50 funcionários que não utilizam as suas próprias informações ou dados para ensinar ou melhorar o sistema de IA em uso, ou aqueles que utilizam sistemas que atendem a determinados critérios. Um dos objetivos da lei é garantir que os algoritmos de IA não retornem resultados discriminatórios com base na idade real ou percebida, cor, deficiência, etnia ou outras características protegidas. Os utilizadores de sistemas de IA no recrutamento e contratação são responsáveis por tomar as precauções razoáveis para proteger os candidatos a vagas de quaisquer riscos conhecidos ou razoavelmente previsíveis de discriminação. Embora isso esteja em conformidade com as leis atuais que exigem que os empregadores utilizem práticas de contratação não discriminatórias, a CAIA vai além, exigindo que os empregadores que utilizam IA nesse processo tomem certas medidas afirmativas.
- Especificamente, a CAIA impõe uma série de medidas aos implementadores que utilizam IA e que não estão isentos de outra forma. Algumas das obrigações mais proeminentes incluem requisitos para que o implementador implemente uma política e um programa de gestão de riscos para reger a utilização do sistema de IA. A política deve ser regularmente revista e atualizada.
- Realizar uma avaliação de impacto para o sistema de IA.
- Notificar o consumidor de que a IA está a ser utilizada para tomar uma decisão importante antes que a decisão seja tomada e divulgar a finalidade do sistema, as informações de contacto do implementador, uma descrição do programa e como aceder a informações adicionais.
- Notificar o procurador-geral no prazo de 90 dias se descobrir que os algoritmos utilizados pelo sistema de IA causam um resultado discriminatório.
No caso de uma ação adversa ao consumidor, o implementador deve, entre outras coisas:
- Divulgar ao consumidor a(s) principal(is) razão(ões) para a decisão, incluindo:
- O grau e a forma como o sistema de IA contribuiu para a decisão
- O tipo de dados que foi processado pelo sistema de IA relacionado com a decisão
- A fonte dos dados considerados
- Oferecer uma oportunidade para corrigir quaisquer dados incorretos utilizados pelo sistema de IA.
- Ofereça a oportunidade de recorrer da decisão por meio de uma revisão humana.
É importante ressaltar que, quando um implementador cumprir as suas obrigações nos termos da CAIA, terá direito a uma presunção refutável de que, de facto, tomou as precauções razoáveis para proteger os consumidores contra riscos previsíveis de discriminação por meio do sistema de IA.
A CAIA também prevê mecanismos de aplicação pública; no entanto, a lei estipula expressamente que os indivíduos não têm o direito de processar judicialmente por violações da CAIA. O procurador-geral do Colorado é responsável pela aplicação da lei. Os implementadores que agirem prontamente para corrigir violações e, de modo geral, mantiverem os sistemas em conformidade com as práticas geralmente aceites de gestão de riscos de IA podem ter uma defesa afirmativa contra ações de aplicação da lei. Quando contestado, o implementador tem o ônus de demonstrar a conformidade com essas defesas.
Embora a lei esteja prevista para entrar em vigor no início de 2026, ela ainda está sujeita a novas regulamentações. O governador Polis — que foi um empreendedor da era dot.com, tendo fundado um provedor de acesso à Internet e vários varejistas online conhecidos antes de entrar na política — também informou ao legislativo que o longo prazo antes da entrada em vigor da lei tem como objetivo permitir que o governo considere e refine ainda mais o estatuto, que é inerentemente complicado tanto em termos de conformidade técnica quanto no que diz respeito à navegação em um cenário potencialmente complexo de regulamentação nacional.
Os empregadores que utilizam ferramentas de IA no recrutamento ou contratação de residentes do Colorado devem usar os próximos 18 meses para ajustar os seus sistemas, abordagens e processos para evitar a discriminação por meio da tecnologia. O tempo voa, especialmente quando os prazos de conformidade se aproximam. Adotar uma visão proativa ajudará a evitar possíveis armadilhas da IA no recrutamento.