Novas orientações da EEOC: o uso da inteligência artificial pode discriminar funcionários ou candidatos a emprego com deficiência
À medida que o uso da inteligência artificial se infiltra em todos os aspectos dos negócios e da cultura, a regulamentação governamental está (talvez muito lentamente) avançando para estabelecer limites legais ao seu uso.
Em 12 de maio de 2022, a Comissão de Oportunidades Iguais de Emprego emitiu uma nova orientação abrangente de “assistência técnica” intitulada A Lei dos Americanos com Deficiência e o Uso de Software, Algoritmos e Inteligência Artificial para Avaliar Candidatos a Empregos e Funcionários. A orientação, que abrange várias áreas, define algoritmos e inteligência artificial (IA); dá exemplos de como a IA é usada pelos empregadores; responde à questão da responsabilidade do empregador pelo uso de ferramentas de IA de fornecedores; exige acomodações razoáveis na implantação da IA neste contexto; aborda o problema da “triagem” da IA, que rejeita candidatos que, de outra forma, seriam qualificados para o emprego com acomodações razoáveis; exige limitações para evitar perguntas relacionadas a deficiências e questões médicas; promove “práticas promissoras” para empregadores, candidatos a emprego e funcionários; e dá muitos exemplos específicos de armadilhas de discriminação por deficiência no uso de ferramentas de IA.
Aqui estão algumas das principais conclusões da nova orientação:
Os empregadores podem estar sujeitos à responsabilidade da ADA pelo software de fornecedores de IA:
- Exposição ao risco para software de fornecedores. Os empregadores que utilizam ferramentas de tomada de decisão baseadas em IA para avaliar funcionários ou candidatos a emprego podem ser responsabilizados pela Lei dos Americanos com Deficiência (ADA) pelas falhas dessa tecnologia. Mesmo que a ferramenta de IA tenha sido desenvolvida ou administrada por um fornecedor terceirizado, o empregador pode ser responsabilizado, especialmente se tiver «concedido [ao fornecedor] autoridade para agir em seu nome».
- No lado do teste e no lado da acomodação. Isso significa que os empregadores precisam gerir o risco decorrente da ação ou inação do fornecedor de IA na administração da avaliação e na concessão de acomodações razoáveis. Se um indivíduo solicitar uma acomodação razoável devido a uma deficiência e o fornecedor negar o pedido, o empregador pode ser exposto pela inação do fornecedor, apesar de não ter conhecimento do pedido.
- Verifique o contrato com o fornecedor. Os empregadores devem analisar cuidadosamente as cláusulas de indenização e outras disposições que limitam e distribuem a responsabilidade nos contratos com fornecedores de IA.
As ferramentas Al podem ilegalmente “excluir” indivíduos qualificados com deficiência:
- Exclusões. As «exclusões » no contexto da IA podem ocorrer quando uma deficiência diminui o desempenho de um indivíduo num teste de emprego orientado por IA ou impede que um candidato seja considerado, em primeiro lugar, por não cumprir os critérios mínimos exigidos pela IA. De acordo com a ADA, uma exclusão é ilegal se a ferramenta excluir um indivíduo que é capaz de desempenhar as funções essenciais do trabalho com uma acomodação razoável.
- Exemplos. As ferramentas de IA podem excluir indivíduos com destreza manual limitada (para usar um teclado); com deficiência visual, auditiva ou de fala; com lacunas no histórico profissional devido a problemas de deficiência no passado; ou que sofrem de TEPT (distorcendo assim os resultados, por exemplo, de testes de personalidade ou testes de memória gamificados).
De acordo com a orientação: «Uma deficiência pode ter esse efeito [de exclusão], por exemplo, reduzindo a precisão da avaliação, criando circunstâncias especiais que não foram levadas em consideração ou impedindo o indivíduo de participar da avaliação.»
- Sem preconceitos? Algumas ferramentas de tomada de decisão baseadas em IA são comercializadas como «validadas» para serem «livres de preconceitos». Parece bom, mas essa rotulagem pode não se aplicar às deficiências, ao contrário do género, idade ou raça. As deficiências — físicas, mentais ou emocionais — abrangem uma ampla gama da vida, podem ser altamente individualizadas (incluindo no que diz respeito às adaptações necessárias) e, como tal, são menos suscetíveis a ajustes de software livres de preconceitos. Por exemplo, as dificuldades de aprendizagem muitas vezes podem passar despercebidas por observadores humanos, porque a sua gravidade e características variam muito. Os empregadores precisarão de garantias de que a IA pode fazer melhor.
Os ecrãs de IA podem gerar perguntas ilegais relacionadas com deficiências e questões médicas:
- Consultas ilegais. Ferramentas baseadas em IA podem gerar «consultas relacionadas com deficiências» ilegais ou procurar informações como parte de um «exame médico» antes de aprovar candidatos para ofertas condicionais de emprego.
De acordo com a orientação: “Uma avaliação inclui ‘perguntas relacionadas à deficiência’ se fizer perguntas a candidatos a emprego ou funcionários que possam revelar informações sobre uma deficiência ou perguntar diretamente se um candidato ou funcionário é uma pessoa com deficiência. Ela se qualifica como um “exame médico” se buscar informações sobre as deficiências físicas ou mentais ou a saúde de uma pessoa. Uma ferramenta algorítmica de tomada de decisão que possa ser utilizada para identificar as condições médicas de um candidato violaria estas restrições se fosse administrada antes de uma oferta condicional de emprego.»
- Falha indireta. Nem todas as perguntas relacionadas à saúde feitas por ferramentas de IA são consideradas «perguntas relacionadas a deficiências ou exames médicos».
De acordo com a orientação: «Mesmo que um pedido de informações relacionadas com a saúde não viole as restrições da ADA sobre inquéritos e exames médicos relacionados com deficiências, ainda assim pode violar outras partes da ADA. Por exemplo, se um teste de personalidade fizer perguntas sobre otimismo e se alguém com Transtorno Depressivo Maior (MDD) responder negativamente a essas perguntas e, como resultado, perder uma oportunidade de emprego, o teste pode 'rejeitar' o candidato por causa do MDD.”
Melhores práticas: Notificação clara sobre o que está a ser medido — e que acomodações razoáveis estão disponíveis:
Existem várias práticas recomendadas que os empregadores podem seguir para gerir o risco da utilização de ferramentas de IA. O guia denomina-as «Práticas Promissoras». Pontos principais:
- Divulgar os tópicos e a metodologia. Como prática recomendada, independentemente de o software/ferramenta/aplicação de IA ter sido desenvolvido por um fornecedor terceirizado, os empregadores (ou seus fornecedores) devem informar aos funcionários ou candidatos a emprego — em termos simples e compreensíveis — o que a avaliação envolve. Por outras palavras, divulgue antecipadamente os conhecimentos, competências, habilidades, formação, experiência, qualidades ou características que serão medidos ou avaliados com a ferramenta de IA. Da mesma forma, divulgue antecipadamente como os testes serão realizados e o que será necessário — usar um teclado, responder a perguntas verbalmente, interagir com um chatbot ou o que for necessário.
- Solicite pedidos de adaptações. Com essas informações, um candidato ou funcionário tem mais oportunidades de se manifestar com antecedência se sentir que será necessária alguma adaptação para deficientes. Assim, os empregadores devem considerar perguntar aos funcionários e candidatos a emprego se eles precisam de uma adaptação razoável usando a ferramenta.
-
- Deficiência óbvia ou conhecida: Se um funcionário ou candidato com uma deficiência óbvia ou conhecida solicitar uma acomodação, o empregador deve responder prontamente e de forma adequada a esse pedido.
-
- Deficiência não evidente: Se a deficiência não for evidente, o empregador pode solicitar documentação médica.
- Fornecer acomodações razoáveis. Uma vez confirmada a deficiência alegada, o empregador deve fornecer acomodações razoáveis, mesmo que isso signifique fornecer um formato alternativo de teste. É aqui que a orientação pode realmente entrar em conflito com o uso da IA. À medida que essas ferramentas se tornam endémicas, os testes alternativos podem parecer inadequados em comparação, e pode surgir uma potencial discriminação entre indivíduos testados por IA e indivíduos testados pela velha escola.
De acordo com as orientações: «Exemplos de adaptações razoáveis podem incluir equipamento especializado, testes ou formatos de teste alternativos, permissão para trabalhar num ambiente silencioso e exceções às políticas do local de trabalho.»
- Proteja as informações de saúde protegidas (PHI). Como sempre, quaisquer informações médicas obtidas em relação a pedidos de acomodação devem ser mantidas em sigilo e armazenadas separadamente do arquivo pessoal do funcionário ou candidato.
Com a crescente dependência da IA no setor privado, os empregadores terão de expandir a sua gestão proativa de riscos, de modo a controlar as consequências indesejadas desta tecnologia. As normas legais permanecem as mesmas, mas a tecnologia de IA pode levar os limites da conformidade. Além de envidar os melhores esforços nesse sentido, os empregadores devem analisar atentamente outros meios de gestão de riscos, tais como os termos dos contratos com fornecedores e a cobertura de seguros.
Este artigo foi elaborado com a ajuda da estagiária de verão de 2022, Ayah Housini.