Novas regulamentações sobre inteligência artificial (IA) e possíveis implicações fiduciárias
Os fiduciários devem estar cientes dos recentes desenvolvimentos envolvendo IA, incluindo mudanças emergentes e recentes nas leis estaduais, o aumento do interesse dos governos estaduais e federais em regulamentar a IA e o papel da IA nos litígios relacionados à ERISA. Embora muito do foco tenha sido direcionado ao impacto da IA nos planos de aposentadoria, que discutimos anteriormente aqui, os fiduciários de todos os tipos de planos, incluindo planos de saúde e benefícios sociais, também devem se manter informados sobre os recentes desenvolvimentos em IA.
Alterações recentes na legislação estadual
Vários estados codificaram recentemente novas leis com foco em IA, algumas das quais regulamentam os processos de tomada de decisão dos empregadores em matéria de recursos humanos. Os principais exemplos incluem:
- Califórnia – Em 2024, a Califórnia promulgou mais de 10 leis relacionadas à IA, abordando temas como:
- O uso de IA com conjuntos de dados que contenham nomes, endereços ou dados biométricos;
- Como comunicar informações sobre cuidados de saúde aos pacientes usando IA; e
- Tomada de decisões baseada em IA em tratamentos médicos e autorizações prévias.
Para obter informações adicionais sobre as novas leis de IA da Califórnia, consulte o Alerta ao Cliente da Foley, Decodificando a recente enxurrada de leis de IA da Califórnia.
- Illinois – Illinois aprovou uma legislação que proíbe os empregadores de usar IA em atividades de emprego de maneiras que levem a efeitos discriminatórios, independentemente da intenção. De acordo com a lei, os empregadores são obrigados a notificar os funcionários e candidatos se pretendem usar IA para qualquer finalidade relacionada ao local de trabalho.
Para obter informações adicionais sobre a nova lei de IA de Illinois, consulte o Alerta ao Cliente da Foley, Illinois promulga legislação para proteger contra implicações discriminatórias da IA em atividades de emprego.
- Colorado – A Lei de Inteligência Artificial do Colorado (CAIA), em vigor desde 1 de fevereiro de 2026, exige «cuidados razoáveis» quando os empregadores utilizam IA para determinadas aplicações.
Para obter informações adicionais sobre a nova lei de IA do Colorado, consulte o Alerta ao Cliente da Foley, Regulamentação da Inteligência Artificial na Tomada de Decisões de Emprego: O que está previsto para 2025.
Embora essas leis não visem especificamente os planos de benefícios dos funcionários, elas refletem uma tendência dos estados de regulamentar amplamente as práticas de recursos humanos, têm como objetivo regulamentar os processos de tomada de decisão de recursos humanos e fazem parte de um ambiente regulatório em evolução. Centenas de projetos de lei estaduais adicionais foram propostos em 2024, juntamente com decretos executivos relacionados à IA, sinalizando mais regulamentações futuras em 2025. Ainda há dúvidas sobre como essas leis se relacionam com os planos de benefícios dos funcionários e se a preempção federal da ERISA poderia se aplicar às tentativas estaduais de regulamentação.
Ações recentes do Governo Federal
O governo federal emitiu recentemente orientações destinadas a prevenir a discriminação na prestação de determinados serviços de saúde e concluiu um pedido de informações (RFI) para possíveis regulamentações de IA envolvendo o setor de serviços financeiros.
- Orientação sobre não discriminação da IA do Departamento de Saúde e Serviços Humanos (HHS) dos EUA – O HHS, através do seu Gabinete de Direitos Civis (OCR), publicou recentemente uma carta intitulada «Garantir a não discriminação através da utilização de inteligência artificial e outras tecnologias emergentes». Essa orientação enfatiza a importância de garantir que o uso de IA e outras ferramentas de apoio à tomada de decisões na área da saúde esteja em conformidade com as leis federais contra a discriminação, particularmente a Seção 1557 da Lei de Cuidados Acessíveis (Seção 1557).
A Secção 1557 proíbe a discriminação com base na raça, cor, nacionalidade, sexo, idade ou deficiência em programas e atividades de saúde que recebem assistência financeira federal. A orientação da OCR ressalta que os prestadores de cuidados de saúde, planos de saúde e outras entidades abrangidas não podem usar ferramentas de IA de forma a causar impactos discriminatórios nos pacientes. Isso inclui decisões relacionadas ao diagnóstico, tratamento e alocação de recursos. Os empregadores e patrocinadores de planos devem observar que esta orientação se aplica a um subconjunto de planos de saúde, incluindo aqueles que se enquadram na Secção 1557, mas não a todos os planos de saúde patrocinados por empregadores.
- Tesouro emite RFI para regulamentação da IA – Em 2024, o Departamento do Tesouro dos EUA publicou uma RFI sobre os usos, oportunidades e riscos da inteligência artificial no setor de serviços financeiros. A RFI incluiu várias considerações importantes, incluindo o tratamento do viés e da discriminação da IA, a proteção do consumidor e a privacidade dos dados, além dos riscos para usuários terceiros da IA. Embora a RFI ainda não tenha levado a regulamentações concretas, ela ressalta a atenção federal ao impacto da IA nos serviços financeiros e de benefícios aos funcionários. O ERISA Industry Committee, uma associação sem fins lucrativos que representa grandes empregadores dos EUA na sua qualidade de patrocinadores de planos de benefícios aos funcionários, comentou que a IA já está a ser usada para aplicações de preparação para a reforma, chatbots, gestão de carteiras, execuções comerciais e programas de bem-estar. As regulamentações futuras podem visar essas e outras áreas relacionadas.
Litígios ERISA com tecnologia de IA
Possíveis reclamações ERISA contra patrocinadores e fiduciários do plano estão a ser identificadas usando IA. Em apenas um exemplo, uma plataforma de IA, a Darrow AI, afirma ser:
«Concebido para simplificar a análise de grandes volumes de dados provenientes de documentos de planos, registos regulamentares e processos judiciais. A nossa tecnologia identifica com precisão discrepâncias, violações do dever fiduciário e outras violações da ERISA. A utilização das nossas análises avançadas permite-lhe identificar rapidamente potenciais reclamações, avaliar o seu impacto financeiro e construir casos sólidos... pode defender eficazmente os funcionários que procuram justiça em relação aos seus benefícios de reforma e saúde.»
Além disso, esta plataforma de IA afirma ser capaz de identificar violações que afetam muitos tipos de empregadores, sejam pequenas empresas ou grandes corporações, através da análise de diversas fontes de dados, incluindo notícias, registos da SEC, redes sociais, artigos académicos e outras fontes terceiras.
Notavelmente, os planos de saúde e benefícios sociais também estão a emergir como áreas de foco para litígios ERISA impulsionados por IA. Ferramentas de IA são usadas para analisar dados de reclamações, redes de prestadores e decisões administrativas, identificando potencialmente práticas discriminatórias ou inconsistências na determinação de benefícios. Por exemplo, a IA poderia destacar padrões de preconceito em autorizações prévias ou discrepâncias na forma como as leis de paridade em saúde mental são aplicadas.
A crescente sofisticação dessas ferramentas aumenta os riscos para os fiduciários, pois agora eles devem considerar a possibilidade de que potenciais requerentes utilizem IA para examinar suas decisões e planejar operações com precisão sem precedentes.
Próximos passos para os fiduciários
Para navegar neste cenário em evolução, os fiduciários devem tomar medidas proativas para gerir os riscos relacionados com a IA, ao mesmo tempo que aproveitam os benefícios destas tecnologias:
- Avaliar ferramentas de IA: Realizar uma avaliação formal das ferramentas de inteligência artificial utilizadas para a administração do plano, o envolvimento dos participantes e a conformidade. Essa avaliação inclui uma análise dos algoritmos, fontes de dados e processos de tomada de decisão envolvidos, incluindo uma avaliação para garantir que os seus produtos tenham sido avaliados quanto à conformidade com os padrões de não discriminação e não produzam inadvertidamente resultados tendenciosos.
- Prestadores de serviços de auditoria: Realizar auditorias abrangentes aos prestadores de serviços do plano para avaliar a sua utilização da IA. Solicitar divulgações detalhadas sobre os sistemas de IA em funcionamento, com foco em como eles mitigam o viés, garantem a segurança dos dados e cumprem os regulamentos aplicáveis.
- Revisar e atualizar políticas: Formular ou revisar políticas internas e estruturas de governança para monitorar a utilização da IA no planeamento operacional e a conformidade com as leis antidiscriminação. Essas políticas devem delinear diretrizes relativas à adoção, monitoramento e conformidade das tecnologias de IA, garantindo assim o alinhamento com as responsabilidades fiduciárias.
- Melhorar a mitigação de riscos:
- Seguro de responsabilidade fiduciária: considere obter ou melhorar o seguro de responsabilidade fiduciária para lidar com possíveis reclamações decorrentes do uso da IA.
- Privacidade e segurança dos dados: Reforçar as medidas de privacidade e segurança dos dados para proteger as informações confidenciais dos participantes processadas por ferramentas de IA.
- Mitigação de preconceitos: Estabeleça procedimentos para testar e validar regularmente as ferramentas de IA quanto a preconceitos, garantindo a conformidade com as leis antidiscriminação.
- Integrar considerações sobre IA nas solicitações de propostas (RFPs): Ao selecionar fornecedores, inclua critérios específicos relacionados à IA nas RFPs. Isso pode exigir que os fornecedores demonstrem ou certifiquem a conformidade com as regulamentações estaduais e federais e sigam as melhores práticas do setor para o uso de IA.
- Acompanhe os desenvolvimentos legais e regulatórios: mantenha-se informado sobre as novas regulamentações estaduais e federais relativas à IA, bem como sobre a jurisprudência em desenvolvimento relacionada à IA e aos litígios ERISA. Estabeleça um processo de revisões legais de rotina para avaliar como esses desenvolvimentos afetam as operações do plano.
- Oferecer formação: Educar fiduciários, administradores e funcionários relevantes sobre os riscos e benefícios potenciais da IA na administração de planos, tecnologias emergentes e a importância da conformidade com as leis aplicáveis. A formação deve fornecer uma visão geral das obrigações legais, melhores práticas para implementar a IA e estratégias para mitigar riscos.
- Due diligence documental: mantenha documentação abrangente de todas as etapas para avaliar e acompanhar as ferramentas de IA. Isso inclui registos de auditorias, comunicações com fornecedores e atualizações de políticas internas. Uma documentação clara pode funcionar como uma defesa crucial em caso de litígio.
- Avalie a aplicabilidade da Secção 1557 ao seu plano: Os fiduciários de planos de saúde e bem-estar devem determinar se o plano de saúde da sua organização está sujeito à Secção 1557 e se as orientações da OCR se aplicam diretamente às suas operações e, caso contrário, confirmar e documentar o motivo.
Os fiduciários devem permanecer vigilantes em relação ao papel crescente da IA nos planos de benefícios dos funcionários, especialmente em meio à incerteza regulatória. Tomar medidas proativas e adotar estratégias robustas de gestão de risco pode ajudar a mitigar riscos e garantir a conformidade com os padrões legais atuais e previstos. Ao se dedicarem à diligência e à transparência, os fiduciários podem aproveitar os benefícios da IA e, ao mesmo tempo, proteger os interesses dos participantes do plano. Na Foley & Lardner LLP, temos especialistas em IA, planeamento de aposentadoria, cibersegurança, trabalho e emprego, finanças, fintech, questões regulatórias, saúde e ERISA. Eles aconselham regularmente os fiduciários sobre riscos e responsabilidades potenciais relacionados a essas e outras questões relacionadas à IA.