Nouvelles réglementations en matière d'intelligence artificielle (IA) et implications fiduciaires potentielles
Les fiduciaires doivent être informés des développements récents concernant l'IA, notamment les changements législatifs émergents et récents au niveau des États, l'intérêt croissant des gouvernements fédéral et des États pour la réglementation de l'IA, et le rôle de l'IA dans les litiges liés à l'ERISA. Bien que l'accent ait été mis principalement sur l'impact de l'IA sur les plans de retraite, dont nous avons déjà parlé ici, les fiduciaires de tous types de plans, y compris les plans de santé et de prévoyance sociale, doivent également se tenir informés des développements récents en matière d'IA.
Modifications récentes apportées à la législation nationale
De nombreux États ont récemment codifié de nouvelles lois axées sur l'IA, dont certaines réglementent les processus décisionnels des employeurs en matière de ressources humaines. Voici quelques exemples clés :
- Californie – En 2024, la Californie a promulgué plus de 10 lois relatives à l'IA, traitant de sujets tels que :
- L'utilisation de l'IA avec des ensembles de données contenant des noms, des adresses ou des données biométriques ;
- Comment communiquer des informations sur les soins de santé aux patients à l'aide de l'IA ; et
- Prise de décision basée sur l'IA dans les traitements médicaux et les autorisations préalables.
Pour plus d'informations sur les nouvelles lois californiennes relatives à l'IA, consultez l'alerte client de Foley intitulée « Décrypter la récente vague de lois californiennes relatives à l'IA ».
- Illinois – L'Illinois a adopté une loi interdisant aux employeurs d'utiliser l'IA dans le cadre de leurs activités liées à l'emploi d'une manière qui entraîne des effets discriminatoires, quelle que soit leur intention. En vertu de cette loi, les employeurs sont tenus d'informer leurs employés et les candidats à un poste s'ils ont l'intention d'utiliser l'IA à des fins liées au lieu de travail.
Pour plus d'informations sur la nouvelle loi de l'Illinois relative à l'IA, consultez l'alerte client de Foley, « L'Illinois promulgue une loi visant à protéger contre les implications discriminatoires de l'IA dans les activités liées à l'emploi ».
- Colorado – La loi sur l'intelligence artificielle du Colorado (CAIA), qui entrera en vigueur le 1er février 2026, impose aux employeurs de faire preuve d'une « diligence raisonnable » lorsqu'ils utilisent l'IA pour certaines applications.
Pour plus d'informations sur la nouvelle loi du Colorado relative à l'IA, consultez l'alerte client de Foley, Réglementation de l'intelligence artificielle dans les décisions en matière d'emploi : perspectives pour 2025.
Bien que ces lois ne visent pas spécifiquement les régimes d'avantages sociaux des employés, elles reflètent une tendance des États à réglementer de manière générale les pratiques en matière de ressources humaines, visent à réglementer les processus décisionnels en matière de ressources humaines et s'inscrivent dans un environnement réglementaire en pleine évolution. Des centaines de projets de loi supplémentaires ont été proposés en 2024, ainsi que des décrets liés à l'IA, ce qui laisse présager une réglementation plus stricte en 2025. Des questions subsistent quant à l'interaction entre ces lois et les régimes d'avantages sociaux des employés, et quant à savoir si la préemption fédérale ERISA pourrait s'appliquer aux tentatives de réglementation des États.
Mesures récentes prises par le gouvernement fédéral
Le gouvernement fédéral a récemment publié des directives visant à prévenir la discrimination dans la prestation de certains services de santé et a rempli une demande d'informations (RFI) concernant d'éventuelles réglementations en matière d'IA impliquant le secteur des services financiers.
- Directives du ministère américain de la Santé et des Services sociaux (HHS) sur la non-discrimination dans le domaine de l'IA – Le HHS, par l'intermédiaire de son Bureau des droits civils (OCR), a récemment publié une lettre intitulée « Dear Colleague » (Chers collègues) intitulée « Ensuring Nondiscrimination Through the Use of Artificial Intelligence and Other Emerging Technologies » (Garantir la non-discrimination grâce à l'utilisation de l'intelligence artificielle et d'autres technologies émergentes). Ces directives soulignent l'importance de veiller à ce que l'utilisation de l'IA et d'autres outils d'aide à la décision dans le domaine des soins de santé soit conforme aux lois fédérales en matière de non-discrimination, en particulier à la section 1557 de la loi sur les soins abordables (section 1557).
La section 1557 interdit toute discrimination fondée sur la race, la couleur, l'origine nationale, le sexe, l'âge ou le handicap dans les programmes et activités de santé bénéficiant d'une aide financière fédérale. Les directives de l'OCR soulignent que les prestataires de soins de santé, les régimes d'assurance maladie et les autres entités concernées ne peuvent pas utiliser les outils d'IA d'une manière qui aurait des effets discriminatoires sur les patients. Cela inclut les décisions liées au diagnostic, au traitement et à l'allocation des ressources. Les employeurs et les promoteurs de régimes doivent noter que ces directives s'appliquent à un sous-ensemble de régimes de santé, notamment ceux qui relèvent de la section 1557, mais pas à tous les régimes de santé parrainés par les employeurs.
- Le Trésor publie une demande d'informations sur la réglementation de l'IA – En 2024, le département du Trésor américain a publié une demande d'informations sur les utilisations, les opportunités et les risques de l'intelligence artificielle dans le secteur des services financiers. Cette demande d'informations comprenait plusieurs considérations clés, notamment la lutte contre les préjugés et la discrimination liés à l'IA, la protection des consommateurs et la confidentialité des données, ainsi que les risques pour les utilisateurs tiers de l'IA. Bien que l'appel à commentaires n'ait pas encore donné lieu à des réglementations concrètes, il souligne l'attention portée par le gouvernement fédéral à l'impact de l'IA sur les services financiers et les avantages sociaux des employés. L'ERISA Industry Committee, une association à but non lucratif représentant les grands employeurs américains en leur qualité de promoteurs de régimes d'avantages sociaux, a fait remarquer que l'IA est déjà utilisée pour les applications de préparation à la retraite, les chatbots, la gestion de portefeuille, l'exécution des transactions et les programmes de bien-être. Les futures réglementations pourraient cibler ces domaines et d'autres domaines connexes.
Litiges ERISA basés sur l'IA
Les réclamations potentielles au titre de l'ERISA à l'encontre des promoteurs et des fiduciaires de régimes sont identifiées à l'aide de l'IA. À titre d'exemple, une plateforme d'IA, Darrow AI, affirme être :
« Conçue pour simplifier l'analyse de grands volumes de données provenant de documents de plans, de déclarations réglementaires et d'affaires judiciaires. Notre technologie identifie avec précision les divergences, les manquements aux obligations fiduciaires et autres violations de l'ERISA. L'utilisation de nos analyses avancées vous permet d'identifier rapidement les réclamations potentielles, d'évaluer leur impact financier et de monter des dossiers solides... vous pouvez ainsi défendre efficacement les employés qui cherchent à obtenir justice en matière de retraite et de prestations de santé. »
De plus, cette plateforme d'IA prétend pouvoir détecter les violations touchant de nombreux types d'employeurs, qu'il s'agisse de petites entreprises ou de grandes sociétés, en analysant diverses sources de données, notamment les actualités, les documents déposés auprès de la SEC, les réseaux sociaux, les articles universitaires et d'autres sources tierces.
Il convient de noter que les régimes de santé et de prévoyance sociale apparaissent également comme des domaines prioritaires pour les litiges ERISA basés sur l'IA. Les outils d'IA sont utilisés pour analyser les données relatives aux demandes de remboursement, les réseaux de prestataires et les décisions administratives, ce qui permet d'identifier les pratiques discriminatoires ou les incohérences dans la détermination des prestations. Par exemple, l'IA pourrait mettre en évidence des biais dans les autorisations préalables ou des divergences dans l'application des lois sur la parité en matière de santé mentale.
La sophistication croissante de ces outils augmente les enjeux pour les fiduciaires, car ils doivent désormais envisager la possibilité que des demandeurs potentiels utilisent l'IA pour examiner leurs décisions et planifier leurs opérations avec une précision sans précédent.
Prochaines étapes pour les fiduciaires
Pour naviguer dans ce paysage en pleine évolution, les fiduciaires doivent prendre des mesures proactives pour gérer les risques liés à l'IA tout en tirant parti des avantages de ces technologies :
- Évaluer les outils d'IA: procéder à une évaluation formelle des outils d'intelligence artificielle utilisés pour l'administration des plans, l'engagement des participants et la conformité. Cette évaluation comprend un examen des algorithmes, des sources de données et des processus décisionnels impliqués, y compris une évaluation visant à garantir que leurs produits ont été évalués pour vérifier leur conformité aux normes de non-discrimination et qu'ils ne produisent pas involontairement des résultats biaisés.
- Prestataires de services d'audit: réaliser des audits complets des prestataires de services du régime afin d'évaluer leur utilisation de l'IA. Demander des informations détaillées sur les systèmes d'IA en service, en mettant l'accent sur la manière dont ils atténuent les biais, garantissent la sécurité des données et respectent les réglementations applicables.
- Réviser et mettre à jour les politiques: Formuler ou réviser les politiques internes et les cadres de gouvernance afin de surveiller l'utilisation de l'IA dans la planification opérationnelle et le respect des lois anti-discrimination. Ces politiques doivent définir des lignes directrices relatives à l'adoption, à la surveillance et à la conformité des technologies d'IA, garantissant ainsi leur alignement sur les responsabilités fiduciaires.
- Améliorer l'atténuation des risques:
- Assurance responsabilité civile fiduciaire: envisagez de souscrire ou d'améliorer votre assurance responsabilité civile fiduciaire afin de faire face aux réclamations potentielles liées à l'utilisation de l'IA.
- Confidentialité et sécurité des données: renforcer les mesures de confidentialité et de sécurité des données afin de protéger les informations sensibles des participants traitées par les outils d'IA.
- Réduction des biais: mettre en place des procédures pour tester et valider régulièrement les outils d'IA afin de détecter les biais, en veillant au respect des lois anti-discrimination.
- Intégrer les considérations relatives à l'IA dans les appels d'offres (RFP): lors de la sélection des fournisseurs, inclure des critères spécifiques liés à l'IA dans les appels d'offres. Cela peut nécessiter que les fournisseurs démontrent ou certifient leur conformité aux réglementations nationales et fédérales et adhèrent aux meilleures pratiques du secteur en matière d'utilisation de l'IA.
- Suivre les évolutions juridiques et réglementaires: Restez informé des nouvelles réglementations fédérales et étatiques en matière d'IA, ainsi que de l'évolution de la jurisprudence relative à l'IA et aux litiges ERISA. Mettez en place un processus d'examens juridiques réguliers afin d'évaluer l'impact de ces évolutions sur le fonctionnement des régimes.
- Offrir une formation: Sensibiliser les fiduciaires, les administrateurs et le personnel concerné aux risques et avantages potentiels de l'IA dans l'administration des régimes, aux technologies émergentes et à l'importance de se conformer aux lois applicables. La formation devrait donner un aperçu des obligations légales, des meilleures pratiques pour la mise en œuvre de l'IA et des stratégies pour atténuer les risques.
- Diligence raisonnable en matière de documentation: conservez une documentation complète de toutes les étapes d'évaluation et de suivi des outils d'IA. Cela comprend les registres d'audits, les communications avec les fournisseurs et les mises à jour des politiques internes. Une documentation claire peut constituer un moyen de défense crucial en cas de litige.
- Évaluez l'applicabilité de la section 1557 à votre régime: les fiduciaires des régimes de santé et de prévoyance sociale doivent déterminer si le régime de santé de votre organisation est soumis à la section 1557 et si les directives de l'OCR s'appliquent directement à vos activités. Si ce n'est pas le cas, confirmez et documentez les raisons pour lesquelles ce n'est pas le cas.
Les fiduciaires doivent rester vigilants face au rôle croissant de l'IA dans les régimes d'avantages sociaux des employés, en particulier dans un contexte d'incertitude réglementaire. La prise de mesures proactives et l'adoption de stratégies solides de gestion des risques peuvent contribuer à atténuer les risques et à garantir la conformité aux normes juridiques actuelles et prévues. En s'engageant à faire preuve de diligence et de transparence, les fiduciaires peuvent tirer parti des avantages de l'IA tout en préservant les intérêts des participants au régime. Chez Foley & Lardner LLP, nous disposons d'experts en IA, en planification de la retraite, en cybersécurité, en droit du travail et de l'emploi, en finance, en technologie financière, en matière réglementaire, en soins de santé et en ERISA. Ils conseillent régulièrement les fiduciaires sur les risques et responsabilités potentiels liés à ces questions et à d'autres questions liées à l'IA.