L'intelligence artificielle générative (IA) et les implications fiduciaires des plans 401(k)
L'IA apparaît comme une force de transformation majeure dans divers secteurs, notamment la finance et la planification de la retraite. Comme tout le monde, les fiduciaires se tournent de plus en plus vers des outils et des algorithmes basés sur l'IA pour optimiser leurs stratégies d'investissement, améliorer leurs processus décisionnels et obtenir de meilleurs résultats pour les participants. Cependant, l'intégration de l'IA dans la gestion des plans 401(k) présente des défis. Si les fiduciaires ont le devoir d'agir avec prudence et dans le meilleur intérêt des participants au plan, qu'est-ce que cela signifie à l'ère de l'IA ? Pour comprendre ce que cela signifie, les fiduciaires devraient envisager de mener une évaluation formelle de l'impact de l'IA sur leur plan 401k. Cela peut inclure l'examen du processus de sélection des investissements, des performances des investissements, du processus des conseillers/gestionnaires en investissement, des capacités des gestionnaires de dossiers, des risques potentiels liés à l'utilisation (ou à la non-utilisation) de l'IA, et de son impact sur le service et l'expérience globale des participants au plan. Sur la base des résultats d'une évaluation formelle, une surveillance fiduciaire continue de l'IA peut être justifiée.
Les fiduciaires du plan 401(k) et le processus du comité d'investissement
La plupart des plans 401(k) sont structurés de manière à offrir un menu de base d'investissements avec des choix spécifiques sélectionnés par les participants au plan. De nombreux plans proposent une alternative d'investissement par défaut qualifiée, sélectionnée par les fiduciaires. En règle générale, les fiduciaires 401(k) sont organisés en un comité d'investissement (le Comité) dont les fonctions sont définies dans une charte détaillée. Le Comité établit généralement l'éventail d'options d'investissement parmi lesquelles les participants au plan peuvent choisir, et fait souvent appel à un conseiller en investissement ERISA 3(21) pour l'aider dans ce processus de sélection. Ce conseiller est un fiduciaire au sens de l'ERISA, car il fournit ses conseils au Comité moyennant des honoraires. Cependant, même lorsqu'il fait appel à un conseiller 3(21), le Comité ne peut pas simplement approuver sans discussion les recommandations de ce dernier, car il conserve le pouvoir ultime de déterminer les options d'investissement proposées aux participants au plan. En outre, certains plans 401(k) proposent des comptes de courtage autogérés (SDBA), qui offrent des centaines, voire des milliers, de choix d'investissement potentiels. Les directives du ministère américain du Travail concernant les obligations fiduciaires liées aux SDBA sont actuellement en attente.
Dans certains cas, le promoteur du plan 401(k), généralement un employeur, n'est pas à l'aise pour examiner ou prendre des décisions fiduciaires et nomme à la place un gestionnaire d'investissement ERISA 3(38), qui crée et met en œuvre le menu d'investissement proposé aux participants au plan.
L'impact de l'IA sur les plans de retraite et les fiduciaires 401(k)
Blackrock a annoncé « La révolution de l'IA dans le domaine de la retraite », car « elle peut être utilisée pour obtenir des informations précoces sur les activités économiques dans différentes régions, qui peuvent ensuite être utilisées pour orienter les portefeuilles au niveau macro (par exemple, régional) et micro (par exemple, au niveau des entreprises) ». Blackrock n'est pas une exception : l'IA gagne du terrain dans les secteurs des plans de retraite, des investissements et des services financiers. Plus précisément, l'IA est utilisée pour :
- Suivre les mots positifs et négatifs dans les documents, les transcriptions et les conférences téléphoniques sur les résultats financiers ;
- Personnaliser les messages destinés aux participants au régime et aux clients potentiels (utilisation de Persado par Vanguard) ;
- Assister les conseillers financiers grâce à l'utilisation de l'IA (utilisation par Morgan Stanley d'OpenAI GPT-4) ;
- Automatisez vos investissements grâce aux robots-conseillers numériques (Intelligent Portfolios de Charles Schwab) ;
- Créer des fonds négociés en bourse (FNB), y compris des FNB visant à la fois à investir dans le secteur de l'IA (Global X Robotics & Artificial Intelligence ETF) et à utiliser l'IA pour prendre des décisions d'investissement à grande échelle (voir Qraft AI-Enhanced U.S. Large Cap ETF) ; et
- Fonds d'actions gérés activement (voir l'utilisation de l'IA par Vanguard dans des fonds d'actions quantitatifs d'une valeur de 13 milliards de dollars).
Mais tout n'est pas rose dans le domaine de l'IA. Le mois dernier, l'Union européenne a approuvé une nouvelle loi sur l'intelligence artificielle visant à créer un cadre réglementaire destiné à protéger les consommateurs. Et le Fonds monétaire international a récemment discuté des risques inhérents à l'adoption de l'IA dans le secteur des services financiers, notamment les biais intégrés, les préoccupations en matière de confidentialité, l'opacité des résultats, les cybermenaces uniques et le potentiel de création de nouvelles sources et de nouveaux canaux de transmission de risques systémiques. Même Elon Musk a déclaré à plusieurs reprises que l'IA pourrait être plus dangereuse pour l'humanité que les armes nucléaires.
Presque tous les jours, nous entendons parler de l'IA. Que devraient faire les fiduciaires à ce sujet, le cas échéant ? Voici quelques considérations possibles :
- Le conseiller en placement actuel 3(21) utilise-t-il l'IA de manière appropriée (ou inappropriée) ?
- S'il existe un gestionnaire de placements 3(38), quelle part du travail est automatisée par l'IA, et le promoteur du régime comprend-il l'effet que cela peut avoir sur les participants au régime ?
- Quels sont les risques associés à l'utilisation (ou à la non-utilisation) de l'IA pour aider à sélectionner des options d'investissement ?
- Quel est le risque de désinformation ou de résultats biaisés ?
- Qui est responsable si les conseils de l'IA conduisent à de mauvaises décisions d'investissement ?
- Comment évaluer la qualité et l'exactitude du contenu produit ? Si l'IA génère des conseils d'investissement ou des analyses de marché pour un plan 401(k), comment les fiduciaires peuvent-ils s'assurer que les informations sont fiables et conformes à la réglementation ? Il existe un risque de désinformation ou de résultats biaisés, ce qui pourrait conduire à de mauvaises décisions d'investissement.
- Si le 401(k) autorise les SDBA, cela devrait-il se limiter à la réduction des risques liés à l'IA ?
- Les fiduciaires comprennent-ils le fonctionnement de l'IA, ses biais et son impact potentiel sur les décisions d'investissement ?
- Le gestionnaire de dossiers utilise-t-il l'IA pour lutter contre les menaces liées à la cybersécurité, communiquer avec les participants ou à d'autres fins ?
- Une évaluation de la confidentialité ou de la sécurité a-t-elle été effectuée sur les systèmes d'IA ? Ces systèmes sont alimentés par de vastes quantités de données sensibles sur les participants, ce qui en fait des cibles de choix pour les acteurs malveillants cherchant à exploiter les faiblesses des protocoles de sécurité. Une violation de données ou une cyberattaque pourrait non seulement compromettre l'intégrité du régime de retraite, mais aussi exposer les fiduciaires à des répercussions juridiques et réglementaires.
- Le responsable de la tenue des registres autorise-t-il la société à renoncer à l'utilisation de l'IA ?
- Les participants individuels au régime sont-ils autorisés à refuser l'utilisation de l'IA ?
- Les avantages des fonctions d'archivage basées sur l'IA l'emportent-ils sur les risques potentiels ?
- Le comité devrait-il solliciter l'avis d'un professionnel indépendant sur ce que l'IA peut lui apporter en tant que ressource pour satisfaire à ses obligations fiduciaires en vertu de l'ERISA ?
Si l'IA peut révolutionner la gestion des plans 401(k), elle a toutefois ses limites et ses contraintes. Les algorithmes d'IA ne tiennent pas correctement compte des événements imprévus et des fluctuations du marché. Si l'IA excelle dans l'analyse des données historiques et l'identification de modèles, elle peut avoir du mal à s'adapter à des changements soudains ou à des événements « cygnes noirs », exposant les fiduciaires à des pertes inattendues. Tout comme il n'y a pas deux flocons de neige ou deux empreintes digitales identiques, il en va de même pour les algorithmes d'IA. Leur capacité repose sur la qualité et la quantité des données disponibles pour l'entraînement, ce qui entraîne de grandes différences de performances et de fiabilité entre les algorithmes d'IA. Lorsque les données sont limitées, obsolètes ou biaisées, ou lorsque les systèmes d'IA perpétuent ou amplifient involontairement les biais existants dans les données utilisées pour l'entraînement, les systèmes d'IA peuvent produire des résultats peu fiables ou biaisés, des recommandations d'investissement faussées et un traitement inégal des participants au plan, ce qui conduit à des décisions d'investissement sous-optimales. Les fiduciaires doivent faire preuve de prudence lorsqu'ils s'appuient sur des recommandations générées par l'IA et s'assurer que les algorithmes sont entraînés à partir de données complètes et précises.
Si l'IA pourrait un jour mieux comprendre les émotions humaines, à l'heure actuelle, les algorithmes d'IA peuvent manquer de l'intuition et du jugement humains nécessaires pour naviguer efficacement dans des environnements d'investissement complexes. Si l'IA excelle dans le traitement de grandes quantités de données et l'identification des tendances, elle peut avoir du mal à intégrer des facteurs qualitatifs, le sentiment du marché et des évaluations subjectives dans les décisions d'investissement.
Il n'existe pas de réponse claire à ces questions, c'est là qu'intervient le processus décisionnel fiduciaire.
Risques liés à la prise de décisions fiduciaires et responsabilités potentielles
Comme le savent tous les promoteurs de régimes impliqués dans des litiges relatifs aux frais des plans 401(k), l'un des facteurs les plus critiques dans les litiges ERISA est le processus. D'une part, le processus peut équivaloir à monter une défense, obtenir le rejet d'une action en justice à un stade précoce et réduire les règlements potentiels. D'autre part, le non-respect d'un processus documenté peut entraîner des litiges coûteux, des règlements importants et une perception d'irrégularité associée à une atteinte à la réputation, même si la plainte ERISA sous-jacente est largement sans fondement.
L'IA peut également être utilisée pour poursuivre les promoteurs et les fiduciaires d'un régime. Si la feuille de route du litige sur les frais liés aux plans 401k est suivie, les réclamations liées à l'IA s'attaqueront au processus décisionnel des fiduciaires, ou à son absence, en affirmant que les participants au régime ont été lésés par la négligence, l'indifférence ou le manque de compétence des fiduciaires concernant l'impact de l'IA sur le secteur des plans de retraite. Contrairement aux stratégies d'investissement traditionnelles, où les décisions sont prises sur la base de critères clairs et compréhensibles, les algorithmes d'IA fonctionnent souvent comme des « boîtes noires », ce qui rend difficile pour les fiduciaires de comprendre et de justifier le raisonnement qui sous-tend les recommandations générées par l'IA. Ce manque de transparence peut éroder la confiance des participants et des régulateurs dans le régime de retraite, ce qui peut entraîner des risques de litiges. Les plaintes peuvent alléguer que les performances des investissements ont souffert par rapport à d'autres plans qui utilisaient (ou n'utilisaient pas) l'IA, et que les participants au plan auraient été mieux lotis si le gestionnaire avait utilisé (ou n'avait pas utilisé) l'IA pour la cybersécurité, la communication avec les participants, d'autres fonctions essentielles du plan ou d'autres revendications novatrices. Les poursuites judiciaires sous-jacentes adopteront une approche globale, même si les revendications sous-jacentes sont peu ou pas fondées. L'objectif est d'obtenir la divulgation des pièces dans l'espoir de découvrir un problème de procédure et d'obtenir un règlement coûteux.
Solutions
L'intégration de l'IA dans la gestion des plans 401(k) présente à la fois des opportunités et des défis pour les fiduciaires. Si l'IA a le potentiel de révolutionner les processus décisionnels et d'améliorer les résultats pour les participants, elle introduit également de nouveaux risques et contraintes qui doivent être pris en compte.
En ce qui concerne les litiges liés à l'ERISA, nous pensons que la décision effective d'utiliser (ou de ne pas utiliser) l'IA passera au second plan par rapport à la question de savoir si les fiduciaires du régime disposaient d'un processus pour évaluer les questions liées à l'IA et si ce processus a été suivi. En fin de compte, les fiduciaires pourraient devoir mettre en balance les avantages et les risques explicitement associés à l'utilisation (ou à la non-utilisation) de l'IA. Parmi les solutions possibles, on peut citer :
- Inscrire l'évaluation de l'IA dans les attributions officielles du comité. Cela comprend la définition claire des rôles et responsabilités des parties prenantes impliquées dans la mise en œuvre de l'IA, la réalisation d'audits et d'évaluations réguliers des systèmes d'IA afin de garantir leur conformité avec les exigences réglementaires et les meilleures pratiques, et la mise en place de mécanismes de surveillance et d'atténuation des biais algorithmiques.
- Remettre en question (et documenter cette remise en question) l'utilisation et les options liées à l'IA par le conseiller 3(21) ou le gestionnaire 3(38) du régime. Les fiduciaires doivent donner la priorité à la transparence et à la responsabilité, ce qui implique de documenter et de divulguer les méthodologies et les hypothèses qui sous-tendent les algorithmes d'IA, ainsi que de fournir aux participants au régime des explications claires sur la manière dont l'IA est utilisée dans les processus de prise de décision en matière d'investissement.
- Évaluation des capacités, des risques et des options actuels en matière d'IA pour la gestion des dossiers ;
- Former, éduquer et doter les fiduciaires des connaissances et des compétences nécessaires pour évaluer et exploiter efficacement l'IA. Cela implique de se tenir informé des avancées technologiques en matière d'IA, de comprendre les risques et les limites potentiels associés à l'IA, et de promouvoir une culture d'utilisation éthique et responsable de l'IA.
- Examiner les contrats des prestataires de services afin d'identifier toute disposition spécifique à l'IA ou tout transfert de responsabilité ou clause de non-responsabilité lié à l'IA ;
- Évaluer les protocoles, politiques et procédures en matière de cybersécurité et de confidentialité des données afin de se prémunir contre les menaces et vulnérabilités potentielles associées aux systèmes d'IA, mettre en œuvre des mesures de cybersécurité robustes, telles que le chiffrement, les contrôles d'accès et les systèmes de détection d'intrusion, afin de protéger les informations sensibles des participants et d'empêcher tout accès non autorisé ou toute altération des algorithmes d'IA ;
- Lorsque vous lancez un appel d'offres pour un nouveau gestionnaire de dossiers, posez quelques questions liées à l'IA.
- Considérant que plutôt que de remplacer l'expertise humaine, l'IA pourrait être considérée comme un complément au jugement et à l'intuition humains. Les fiduciaires pourraient tirer parti des outils et des algorithmes d'IA pour améliorer, plutôt que remplacer, les processus décisionnels humains et élaborer des stratégies d'investissement plus solides et mieux informées qui tiennent compte d'un éventail plus large de facteurs et de considérations ;
- Souscrire ou augmenter la couverture d'assurance responsabilité civile fiduciaire ; ou
- Ne rien faire (ce qui, pour certains, peut être la meilleure option).
Le litige concernant les frais liés au plan 401k nous a appris qu'il est néfaste de ne pas disposer d'un processus ou d'omettre une analyse. S'écarter d'un processus documenté est désastreux. En fonction de la taille du plan, du niveau de sophistication des fiduciaires et de la composition actuelle des participants, il peut être approprié ou non que les fiduciaires prennent des mesures spécifiques liées à l'IA.
Compte tenu de la trajectoire actuelle de l'IA, les questions liées à l'IA feront probablement partie du processus décisionnel fiduciaire ou, à tout le moins, influenceront les décisions, ce qui obligera les fiduciaires à rester vigilants et proactifs pour s'adapter aux changements induits par l'IA à mesure qu'elle continue d'évoluer et de mûrir. Chez Foley & Lardner LLP, nous disposons de praticiens spécialisés dans l'IA, les plans de retraite, la cybersécurité, le droit du travail et de l'emploi, la finance, la fintech, la réglementation et l'ERISA, qui conseillent régulièrement les fiduciaires sur les risques et responsabilités potentiels associés à ces questions liées à l'IA. À mesure que l'IA continue d'évoluer et de mûrir, les fiduciaires doivent rester vigilants et proactifs pour s'adapter au paysage changeant de la planification de la retraite afin d'assurer le succès et la viabilité à long terme des plans 401(k).
| Dans le cadre de l'engagement permanent de Foley à fournir des informations juridiques à ses clients et collègues, notre groupe Avantages sociaux et rémunération des cadres a publié une lettre d'information mensuelle intitulée "Employee Benefits Insights", dans laquelle nous vous informons sur les questions les plus récentes et les plus urgentes concernant les avantages sociaux et d'autres sujets connexes. Cliquez ici ou cliquez sur le bouton à gauche pour vous abonner. |