Nieuwe regelgeving voor kunstmatige intelligentie (AI) en mogelijke gevolgen voor de fiduciaire sector
Fiduciaires moeten zich bewust zijn van recente ontwikkelingen op het gebied van AI, waaronder opkomende en recente wijzigingen in de staatswetgeving, de toegenomen belangstelling van de staat en de federale overheid voor het reguleren van AI, en de rol van AI in ERISA-rechtszaken. Hoewel er veel aandacht is geweest voor de impact van AI op pensioenregelingen, die we eerder hier hebben besproken, moeten alle soorten fiduciaires van regelingen, inclusief gezondheids- en welzijnsregelingen, ook op de hoogte blijven van recente ontwikkelingen op het gebied van AI.
Recente wijzigingen in de staatswetgeving
Talrijke staten hebben onlangs nieuwe wetten inzake AI vastgelegd, waarvan sommige de besluitvormingsprocessen van werkgevers op het gebied van human resources reguleren. Belangrijke voorbeelden hiervan zijn:
- Californië – In 2024 heeft Californië meer dan 10 AI-gerelateerde wetten aangenomen, die onderwerpen behandelen zoals:
- Het gebruik van AI met datasets die namen, adressen of biometrische gegevens bevatten;
- Hoe men met behulp van AI gezondheidsinformatie aan patiënten communiceert; en
- AI-gestuurde besluitvorming bij medische behandelingen en voorafgaande toestemming.
Voor meer informatie over de nieuwe AI-wetgeving in Californië, zie Foley's Client Alert, Decoding California's Recent Flurry of AI Laws.
- Illinois – Illinois heeft wetgeving aangenomen die werkgevers verbiedt om AI te gebruiken bij wervingsactiviteiten op een manier die tot discriminerende effecten leidt, ongeacht de intentie. Volgens de wet zijn werkgevers verplicht om werknemers en sollicitanten op de hoogte te stellen als ze AI gaan gebruiken voor werkgerelateerde doeleinden.
Voor meer informatie over de nieuwe AI-wet van Illinois, zie Foley's Client Alert, Illinois Enacts Legislation to Protect against Discriminatory Implications of AI in Employment Activities.
- Colorado – De Colorado Artificial Intelligence Act (CAIA), die op 1 februari 2026 van kracht wordt, schrijft "redelijke zorgvuldigheid" voor wanneer werkgevers AI gebruiken voor bepaalde toepassingen.
Voor meer informatie over de nieuwe AI-wet van Colorado, zie Foley's Client Alert, Regulating Artificial Intelligence in Employment Decision-Making: What's on the Horizon for 2025.
Hoewel deze wetten niet specifiek gericht zijn op werknemerspensioenregelingen, weerspiegelen ze een trend waarbij staten het personeelsbeleid in brede zin reguleren, zijn ze gericht op het reguleren van besluitvormingsprocessen op het gebied van personeelszaken en maken ze deel uit van een zich ontwikkelend regelgevingsklimaat. In 2024 werden honderden aanvullende wetsvoorstellen ingediend, samen met AI-gerelateerde uitvoeringsbesluiten, wat wijst op meer regelgeving in 2025. Er blijven vragen bestaan over hoe deze wetten zich verhouden tot werknemerspensioenregelingen en of de federale ERISA-voorrang van toepassing zou kunnen zijn op pogingen van staten om regelgeving in te voeren.
Recente maatregelen van de federale overheid
De federale overheid heeft onlangs richtlijnen uitgevaardigd om discriminatie bij de levering van bepaalde gezondheidszorgdiensten te voorkomen en heeft een verzoek om informatie (RFI) ingediend voor mogelijke AI-regelgeving met betrekking tot de financiële dienstensector.
- Richtlijnen inzake non-discriminatie door kunstmatige intelligentie van het Amerikaanse ministerie van Volksgezondheid en Human Services (HHS) – Het HHS heeft onlangs via zijn Bureau voor Burgerrechten (OCR) een brief met de titel 'Ensuring Nondiscrimination Through the Use of Artificial Intelligence and Other Emerging Technologies' (Non-discriminatie waarborgen door het gebruik van kunstmatige intelligentie en andere opkomende technologieën) verstuurd. Deze richtlijn benadrukt het belang van het waarborgen dat het gebruik van AI en andere besluitvormingshulpmiddelen in de gezondheidszorg voldoet aan de federale wetgeving inzake non-discriminatie, met name sectie 1557 van de Affordable Care Act (sectie 1557).
Sectie 1557 verbiedt discriminatie op basis van ras, huidskleur, nationale afkomst, geslacht, leeftijd of handicap in gezondheidsprogramma's en -activiteiten die federale financiële steun ontvangen. De richtlijnen van OCR benadrukken dat zorgverleners, zorgverzekeraars en andere betrokken instanties AI-tools niet mogen gebruiken op een manier die discriminerende gevolgen heeft voor patiënten. Dit omvat beslissingen met betrekking tot diagnose, behandeling en toewijzing van middelen. Werkgevers en sponsors van zorgverzekeringen moeten er rekening mee houden dat deze richtlijn van toepassing is op een deel van de zorgverzekeringen, waaronder die welke onder sectie 1557 vallen, maar niet op alle door werkgevers gesponsorde zorgverzekeringen.
- Ministerie van Financiën publiceert RFI voor AI-regelgeving – In 2024 publiceerde het Amerikaanse ministerie van Financiën een RFI over het gebruik, de kansen en de risico's van kunstmatige intelligentie in de financiële dienstensector. De RFI bevatte een aantal belangrijke overwegingen, waaronder het aanpakken van vooringenomenheid en discriminatie door AI, consumentenbescherming en gegevensprivacy, en risico's voor derde gebruikers van AI. Hoewel de RFI nog niet heeft geleid tot concrete regelgeving, onderstreept deze wel de aandacht van de federale overheid voor de impact van AI op financiële diensten en werknemersvoorzieningen. De ERISA Industry Committee, een non-profitorganisatie die grote Amerikaanse werkgevers vertegenwoordigt in hun hoedanigheid als sponsors van werknemersvoorzieningen, merkte op dat AI al wordt gebruikt voor toepassingen op het gebied van pensioenvoorbereiding, chatbots, portefeuillebeheer, handelsuitvoering en welzijnsprogramma's. Toekomstige regelgeving kan zich op deze en aanverwante gebieden richten.
AI-gestuurde ERISA-rechtszaken
Potentiële ERISA-claims tegen sponsors en beheerders van pensioenregelingen worden geïdentificeerd met behulp van AI. Een voorbeeld hiervan is het AI-platform Darrow AI, dat beweert:
"Ontworpen om de analyse van grote hoeveelheden gegevens uit plandocumenten, wettelijke documenten en rechtszaken te vereenvoudigen. Onze technologie spoort met grote nauwkeurigheid discrepanties, schendingen van fiduciaire verplichtingen en andere ERISA-overtredingen op. Door gebruik te maken van onze geavanceerde analyses kunt u snel potentiële claims identificeren, de financiële impact ervan beoordelen en solide zaken opbouwen... u kunt effectief opkomen voor werknemers die gerechtigheid zoeken met betrekking tot hun pensioen- en gezondheidsuitkeringen."
Bovendien beweert dit AI-platform dat het overtredingen kan opsporen die van invloed zijn op vele soorten werkgevers, of het nu gaat om kleine bedrijven of grote ondernemingen, door diverse gegevensbronnen te analyseren, waaronder nieuws, SEC-documenten, sociale netwerken, academische papers en andere bronnen van derden.
Met name gezondheids- en welzijnsvoorzieningen komen ook steeds meer in beeld als aandachtsgebieden voor AI-gestuurde ERISA-rechtszaken. AI-tools worden gebruikt om claimgegevens, netwerken van zorgverleners en administratieve beslissingen te analyseren, waardoor mogelijk discriminerende praktijken of inconsistenties in de vaststelling van uitkeringen aan het licht komen. AI kan bijvoorbeeld patronen van vooringenomenheid in voorafgaande toestemmingen of discrepanties in de toepassing van wetten inzake gelijkheid op het gebied van geestelijke gezondheid aan het licht brengen.
De toenemende verfijning van deze tools verhoogt de inzet voor fiduciaires, aangezien zij nu rekening moeten houden met de mogelijkheid dat potentiële eisers AI zullen gebruiken om hun beslissingen onder de loep te nemen en operaties met ongekende precisie te plannen.
Volgende stappen voor fiduciaires
Om door dit veranderende landschap te navigeren, moeten fiduciaires proactieve maatregelen nemen om AI-gerelateerde risico's te beheersen en tegelijkertijd de voordelen van deze technologieën benutten:
- AI-tools evalueren: Voer een formele evaluatie uit van kunstmatige intelligentietools die worden gebruikt voor planbeheer, deelnemersbetrokkenheid en naleving. Deze beoordeling omvat een onderzoek van de algoritmen, gegevensbronnen en besluitvormingsprocessen die hierbij betrokken zijn, inclusief een beoordeling om ervoor te zorgen dat hun producten zijn geëvalueerd op naleving van non-discriminatienormen en niet onbedoeld tot bevooroordeelde resultaten leiden.
- Auditdienstverleners: Voer uitgebreide audits uit bij dienstverleners van het plan om hun gebruik van AI te evalueren. Vraag om gedetailleerde informatie over de AI-systemen die worden gebruikt, met de nadruk op hoe deze systemen vooringenomenheid tegengaan, gegevensbeveiliging waarborgen en voldoen aan de toepasselijke regelgeving.
- Beleid herzien en bijwerken: Formuleer of herzie intern beleid en governancekaders om het gebruik van AI in operationele planning en de naleving van antidiscriminatiewetgeving te monitoren. Dit beleid moet richtlijnen bevatten met betrekking tot de invoering, monitoring en naleving van AI-technologieën, zodat deze in overeenstemming zijn met fiduciaire verantwoordelijkheden.
- Risicobeperking verbeteren:
- Fiduciaire aansprakelijkheidsverzekering: Overweeg het afsluiten of uitbreiden van een fiduciaire aansprakelijkheidsverzekering om mogelijke claims als gevolg van het gebruik van AI af te dekken.
- Gegevensprivacy en -beveiliging: Verbeter de maatregelen voor gegevensprivacy en -beveiliging om gevoelige deelnemersinformatie die door AI-tools wordt verwerkt, te beschermen.
- Beperking van vooringenomenheid: Stel procedures vast om AI-tools regelmatig te testen en te valideren op vooringenomenheid, zodat ze voldoen aan de antidiscriminatiewetgeving.
- Integreer AI-overwegingen in offerteaanvragen (RFP's): Neem bij het selecteren van leveranciers specifieke AI-gerelateerde criteria op in RFP's. Dit kan betekenen dat leveranciers moeten aantonen of certificeren dat ze voldoen aan nationale en federale regelgeving en zich houden aan de beste praktijken in de sector voor het gebruik van AI.
- Houd juridische en regelgevende ontwikkelingen in de gaten: Blijf op de hoogte van nieuwe staats- en federale AI-regelgeving, evenals van de zich ontwikkelende jurisprudentie met betrekking tot AI en ERISA-geschillen. Zet een proces op voor routinematige juridische beoordelingen om te evalueren hoe deze ontwikkelingen van invloed zijn op de uitvoering van het plan.
- Training aanbieden: Fiduciaires, beheerders en relevant personeel informeren over de mogelijke risico's en voordelen van AI bij het beheer van pensioenregelingen, opkomende technologieën en het belang van naleving van de toepasselijke wetgeving. De training moet een overzicht bieden van de wettelijke verplichtingen, best practices voor de implementatie van AI en strategieën voor het beperken van risico's.
- Documentatie van due diligence: Houd uitgebreide documentatie bij van alle stappen die worden genomen om AI-tools te beoordelen en te volgen. Dit omvat verslagen van audits, communicatie met leveranciers en updates van intern beleid. Duidelijke documentatie kan een cruciale verdedigingslinie vormen in geval van een rechtszaak.
- Beoordeel de toepasselijkheid van sectie 1557 op uw plan: Beheerders van gezondheids- en welzijnsplannen moeten bepalen of het gezondheidsplan van uw organisatie onder sectie 1557 valt en of de richtlijnen van OCR rechtstreeks van toepassing zijn op uw activiteiten. Als dat niet het geval is, moet u bevestigen en documenteren waarom dat niet zo is.
Fiduciaires moeten waakzaam blijven met betrekking tot de toenemende rol van AI in pensioenregelingen voor werknemers, met name in een klimaat van onzekerheid op het gebied van regelgeving. Door proactieve maatregelen te nemen en robuuste risicobeheerstrategieën toe te passen, kunnen risico's worden beperkt en kan naleving van huidige en verwachte wettelijke normen worden gewaarborgd. Door zich in te zetten voor zorgvuldigheid en transparantie kunnen fiduciaires profiteren van de voordelen van AI en tegelijkertijd de belangen van deelnemers aan de regeling beschermen. Bij Foley & Lardner LLP hebben we experts op het gebied van AI, pensioenplanning, cyberbeveiliging, arbeid en werkgelegenheid, financiën, fintech, regelgeving, gezondheidszorg en ERISA. Zij adviseren fiduciaires regelmatig over mogelijke risico's en aansprakelijkheden in verband met deze en andere AI-gerelateerde kwesties.