Regulering van kunstmatige intelligentie bij besluitvorming op het gebied van werkgelegenheid: wat staat ons te wachten in 2025?
Het arbeidsrecht in 2024 kan treffend worden samengevat als het 'Jaar van de wetgeving inzake kunstmatige intelligentie'. Op vijf staten na hebben alle staten in 2024 nieuwe wetgeving inzake kunstmatige intelligentie (AI) ingevoerd, waarbij vier van de vijf uitschieters simpelweg geen wetgevende zittingen hadden in 2024. Texas was een van die uitzonderingen, maar zal zich waarschijnlijk bij de meerderheid aansluiten wanneer de wetgevende macht in januari 2025 weer bijeenkomt en de onlangs voorgestelde wetgeving, bekend als de Texas Responsible AI Governance Act (TRAIGA), in behandeling neemt. Nu we het nieuwe jaar ingaan, moeten werkgevers – met name die welke in meerdere staten actief zijn – op de hoogte zijn van de huidige en voorgestelde AI-gerelateerde wetgeving in hun rechtsgebieden om ervoor te zorgen dat ze blijven voldoen aan het steeds veranderende AI-regelgevingslandschap.
AI-regelgeving is een veelvoorkomend onderwerp op deze blog, omdat er weliswaar geen uitgebreide federale wetgeving over dit onderwerp bestaat, maar de Equal Employment Opportunity Commission (EEOC) en het Department of Labor (DOL) wel richtlijnen hebben uitgevaardigd en zich sterk richten op het waarborgen van menselijk toezicht op verantwoord gebruik van AI. Er zijn tal van terechte zorgen, met name wat betreft het gebruik van AI-tools voor besluitvorming op het gebied van human resources, variërend van gegevensprivacy en algoritmische discriminatie tot werkzekerheid en transparantie.
Er is momenteel een lappendeken van staatsregelgeving van uiteenlopende complexiteit geïmplementeerd of zal naar verwachting binnenkort van kracht worden. Een van de meest robuuste en veelbesproken voorbeelden van AI-regelgeving die in 2024 van kracht werd, was de Colorado Artificial Intelligence Act (CAIA), die werd aangekondigd als een van de eerste ter wereld die "risicovolle kunstmatige-intelligentiesystemen" definieert en uitgebreid reguleert. Volgens de CAIA moeten werkgevers die dergelijke AI-tools inzetten "redelijke zorgvuldigheid" betrachten om werknemers te beschermen tegen algoritmische discriminatie, waaronder de verplichting om een risicobeheerbeleid te ontwikkelen om mogelijke vooringenomenheid te beperken en jaarlijkse effectbeoordelingen uit te voeren. Bovendien bevat de CAIA een vereiste die vergelijkbaar is met die van de federale Fair Credit Reporting Act (FCRA), namelijk dat werkgevers hun werknemers moeten informeren wanneer een AI-systeem met een hoog risico wordt gebruikt om beslissingen over hen te nemen. Hoewel de CAIA pas op 1 februari 2026 van kracht wordt, moeten werkgevers zich nu al voorbereiden om aan de strenge normen te voldoen.
Het onlangs voorgestelde TRAIGA-wetsvoorstel beoogt eveneens ontwikkelaars en implementators van "risicovolle AI-systemen" te reguleren. Meer bepaald zouden implementators van risicovolle AI-systemen verplicht worden om minstens twee keer per jaar gedetailleerde effectbeoordelingen uit te voeren, met inbegrip van voortdurende monitoring op daadwerkelijke of vermoedelijke algoritmische discriminatie, cyberbeveiligingsmaatregelen en transparantiekwesties. Volgens het voorstel zou de definitie van "risicovolle AI-systemen" elke kunstmatige intelligentietool omvatten die een "bijdragende factor" is aan een beslissing of kans op het gebied van werkgelegenheid, wat betekent dat elke werkgever in Texas die AI gebruikt bij zijn HR-besluitvorming, mogelijk onder de werkingssfeer van de TRAIGA zou vallen. De TRAIGA omvat mechanismen voor zowel overheids- als particuliere handhaving, waardoor dit een van de meest cruciale AI-wetgevingen is om in de gaten te houden nu we 2025 naderen.
Werkgevers moeten deze best practices volgen om te reageren op de explosieve toename van AI-wetgeving in 2024, waaronder de CAIA, en op verwachte wetgeving zoals de TRAIGA in het komende jaar:
- Beoordeel het regelgevingsklimaat in de staat of staten waarin u actief bent om te bepalen welke nalevingsverplichtingen van toepassing zijn op uw organisatie.
- Beoordeel welke kunstmatige intelligentietools (bijv. cv-screeners, sollicitantvolgsystemen, chatbots, enz.) uw organisatie gebruikt.
- Communiceer met de ontwikkelaars van de AI-tools die uw organisatie gebruikt of van plan is te implementeren om een actieplan op te stellen om te voldoen aan de toepasselijke regelgeving.
- Ontwikkel een organisatiebeleid voor het gebruik van AI op de werkplek, waarbij parameters worden vastgesteld voor de manier waarop dergelijke tools worden beoordeeld en goedgekeurd om mogelijke algoritmische vooringenomenheid te beperken en te zorgen voor transparantie en gegevensprivacy.
Om in 2025 voorop te blijven lopen, zullen werkgevers snel en strategisch moeten handelen en hun HR-praktijken moeten afstemmen op het snel evoluerende regelgevingskader voor AI.