EU effent de weg voor de VS op het gebied van regelgeving voor kunstmatige intelligentie
Nu de bezorgdheid over kunstmatige intelligentie (AI) wereldwijd blijft toenemen, stelt de Europese Unie (EU) een regelgevingsroutekaart op voor de internationale gemeenschap. Op 11 mei 2023 hebben de Commissie burgerlijke vrijheden, justitie en binnenlandse zaken en de Commissie interne markt en consumentenbescherming van het Europees Parlement gestemd voor goedkeuring van de wet inzake kunstmatige intelligentie. Zoals deze wet is opgesteld, is zij een wereldwijde primeur wat betreft de aanpak van het juridische risicobeheer van AI, die de VS en andere landen zeker zullen overwegen naarmate AI zich snel verder ontwikkelt. De wet zet de toon voor de onvermijdelijke afstemming tussen de VS en de EU, aangezien de wens voor trans-Atlantische samenwerking, regelgevend toezicht, passende industrienormen en het faciliteren van economische partnerschappen een prioriteit blijft. Hoewel de AI-wet is goedgekeurd door wetgevers in het Europees Parlement, moet de wetgeving nog enkele stappen doorlopen voordat deze van kracht wordt.
Fundamentele beginselen van de EU-wet inzake kunstmatige intelligentie
Met de voortdurend opkomende mogelijkheden voor AI op het gebied van het componeren van muziek, het creëren van literatuur en het verlenen van gezondheidsdiensten, biedt het wetsvoorstel cruciale principes om menselijk toezicht, veiligheid, transparantie, traceerbaarheid, non-discriminatie en milieuvriendelijkheid in AI-systemen te waarborgen. Het streeft naar een universele definitie van AI die technologieneutraal blijft en zowel bestaande als toekomstige AI-systemen omvat. Opvallend is dat de wet een risicogebaseerde benadering van AI-regulering voorstelt, waarbij de verplichtingen voor een AI-systeem in verhouding staan tot het risiconiveau dat het met zich mee kan brengen. De wet bevat bepalingen die onderzoeksactiviteiten en AI-componenten die onder open-source licenties worden aangeboden, vrijstellen. De wetgeving pleit ook voor regelgevende sandboxes, d.w.z. gecontroleerde omgevingen die door overheidsinstanties worden opgezet om AI te testen voordat deze wordt ingezet. Deze aanpak beoogt een evenwicht te vinden tussen de bescherming van de grondrechten en de behoefte aan rechtszekerheid voor bedrijven en de stimulering van innovatie in Europa.
Huidige en trending benaderingen in de VS
Daarentegen blijven federale wetgevers in de VS AI nauwlettend in de gaten houden en richten ze meer aandacht op het financieren van onderzoek naar het ontcijferen van de mogelijkheden en resultaten ervan. Deze inspanningen worden deels gevoed door de hoop om de reikwijdte van AI te begrijpen en zo mogelijk de bezorgdheid op het gebied van regelgeving te verminderen. De vooruitgang die met AI-technologie wordt geboekt, kan immers dienen als middel om een aantal van de risico's die in de belangrijkste beginselen van de wet worden genoemd, te beperken. Het concept van federalisme in de VS draagt bij aan een reeds lastig dilemma op het gebied van handhaving van regelgeving, vanwege een lappendeken van inconsistente staatswetten die allemaal hopen aan de vooravond van de volgende grote technologische revolutie te staan. Verschillende staten hebben inderdaad al wetten voorgesteld om de ontwikkeling en het gebruik van AI te reguleren. Californië heeft bijvoorbeeld een wet (AB 331) voorgesteld die het gebruik van geautomatiseerde besluitvormingsinstrumenten (waaronder AI) reguleert en die ontwikkelaars van deze AI-instrumenten en gebruikers verplicht om jaarlijks effectbeoordelingen in te dienen.
Belangrijkste beginselen van de EU-wet inzake kunstmatige intelligentie
Vier risiconiveaus
AI-toepassingen worden ingedeeld in vier risiconiveaus: onaanvaardbaar risico, hoog risico, beperkt risico en minimaal of geen risico.Elke toepassing die een onaanvaardbaar risico inhoudt, is standaard verboden en mag niet worden ingezet in de EU. Dit omvat AI-systemen die subliminale technieken of manipulatieve tactieken gebruiken om gedrag te veranderen, individuele of groepsgevoeligheden uit te buiten, biometrische gegevens te categoriseren op basis van gevoelige kenmerken, sociale scores of betrouwbaarheid te evalueren, strafbare feiten of administratieve overtredingen te voorspellen, gezichtsherkenningsdatabases te creëren of uit te breiden door middel van niet-gerichte scraping, of emoties af te leiden in wetshandhaving, grensbeheer, werkplekken en onderwijs. Minimale risicotoepassingen zijn daarentegen systemen die worden ingezet voor product-/voorraadbeheer of AI-platforms zoals videogames. Evenzo zijn systemen met een beperkt risico chatbots of andere op AI gebaseerde systemen die voldoen aan de openbaarmakingsnormen die nodig zijn om gebruikers de mogelijkheid te bieden om in plaats daarvan met een mens te spreken.
Risicovolle toepassingen
De AI-wet identificeert de volgende toepassingen als risicovol:
- Biometrische identificatie en categorisering van natuurlijke personen: AI-systemen die bedoeld zijn voor de 'real-time' en 'post'-biometrische identificatie op afstand van natuurlijke personen.
- Beheer en exploitatie van kritieke infrastructuur: AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponenten bij het beheer en de exploitatie van het wegverkeer en de levering van water, gas, verwarming en elektriciteit.
- Onderwijs en beroepsopleiding:AI-systemen die bedoeld zijn om te worden gebruikt voor het bepalen van de toegang tot of de toewijzing van natuurlijke personen aan onderwijs- en beroepsopleidingsinstellingen; AI-systemen die bedoeld zijn om te worden gebruikt voor het beoordelen van studenten in onderwijs- en beroepsopleidingsinstellingen en voor het beoordelen van deelnemers aan tests die gewoonlijk vereist zijn voor toelating tot onderwijsinstellingen.
- Werkgelegenheid, personeelsbeheer en toegang tot zelfstandig ondernemerschap:AI-systemen die bedoeld zijn voor de werving of selectie van natuurlijke personen, met name voor het adverteren van vacatures, het screenen of filteren van sollicitaties, of het beoordelen van kandidaten tijdens sollicitatiegesprekken of tests; AI die bedoeld is voor het nemen van beslissingen over promotie en beëindiging van arbeidsgerelateerde contractuele relaties, voor het toewijzen van taken en voor het monitoren en evalueren van prestaties en gedrag van personen in dergelijke relaties.
- Toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen:AI-systemen die bedoeld zijn om door overheidsinstanties of namens overheidsinstanties te worden gebruikt om te beoordelen of natuurlijke personen in aanmerking komen voor sociale uitkeringen en diensten, en om dergelijke uitkeringen en diensten toe te kennen, te verminderen, in te trekken of terug te vorderen; AI-systemen die bedoeld zijn om de kredietwaardigheid van natuurlijke personen te beoordelen of hun kredietwaardigheidsscore vast te stellen, met uitzondering van AI-systemen die door kleinschalige aanbieders voor eigen gebruik in dienst worden genomen; AI-systemen die bedoeld zijn om eerstehulpverleners, waaronder brandweerlieden en medische hulpverleners, uit te zenden of prioriteiten te stellen bij het uitzenden van eerstehulpverleners.
- Wetshandhaving:AI-systemen die bedoeld zijn om door wetshandhavingsinstanties voor verschillende doeleinden te worden gebruikt, waaronder het maken van individuele risicobeoordelingen, het opsporen van deep fakes, het beoordelen van de betrouwbaarheid van bewijsmateriaal, het voorspellen van het plaatsvinden of herhalen van een daadwerkelijk of potentieel strafbaar feit, het profileren van natuurlijke personen en het uitvoeren van misdaadanalyses.
- Migratie, asiel en grenscontrolebeheer:AI-systemen die bedoeld zijn om door bevoegde overheidsinstanties voor verschillende doeleinden te worden gebruikt, zoals het detecteren van de emotionele toestand van een natuurlijke persoon, het beoordelen van risico's, het controleren van de authenticiteit van reisdocumenten en het assisteren bij de behandeling van aanvragen voor asiel, visa en verblijfsvergunningen.
- Rechtspraak en democratische processen:AI-systemen die bedoeld zijn om een gerechtelijke autoriteit te helpen bij het onderzoeken en interpreteren van feiten en wetgeving en bij het toepassen van de wet op een concrete reeks feiten.
Verbod op 'social scoring'
In de context van de AI-wet verwijst "social scoring" naar de praktijk waarbij personen worden beoordeeld op basis van hun sociaal gedrag of persoonlijkheidskenmerken, vaak met behulp van een breed scala aan informatiebronnen. Deze aanpak wordt gebruikt om personen te beoordelen, categoriseren en scoren, wat van invloed kan zijn op verschillende aspecten van hun leven, zoals toegang tot leningen, hypotheken en andere diensten. Het huidige ontwerp bevat een verbod op sociale scoring door overheidsinstanties in Europa. Het Europees Economisch en Sociaal Comité (EESC) heeft echter zijn bezorgdheid geuit over het feit dat dit verbod niet geldt voor particuliere en semi-particuliere organisaties, waardoor dergelijke entiteiten mogelijk gebruik kunnen blijven maken van sociale scoring. Het EESC heeft opgeroepen tot een volledig verbod op sociale scoring in de EU en tot de instelling van een klachten- en verhaalmechanisme voor personen die schade hebben geleden door een AI-systeem.
Vage grenzen – Onwettige sociale scoring versus gepaste gegevensanalyse
Het EESC heeft er ook op aangedrongen dat in de AI-wet een onderscheid wordt gemaakt tussen wat als sociale scoring wordt beschouwd en wat als een aanvaardbare vorm van evaluatie voor een specifiek doel kan worden beschouwd. Volgens het EESC kan de grens worden getrokken wanneer de voor de beoordeling gebruikte informatie niet redelijkerwijs relevant of evenredig is. Verder benadrukt het EESC dat AI de menselijke besluitvorming en menselijke intelligentie moet versterken in plaats van deze te vervangen, en bekritiseert het de AI-wet omdat deze visie niet expliciet wordt verwoord.
Stichting Grote Taalmodellen
Een belangrijk aspect van de wet heeft betrekking op de regulering van 'basis modellen', zoals OpenAI's GPT of Google's Bard. Deze modellen hebben de aandacht van de regelgevende instanties getrokken vanwege hun geavanceerde mogelijkheden en het potentieel om geschoolde werknemers te vervangen. Aanbieders van dergelijke basis modellen zijn verplicht om veiligheidscontroles, maatregelen voor gegevensbeheer en risicobeperkende maatregelen toe te passen voordat ze hun modellen openbaar maken. Bovendien moeten zij ervoor zorgen dat de trainingsgegevens die worden gebruikt om hun systemen te informeren, geen inbreuk maken op het auteursrecht. De aanbieders van dergelijke AI-modellen zouden ook verplicht zijn om risico's voor de grondrechten, gezondheid en veiligheid, het milieu, de democratie en de rechtsstaat te beoordelen en te beperken.
Gevolgen voor het Amerikaanse bedrijfsleven
De Verenigde Staten kunnen verwachten dat sommige principes uit de wet terugkomen in zowel federale als staatswetgeving, aangezien het land de chaos die door AI wordt veroorzaakt, onder controle wil krijgen. Als gevolg van langdurige trans-Atlantische partnerschappen op basis van handel en commercie zijn veel Amerikaanse bedrijven goed bekend met de hogere normen van de EU op gebieden zoals productveiligheidsregels en bepaalde gegevensrechten. We kunnen dan ook verwachten dat deze trend zich zal voortzetten naarmate de handel tussen landen toeneemt. De EU zal waarschijnlijk blijven eisen dat Amerikaanse bedrijven zich aan de regels houden om zaken te kunnen doen aan de andere kant van de Atlantische Oceaan, en we kunnen verwachten dat AI nu ook onder die regels zal vallen. Hoewel er talloze manieren zijn waarop deze concepten vorm kunnen krijgen, zoals de AI Bill of Rights van president Biden, kunnen staten door bepaalde bepalingen van de wet over te nemen worden aangemoedigd om hun eigen regelgeving rond het gebruik van AI te ontwikkelen. Bedrijven zullen alert moeten blijven op veranderende regelgevingsstructuren en nieuwe handhavingsmechanismen in de VS, nu het land worstelt met veranderingen. Het uiteindelijke doel van het EU-voorstel is om een regelgevingskader te bieden voor AI-bedrijven en organisaties die AI gebruiken, waardoor een evenwicht tussen innovatie en bescherming van de rechten van burgers wordt bevorderd.