De Europese Unie (EU) begrijpt dat regulering nodig is om het veilige gebruik van AI te waarborgen en heeft daarom de meest uitgebreide wettelijke richtlijn ter wereld geïntroduceerd, de EU AI Act, die strenge eisen stelt aan AI-systemen die binnen haar rechtsgebied worden gebruikt. De doelstellingen zijn duidelijk, maar de implementatie en handhaving ervan brengen uitdagingen met zich mee en het debat over de impact op innovatie wordt steeds luider.
De EU-wet inzake kunstmatige intelligentie, die officieel in augustus 2024 in werking is getreden, heeft tot doel de ontwikkeling en het gebruik van AI-systemen te reguleren, met name die welke als "risicovol" worden beschouwd. De primaire focus ligt op het waarborgen dat AI veilig en ethisch is en transparant functioneert binnen strikte richtlijnen. De handhaving van de wet ging formeel van start op 2 februari 2025, toen de deadline voor verboden, bijvoorbeeld voor bepaalde AI-systemen, het waarborgen van technologische geletterdheid voor personeel, enz. verstreek.
Niet-naleving heeft een prijs. Om naleving te waarborgen, kunnen bedrijven die in overtreding zijn een boete krijgen van 7,5 miljoen euro (7,8 miljoen dollar) tot 35 miljoen euro (35,8 miljoen dollar) of 1% tot 7% van hun wereldwijde jaaromzet. Een aanzienlijke financiële afschrikking.
Het risicoclassificatiesysteem is een cruciaal aspect van de AI Act. AI-systemen worden gecategoriseerd als "verboden AI-praktijken", zoals biometrische technologieën die individuen classificeren op basis van ras of seksuele geaardheid, manipulatieve AI en bepaalde voorspellende politietoepassingen, die verboden zijn. "Risicovolle" AI-systemen zijn daarentegen wel toegestaan, maar zijn onderworpen aan strenge nalevingsmaatregelen, waaronder uitgebreide risicobeoordelingen, vereisten op het gebied van gegevensbeheer en transparantieverplichtingen. AI-systemen met een beperkt transparantierisico zijn onderworpen aan transparantieverplichtingen op grond van artikel 50 van de AI-wet, dat bedrijven verplicht om gebruikers te informeren wanneer zij met een AI-systeem communiceren. Ten slotte zijn AI-systemen die een minimaal of geen risico vormen, niet gereguleerd.
De EU-wet inzake kunstmatige intelligentie heeft ook tegenstanders. Andere landen en grote technologiebedrijven verzetten zich tegen de invoering ervan. Technologiebedrijven stellen bijvoorbeeld dat strenge regelgeving innovatie zal belemmeren, waardoor het voor Europese start-ups moeilijker wordt om wereldwijd te concurreren. Critici stellen ook dat de wet, door zware nalevingsverplichtingen op te leggen, de ontwikkeling van kunstmatige intelligentie uit Europa zou kunnen verdrijven naar minder gereguleerde regio's, waardoor het technologisch concurrentievermogen van het continent zou worden belemmerd.
Onder druk heeft de EU een aantal van haar oorspronkelijke ambities op het gebied van regelgeving teruggeschroefd, zoals het intrekken van de voorgestelde EU-richtlijn inzake aansprakelijkheid voor kunstmatige intelligentie, die het voor consumenten gemakkelijker zou hebben gemaakt om AI-aanbieders aan te klagen. De EU moet een evenwicht vinden tussen het beschermen van de rechten van burgers en het creëren van een omgeving die technologische vooruitgang stimuleert.
Een stap in de goede richting
Het valt nog te bezien of de EU-AI-wet als model zal dienen voor andere landen. Kortom, er zullen veel groeipijnen zijn en de EU moet er rekening mee houden dat de wetgeving zal moeten worden aangepast, maar over het algemeen is het goed om een uitgangspunt te hebben van waaruit kritiek kan worden geleverd en aanpassingen kunnen worden doorgevoerd. Het huidige kader is misschien niet perfect, maar het is een noodzakelijk uitgangspunt voor de wereldwijde discussie over AI-regelgeving.