Op 20 januari 2025 ondertekende president Donald Trump een uitvoeringsbesluit dat de richtlijn uit 2023 van voormalig president Joe Biden over kunstmatige intelligentie (AI) ongedaan maakt. Het bevel van Biden bevatte uitgebreide maatregelen om de ontwikkeling en het gebruik van AI-technologieën in goede banen te leiden, waaronder de aanstelling van chief AI officers in belangrijke federale agentschappen en kaders voor het aanpakken van ethische en veiligheidsrisico's. Deze herroeping betekent een grote beleidswijziging, weg van het federale toezicht dat door de vorige regering werd ingesteld.
De beslissing om het uitvoeringsbevel van Biden in te trekken heeft geleid tot een klimaat van onzekerheid over de regelgeving voor bedrijven die actief zijn op AI-gebaseerde gebieden. Bij gebrek aan een uniform federaal kader kunnen bedrijven te maken krijgen met verschillende uitdagingen, zoals een inconsistent regelgevingslandschap omdat staten en internationale organisaties ingrijpen, verhoogde risico's met betrekking tot AI-ethiek en gegevensprivacy, en oneerlijke concurrentie tussen bedrijven die verschillende normen voor AI-ontwikkeling en -implementatie implementeren.
Vooruitblik
In het licht van deze verschuiving worden bedrijven aangemoedigd om proactieve maatregelen te nemen om door de veranderende omgeving te navigeren. Om het vertrouwen en de verantwoordingsplicht te handhaven, is het essentieel om de interne governance te versterken door ethische richtlijnen voor AI-gebruik op te stellen of te verbeteren. Organisaties moeten ook investeren in compliance door staats-, internationale en sectorspecifieke regelgeving te controleren om zich aan te passen aan nieuwe standaarden zoals de Colorado's Artificial Intelligence Act en de EU's AI Act.
Daarnaast is het van cruciaal belang om op de hoogte te blijven van mogelijke federale beleidswijzigingen en wetgevingsinspanningen, aangezien verdere aankondigingen nieuwe richtingen in AI-governance kunnen aangeven. Samenwerking met industriegroepen en standaardisatieorganisaties kan helpen bij het vormen van vrijwillige richtlijnen en best practices, terwijl robuuste kaders voor risicobeheer essentieel zijn om problemen zoals vooroordelen, cyberbeveiligingsrisico's en aansprakelijkheidsproblemen te beperken.
Om door dit veranderende landschap te navigeren, moeten organisaties overwegen nu de volgende stappen te nemen:
- Interne governance versterken: Ontwikkel of verbeter intern AI-beleid en ethische richtlijnen om verantwoord en wettelijk compliant AI-gebruik te bevorderen, zelfs zonder federale mandaten.
- Investeer in compliance: Blijf op de hoogte van nationale, internationale en sectorspecifieke AI-regelgeving die van invloed kan zijn op activiteiten. Stem werkwijzen proactief af op opkomende standaarden zoals Colorado's Artificial Intelligence Act en de AI Act van de EU.
- Federale ontwikkelingen in de gaten houden: Houd verdere aankondigingen of wetgevende acties van het Congres en federale agentschappen die nieuwe richtingen in AI-beleid en -regulering kunnen aangeven, nauwlettend in de gaten.
- Samenwerken met de industrie: Samenwerken met industriegroepen en standaardisatieorganisaties om vrijwillige AI-standaarden en best practices te helpen beïnvloeden.
- Focus op risicobeheer: Stel sterke risicobeoordelingskaders op om potentiële AI-gerelateerde risico's te identificeren en aan te pakken, waaronder vooroordelen, cyberbeveiligingsrisico's, wettelijke naleving en aansprakelijkheidsproblemen.
Het besluit van president Trump weerspiegelt een voorkeur voor minder regelgeving, waardoor de verantwoordelijkheid voor ethisch en veilig AI-gebruik toeneemt. Bedrijven moeten door een onzeker regelgevingslandschap navigeren en tegelijkertijd op verantwoorde wijze innoveren. Naarmate de omstandigheden veranderen, moeten bedrijven alert en flexibel blijven om hun concurrentievoordeel en het vertrouwen van het publiek te behouden.