AI-regelgeving en juridische kwesties vandaag: een gesprek met Natasha Allen
Zoals bij de meeste opkomende technologieën het geval is, ontwikkelen kunstmatige intelligentie (AI) zich sneller dan de regelgeving, en dit brengt een aantal belangrijke juridische overwegingen met zich mee. Hoewel er wordt aangedrongen op strengere regelgeving, is er op federaal niveau nog geen regelgeving gekomen. Natasha Allen, medevoorzitter voor kunstmatige intelligentie binnen de Innovative Technology Sector van het kantoor, bekijkt de huidige juridische en regelgevingskwesties waarmee AI-startups te maken hebben en waar ze in de toekomst op moeten letten.
Wat betreft het huidige regelgevingsklimaat wijst Natasha op iets dat meer lijkt op een lappendeken dan op een naadloos kader. Terwijl de staten snel actie hebben ondernomen om AI-gerelateerde risico's aan te pakken, heeft de federale overheid nog geen definitieve wetgeving uitgevaardigd. Ze richt zich op twee terugkerende thema's die bij de regering-Biden steeds weer naar voren komen: verantwoordelijke AI en transparantie/verklaarbaarheid, waarbij ze de nadruk legt op de groeiende vraag naar menselijk toezicht op AI-output.
Naarmate AI-systemen steeds autonomer worden, ontstaan er zorgen over de aansprakelijkheid en verantwoordelijkheid voor beslissingen die door AI-modellen worden genomen. Natasha benadrukt dat dezelfde wettelijke principes van toepassing zijn, ongeacht of je AI gebruikt of niet, en dat de verantwoordelijke partij een zekere mate van verantwoordelijkheid draagt. Ze benadrukt het belang van het samenstellen van geschikte inputs en het bewust zijn van de resulterende outputs, praktijken die bedrijven in de juiste richting sturen. Ze wijst op de kaders van het Nation Institute of Standards and Technology (NIST) als waardevolle bronnen voor het beoordelen van AI-gerelateerde risico's.
AI-startups moeten ook overwegen om hun overeenkomsten zo te structureren dat kwesties als het gebruik van vertrouwelijke informatie en eigendom van door AI gegenereerde content worden geregeld, om maar een paar voorbeelden te noemen. Natasha merkt op dat veel bedrijven clausules eisen waarin specifiek wordt vermeld wanneer hun vertrouwelijke informatie wordt gebruikt om LLM-modellen te trainen. Bedrijven moeten zich bewust zijn van deze nieuwe vereisten en preventief in hun overeenkomsten vermelden hoe gegevens worden gebruikt. Wat auteursrechten betreft, moeten bedrijven een register bijhouden van content die organisch of met enige vorm van AI-ondersteuning is gegenereerd, versus content die uitsluitend met behulp van AI is geproduceerd.
Gezien de snelle ontwikkelingen op het gebied van AI en het veranderende juridische landschap, is het voor start-ups ook van cruciaal belang om op de hoogte te blijven van wijzigingen in de regelgeving en ervoor te zorgen dat ze blijven voldoen aan nieuwe vereisten. Natasha benadrukt het belang van nauw contact met uw juridisch adviseur om u te helpen de wijzigingen in de wetgeving te begrijpen. Ze wees er ook op dat Foley over uitgebreide bronnen beschikt om de AI-wetgeving die in verschillende staten is aangenomen, bij te houden.
Wat specifieke AI-kwesties betreft, voorspelt Natasha dat er in 2024 meer aandacht zal zijn voor het tegengaan van misbruik van deepfake-technologie om verkiezingen te beïnvloeden. Ze verwacht ook dat de federale overheid zich zal blijven inspannen om uitgebreide AI-regelgeving vast te stellen, terwijl andere landen hun eigen AI-wetgeving afronden. Er bestaat een delicaat evenwicht tussen AI-innovatie en regelgeving, en het is belangrijk dat regelgeving innovatie niet in de weg staat, maar tegelijkertijd essentiële waarborgen biedt.
Voor start-ups die deze technologie ontwikkelen en bedrijven die deze implementeren, is het van cruciaal belang om op de hoogte te blijven van nieuwe wetgeving in de VS en juridische ontwikkelingen wereldwijd.