California Dreamin’: Zal SB-1047 AI-innovatie afremmen?
De gouverneur van Californië, Gavin Newsom, heeft op 29 september 2024 zijn veto uitgesproken over SB-1047, waarbij hij zijn bezorgdheid uitte over welke modellen onder de wetgeving vallen.
Op 2 juli 2024 keurde de Judiciary Committee van het Huis van Afgevaardigden van Californië SB-1047 (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act) goed, nadat deze op 21 mei 2024 door de Senaat was aangenomen. Het wetsvoorstel heeft tot doel het risico van nieuwe bedreigingen voor de openbare veiligheid en beveiliging die buiten ons huidige kunstmatige intelligentie (AI)-landschap liggen, te beperken en volgt in de voetsporen van SB205 (Consumer Protections for Interactions with Artificial Intelligence) van Colorado, dat algemeen wordt beschouwd als de eerste uitgebreide AI-wetgeving in de Verenigde Staten.
Zelfs als SB1047 niet wordt aangenomen in Californië, kan het toch een model vormen voor andere consumentgerichte wetgevers die regelgeving overwegen. Laten we de details eens nader bekijken:
Toepassingsgebied
In tegenstelling tot het wetsvoorstel in Colorado, dat modellen reguleert op basis van de bedrijfssector of toepassing, heeft dit wetsvoorstel uitsluitend betrekking op AI-modellen op basis van complexiteit. Het is niet algemeen van toepassing op AI-ontwikkelaars, maar richt zich specifiek op ontwikkelaars (d.w.z. bedrijven) die "gedekte modellen" of "gedekte modelderivaten" trainen of leveren in Californië.
Gedekte modellen
Het wetsvoorstel, zoals gewijzigd op 3 juli, definieert een "gedekt model" als een AI-model "dat is getraind met behulp van een rekenkracht van meer dan 10^26 integer- of floating-point-bewerkingen (FLOP's), waarvan de kosten meer dan honderd miljoen dollar (100.000.000 USD) bedragen". Deze drempel komt overeen met die welke president Biden heeft vastgesteld in zijn uitvoeringsbesluit inzake de veilige, betrouwbare en vertrouwenswaardige ontwikkeling en het gebruik van kunstmatige intelligentie. Krachtens dit besluit vallen alle modellen die zijn getraind met een rekenkracht van meer dan 10^26 FLOP's onder de regelgeving van de minister van Handel en moeten zij aan deze minister rapporteren.
Deze twee cijfers vertegenwoordigen momenteel een vergelijkbare drempel, aangezien 100.000.000 dollar ongeveer de kosten zijn voor het trainen van een model met 10^26 FLOP's. Door de hoeveelheid rekenkracht te beoordelen, krijgt men inzicht in hoe efficiënt een computer complexe en grootschalige taken kan uitvoeren. Op het gebied van AI is een hoge rekenkracht essentieel voor het trainen van geavanceerde AI-modellen, met name modellen waarbij deep learning-algoritmen worden gebruikt.
Op het moment van schrijven vallen geen bestaande modellen binnen het bereik van de rekenkracht in het voorgestelde wetsvoorstel. De meeste rekenkracht die wordt gebruikt in een trainingsrun is voor Gemini Ultra, geschat op 5*10^25 FLOPs, waardoor het het meest rekenintensieve model tot nu toe is. Aangezien AI echter snel vordert, kunnen we verwachten dat modellen binnen een jaar de drempel van 10^26 FLOPs zullen overschrijden.
De meeste bepalingen in het wetsvoorstel zijn ook van toepassing op "gedekte modelderivaten", die in het gewijzigde wetsvoorstel worden gedefinieerd als ongewijzigde kopieën van een gedekt model, kopieën van een gedekt model die na de training zijn gewijzigd, met uitzondering van fijnafstemming, en kopieën van gedekte modellen die zijn fijnafgestemd met behulp van minder dan drie keer 10^25 FLOPs aan rekenkracht.
Beperkingen voor ontwikkelaars
Zoals gewijzigd, mogen ontwikkelaars een gedekt model niet commercieel of openbaar gebruiken als er een onredelijk risico bestaat dat het model ernstige schade kan veroorzaken of mogelijk maken. Evenzo is het verboden om een gedekt model of een afgeleide van een gedekt model beschikbaar te stellen voor commercieel of openbaar gebruik als een dergelijk risico bestaat. Het wetsvoorstel maakt echter geen melding van particulier of non-profitgebruik. Het is dan ook onduidelijk welke gevolgen deze beperking zal hebben voor de industrie, met name voor bedrijven die interne modellen gebruiken.
Verantwoordelijkheden van ontwikkelaars
SB-1047 verplicht ontwikkelaars van onder de wet vallende modellen om verschillende maatregelen te nemen om de veiligheid te waarborgen, waaronder de volgende:
Voor de training
- Implementeer administratieve, technische en fysieke cyberbeveiligingsmaatregelen.
- De mogelijkheid implementeren om onmiddellijk een volledige uitschakeling door te voeren
- Implementeer een schriftelijk en afzonderlijk veiligheids- en beveiligingsprotocol dat redelijke zekerheid biedt dat de ontwikkelaar geen gedekt of afgeleid model zal produceren dat een onredelijk risico op ernstige schade met zich meebrengt, volg dit protocol en verstrek de Frontier Model Division een bijgewerkte kopie.
- Voer jaarlijkse veiligheids- en beveiligingsbeoordelingen uit
Vóór commercieel of openbaar gebruik
- Voer een beoordeling uit en implementeer redelijke veiligheidsmaatregelen om de oorzaak van ernstige schade te voorkomen.
Extra verantwoordelijkheden
- Jaarlijkse certificering van naleving door een externe auditor
- Meld veiligheidsincidenten die van invloed zijn op een gedekt model en alle gedekte modelderivaten die onder de controle van de ontwikkelaar vallen binnen 72 uur.
- Implementeer redelijke waarborgen en vereisten om te voorkomen dat een derde partij het model gebruikt of een afgeleid model creëert om ernstige schade te veroorzaken.
Verantwoordelijkheden van het computercluster
Exploitanten van computerclusters moeten ook verschillende maatregelen nemen als en wanneer een klant voldoende computerbronnen gebruikt om een gedekt model te trainen:
- Verkrijg basisadministratieve informatie
- Beoordeel of de klant van plan is om het computercluster te gebruiken om een gedekt model te implementeren.
- Implementeer de mogelijkheid om onmiddellijk alle middelen die worden gebruikt voor het trainen of uitvoeren van klantmodellen volledig uit te schakelen.
- Houd een register bij van de IP-adressen van klanten die voor toegang worden gebruikt en de datum en tijd van elke toegang.
Aanvullende vereisten
Het wetsvoorstel vereist verder dat ontwikkelaars met een commercieel beschikbaar gedekt model en exploitanten van een computercluster een transparante, uniforme, openbaar beschikbare prijslijst hanteren en zich niet schuldig maken aan onwettige discriminatie of concurrentieverstorende activiteiten bij het vaststellen van prijzen of toegang.
Handhaving
De procureur-generaal krijgt op grond van het wetsvoorstel de bevoegdheid om een civiele procedure aan te spannen waarin de rechtbank een voorlopige of declaratoire uitspraak kan doen, met inbegrip van, maar niet beperkt tot, bevelen tot wijziging, volledige stopzetting, verwijdering van het betreffende model, schadevergoeding, advocaatkosten en andere kosten, of elke andere maatregel die de rechtbank passend acht. Het wetsvoorstel bevat ook bepalingen die voorkomen dat ontwikkelaars zich via contracten of bedrijfsstructuren aan hun aansprakelijkheid kunnen onttrekken.
Om klokkenluiders te beschermen, krijgt de arbeidscommissaris op grond van het wetsvoorstel ook de discretionaire bevoegdheid om bepalingen te handhaven die een schending van de arbeidswetgeving zouden vormen.
Het wetsvoorstel zou ook de Frontier Model Division oprichten en het agentschap op grond van de wet de discretionaire bevoegdheid geven om:
- Certificeringsrapporten beoordelen en beknopte bevindingen openbaar maken
- De procureur-generaal adviseren over mogelijke overtredingen
- Regelgeving invoeren voor open-source AI en om onredelijke risico's van gedekte modellen te voorkomen
- Accreditatie voor beste praktijken instellen
- Veiligheidsrapporten publiceren
- Richtlijnen uitvaardigen over de categorieën van AI-veiligheidsincidenten die waarschijnlijk een noodsituatie vormen en de gouverneur van Californië in een dergelijk geval adviseren.
De Frontier Model Division zou onder direct toezicht staan van de Board of Frontier Models, een vijfkoppig panel dat ook in het wetsvoorstel wordt voorgesteld.
Gevolgen voor het bedrijfsleven
Zoals gewijzigd, is het belangrijkste cijfer om op te letten de opleidingskosten van 100.000.000 dollar. Dit bedrag is vastgelegd in de wet, terwijl de drempel voor rekenkracht door Frontier Model Division kan worden aangepast. Bovendien kunnen we verwachten dat de hoeveelheid rekenkracht die met 100.000.000 dollar kan worden gekocht, in de loop van de tijd zal toenemen naarmate innovatie de kosten van opleidingsmodellen verlaagt.
Als het wetsvoorstel wordt aangenomen, kan dit een aantal gevolgen hebben voor het bedrijfsleven. Ontwikkelaars van grensverleggende modellen kunnen het wetsvoorstel als belastend ervaren. Ontwikkelaars die toonaangevend zijn in de generatieve AI-sector kunnen rekenen op uitgebreid toezicht, wat een aanzienlijke invloed kan hebben op de snelheid waarmee een nieuw model op de markt wordt gebracht. Bovendien zullen gereguleerde ontwikkelaars die hun modellen in licentie willen geven aan externe ontwikkelaars, de nodige voorzorgsmaatregelen moeten nemen om aansprakelijkheid te voorkomen door ervoor te zorgen dat externe ontwikkelaars het model niet kunnen hertrainen op een manier die gevaarlijke mogelijkheden met zich meebrengt. Of dit wetsvoorstel wordt aangenomen, kan van invloed zijn op de keuze van deze ontwikkelaars om hun activiteiten te verplaatsen naar een minder gereguleerde staat. Maar zelfs als ze dat doen, blijven ze onderworpen aan de regelgeving van het uitvoeringsbesluit van president Biden.
Daarentegen zullen veel ontwikkelaars geen last hebben van het wetsvoorstel. Zoals eerder vermeld, voldoen zelfs de meest geavanceerde modellen van vandaag de dag niet aan de drempel van de regelgeving, en zijn de oplossingen die met bestaande technologie kunnen worden ontwikkeld wijdverbreid. Er zijn bijvoorbeeld tal van modellen die minder dan 100.000 dollar kosten om te trainen, waaronder zowel onafhankelijk ontwikkelde deep learning-modellen voor computervisietoepassingen als verfijnde neurale netwerken voor gezichtsherkenning. Naarmate ontwikkelaars de vele toepassingen van neurale netwerken blijven onderzoeken, zullen ze waarschijnlijk veel toepassingen vinden die winstgevend zijn tegen voldoende lage rekenkosten. Bedrijven en ontwikkelaars moeten echter ook rekening houden met de snelle vooruitgang van AI-modellen en het gebruik van de meest rekenintensieve modellen evalueren op de dag dat ze economisch haalbaar worden.
Ontwikkelaars die zich zorgen maken over regelgeving hebben tal van mogelijkheden om kwaliteitsmodellen te ontwikkelen zonder de drempels voor kosten en rekenkracht te overschrijden. Zo houdt het wetsvoorstel geen rekening met de kosten van investeringen in de kwaliteit van trainingsgegevens. Door de kwaliteit van trainingsgegevens te verbeteren, kunnen ontwikkelaars die dicht bij de regelgeving staan aanzienlijke verbeteringen in nauwkeurigheid realiseren zonder de drempel te overschrijden. Bovendien kan het verfijnen van een bestaand model een haalbare oplossing zijn voor veel bedrijven die een AI-oplossing binnen hun bedrijf willen implementeren.
Zowel ontwikkelaars als implementators moeten de hangende wetgeving in de verschillende staten van het land blijven volgen. Er zijn momenteel meer dan vierhonderd wetsvoorstellen met betrekking tot AI in behandeling in het hele land. Zelfs als het wetsvoorstel niet wordt aangenomen, is het mogelijk dat soortgelijke voorstellen in andere staten wel worden aangenomen.
Speciale dank gaat uit naar Adam Lundquist, een zomermedewerker bij het kantoor van Foley in Boston, voor zijn bijdragen aan dit artikel.