California Dreamin’: Wird SB-1047 die KI-Innovation bremsen?
Der Gouverneur von Kalifornien, Gavin Newsom, legte am 29. September 2024 sein Veto gegen SB-1047 ein und hob dabei Bedenken hinsichtlich der von der Gesetzgebung erfassten Modelle hervor.
Am 2. Juli 2024 verabschiedete der Justizausschuss der kalifornischen Staatsversammlung den Gesetzentwurf SB-1047 (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act), nachdem dieser bereits am 21. Mai 2024 vom Senat verabschiedet worden war. Der Gesetzentwurf zielt darauf ab, das Risiko neuartiger Bedrohungen für die öffentliche Sicherheit zu verringern, die über unsere derzeitige KI-Landschaft hinausgehen, und folgt damit dem Beispiel des Gesetzes SB205 (Consumer Protections for Interactions with Artificial Intelligence) des Bundesstaates Colorado, das weithin als das erste umfassende KI-Gesetz in den Vereinigten Staaten gilt.
Selbst wenn SB1047 in Kalifornien nicht zum Gesetz wird, könnte es dennoch als Vorbild für andere verbraucherorientierte Gesetzgeber dienen, die eine Regulierung in Betracht ziehen. Sehen wir uns die Einzelheiten genauer an:
Umfang
Im Gegensatz zum Gesetzentwurf in Colorado, der Modelle auf der Grundlage des Wirtschaftssektors oder der Anwendung reguliert, bezieht sich dieser Gesetzentwurf ausschließlich auf KI-Modelle auf der Grundlage ihrer Komplexität. Er gilt nicht allgemein für KI-Entwickler, sondern konzentriert sich speziell auf Entwickler (d. h. Unternehmen), die in Kalifornien „abgedeckte Modelle” oder „abgedeckte Modellderivate” trainieren oder bereitstellen.
Abgedeckte Modelle
Der am 3. Juli geänderte Gesetzentwurf definiert ein „betroffenes Modell“ als ein KI-Modell, das „mit einer Rechenleistung von mehr als 10^26 Ganzzahl- oder Gleitkommaoperationen (FLOPs) trainiert wurde und dessen Kosten 100 Millionen Dollar (100.000.000 US$) übersteigen“. Dieser Schwellenwert entspricht dem, den Präsident Biden in seiner Verordnung über die sichere und vertrauenswürdige Entwicklung und Nutzung künstlicher Intelligenz festgelegt hat. Gemäß dieser Verordnung unterliegen alle Modelle, die mit einer Rechenleistung von mehr als 10^26 FLOPs trainiert wurden , der Aufsicht durch den Handelsminister und müssen diesem Bericht erstatten.
Diese beiden Zahlen stellen derzeit eine ähnliche Schwelle dar, da die Kosten für das Training eines Modells mit 10^26 FLOPs etwa 100.000.000 US-Dollar betragen. Die Bewertung der Rechenleistung gibt Aufschluss darüber, wie effizient ein Computer komplexe und umfangreiche Aufgaben bewältigen kann. Im Bereich der KI ist eine hohe Rechenleistung für das Training anspruchsvoller KI-Modelle unerlässlich, insbesondere für solche, die Deep-Learning-Algorithmen verwenden.
Zum Zeitpunkt der Veröffentlichung dieses Artikels gibt es keine Modelle, die unter die Rechenleistung fallen, die im Gesetzentwurf vorgeschlagen wird. Die größte Rechenleistung, die bei einem Trainingslauf verwendet wird, ist für Gemini Ultra, geschätzt auf 5*10^25 FLOPs, was es zum bisher rechenintensivsten Modell macht. Da die KI jedoch rasante Fortschritte macht, ist davon auszugehen, dass Modelle innerhalb eines Jahres die Schwelle von 10^26 FLOPs überschreiten werden.
Die meisten Bestimmungen des Gesetzentwurfs gelten auch für „abgedeckte Modellderivate“, die im geänderten Gesetzentwurf entweder als unveränderte Kopien eines abgedeckten Modells, als Kopien eines abgedeckten Modells, die nach dem Training einer anderen als einer Feinabstimmung unterzogen wurden, oder als Kopien abgedeckter Modelle definiert sind, die mit weniger als dem Dreifachen von 10^25 FLOPs Rechenleistung feinabgestimmt wurden.
Entwicklerbeschränkungen
In der geänderten Fassung dürfen Entwickler ein erfasstes Modell nicht kommerziell oder öffentlich nutzen, wenn ein unangemessenes Risiko besteht, dass das Modell einen kritischen Schaden verursachen oder ermöglichen kann. Ebenso ist es verboten, ein erfasstes Modell oder ein Derivat eines erfassten Modells für die kommerzielle oder öffentliche Nutzung zur Verfügung zu stellen, wenn ein solches Risiko besteht. Der Gesetzentwurf erwähnt jedoch nicht die private oder gemeinnützige Nutzung. Dementsprechend ist unklar, welche Auswirkungen diese Einschränkung auf die Industrie haben wird, insbesondere auf Unternehmen, die interne Modelle verwenden.
Verantwortlichkeiten des Entwicklers
SB-1047 verpflichtet Entwickler von betroffenen Modellen zur Umsetzung verschiedener Maßnahmen zur Gewährleistung der Sicherheit, darunter die folgenden:
Vor dem Training
- Implementieren Sie administrative, technische und physische Cybersicherheitsmaßnahmen.
- Implementierung der Fähigkeit, umgehend eine vollständige Abschaltung durchzuführen
- Implementieren Sie ein schriftliches und separates Sicherheitsprotokoll, das eine angemessene Gewähr dafür bietet, dass der Entwickler kein abgedecktes oder abgeleitetes Modell erstellt, das ein unangemessenes Risiko für kritische Schäden darstellt, befolgen Sie dieses Protokoll und stellen Sie der Frontier Model Division eine aktualisierte Kopie zur Verfügung.
- Jährliche Sicherheitsüberprüfungen durchführen
Vor kommerzieller oder öffentlicher Nutzung
- Führen Sie eine Bewertung durch und implementieren Sie angemessene Schutzmaßnahmen, um die Ursache für schwerwiegende Schäden zu verhindern.
Zusätzliche Aufgaben
- Jährliche Konformitätsbescheinigung durch einen unabhängigen Prüfer
- Sicherheitsvorfälle, die ein abgedecktes Modell und alle abgedeckten Modellderivate unter der Kontrolle des Entwicklers betreffen, müssen innerhalb von 72 Stunden gemeldet werden.
- Führen Sie angemessene Sicherheitsvorkehrungen und Anforderungen ein, um zu verhindern, dass Dritte das Modell verwenden oder ein abgeleitetes Modell erstellen, um kritischen Schaden zu verursachen.
Verantwortlichkeiten des Rechenclusters
Betreiber von Rechenclustern müssen ebenfalls verschiedene Maßnahmen ergreifen, wenn ein Kunde Rechenressourcen nutzt, die für das Training eines erfassten Modells ausreichen:
- Grundlegende administrative Informationen einholen
- Beurteilen Sie, ob der Kunde beabsichtigt, den Rechencluster zur Bereitstellung eines abgedeckten Modells zu nutzen.
- Implementieren Sie die Möglichkeit, alle Ressourcen, die zum Trainieren oder Betreiben von Kundenmodellen verwendet werden, umgehend vollständig herunterzufahren.
- Protokollieren Sie die IP-Adressen der Kunden, die für den Zugriff verwendet werden, sowie Datum und Uhrzeit jedes Zugriffs.
Zusätzliche Anforderungen
Der Gesetzentwurf verlangt außerdem, dass Entwickler mit einem kommerziell erhältlichen abgedeckten Modell und Betreiber eines Rechenclusters über eine transparente, einheitliche und öffentlich zugängliche Preisliste verfügen und bei der Festlegung von Preisen oder Zugangsbedingungen keine unrechtmäßige Diskriminierung oder wettbewerbswidrige Aktivitäten betreiben.
Vollstreckung
Der Generalstaatsanwalt hat gemäß dem Gesetzentwurf das Recht, eine Zivilklage einzureichen, in der das Gericht eine Unterlassungs- oder Feststellungsklage zusprechen kann, einschließlich, aber nicht beschränkt auf Anordnungen zur Änderung, zur vollständigen Stilllegung, zur Löschung des betroffenen Modells, zu Schadenersatz, Anwaltskosten und sonstigen Kosten oder jede andere Entschädigung, die das Gericht für angemessen hält. Der Gesetzentwurf enthält auch Bestimmungen, die verhindern, dass Entwickler sich durch Verträge oder Unternehmensstrukturen ihrer Haftung entziehen können.
Zum Schutz von Whistleblowern erhält der Arbeitsbeauftragte gemäß dem Gesetzentwurf auch die Befugnis, Bestimmungen durchzusetzen, die einen Verstoß gegen das Arbeitsgesetz darstellen würden.
Der Gesetzentwurf würde auch die Frontier Model Division schaffen und der Behörde gemäß dem Gesetz die Befugnis geben,
- Zertifizierungsberichte prüfen und zusammengefasste Ergebnisse veröffentlichen
- Beratung des Generalstaatsanwalts zu möglichen Verstößen
- Regelungen für Open-Source-KI einführen und unangemessene Risiken der erfassten Modelle verhindern
- Akkreditierung für bewährte Verfahren einrichten
- Sicherheitsberichte veröffentlichen
- Leitlinien zu den Kategorien von KI-Sicherheitsvorfällen herausgeben, die wahrscheinlich einen Notfall darstellen, und den Gouverneur von Kalifornien in einem solchen Fall beraten.
Die Frontier Model Division würde unter der direkten Aufsicht des Frontier Models Board stehen, einem ebenfalls im Gesetzentwurf vorgeschlagenen fünfköpfigen Gremium.
Auswirkungen auf die Wirtschaft
In der geänderten Fassung ist die wichtigste Kennzahl, die es zu beachten gilt, die Ausbildungskosten in Höhe von 100.000.000 US-Dollar. Dieser Dollarbetrag ist im Gesetz festgelegt, während die Schwelle für die Rechenleistung von der Frontier Model Division angepasst werden könnte. Darüber hinaus ist zu erwarten, dass die Rechenleistung, die mit 100.000.000 US-Dollar erworben werden kann, im Laufe der Zeit steigen wird, da Innovationen die Kosten für die Ausbildung von Modellen senken.
Sollte der Gesetzentwurf verabschiedet werden, könnte dies eine Reihe von Auswirkungen auf die Wirtschaft haben. Entwickler von Frontier-Modellen könnten den Gesetzentwurf als belastend empfinden. Die führenden Entwickler im Bereich der generativen KI müssen mit einer umfassenden Aufsicht rechnen, die sich erheblich auf die Geschwindigkeit der Markteinführung neuer Modelle auswirken könnte. Darüber hinaus müssen regulierte Entwickler, die ihre Modelle an Drittentwickler lizenzieren möchten, die notwendigen Vorkehrungen treffen, um eine Haftung zu vermeiden, indem sie sicherstellen, dass Drittentwickler das Modell nicht so umtrainieren können, dass es gefährliche Fähigkeiten erhält. Die Verabschiedung dieses Gesetzes könnte sich darauf auswirken, ob diese Entwickler sich dafür entscheiden, ihre Aktivitäten in einen weniger regulierten Staat zu verlagern. Selbst wenn sie dies tun, unterliegen sie jedoch weiterhin der Regulierung durch die Executive Order von Präsident Biden.
Im Gegensatz dazu werden viele Entwickler von dem Gesetzentwurf nicht betroffen sein. Wie bereits erwähnt, erreichen selbst die fortschrittlichsten Modelle von heute nicht die Schwelle der Regulierung, und die Lösungen, die mit der vorhandenen Technologie entwickelt werden können, sind weit verbreitet. So gibt es beispielsweise zahlreiche Modelle, deren Training weniger als 100.000 US-Dollar kostet, darunter sowohl unabhängig entwickelte Deep-Learning-Modelle für Computer-Vision-Anwendungen als auch fein abgestimmte neuronale Netze für die Gesichtserkennung. Da Entwickler weiterhin die vielen Anwendungsmöglichkeiten neuronaler Netze prüfen, werden sie wahrscheinlich viele finden, die bei ausreichend geringen Rechenkosten rentabel sind. Unternehmen und Entwickler sollten jedoch auch die rasante Entwicklung der KI-Modelle im Auge behalten und den Anwendungsfall für die rechenintensivsten Modelle an dem Tag bewerten, an dem sie wirtschaftlich rentabel werden.
Entwickler, die sich mit Regulierungsfragen befassen, haben zahlreiche Möglichkeiten, hochwertige Modelle zu entwickeln, ohne die Kosten- und Rechenleistungsschwellen zu überschreiten. So berücksichtigt der Gesetzentwurf beispielsweise nicht die Kosten für Investitionen in die Qualität der Trainingsdaten. Durch die Verbesserung der Qualität der Trainingsdaten könnten Entwickler, die sich in der Nähe der Regulierungsschwelle bewegen, erhebliche Genauigkeitsverbesserungen erzielen, ohne die Schwelle zu überschreiten. Darüber hinaus könnte die Feinabstimmung eines bereits vorhandenen Modells eine praktikable Lösung für viele Unternehmen sein, die eine KI-Lösung in ihrem Geschäft implementieren möchten.
Sowohl Entwickler als auch Anwender sollten die anstehenden Gesetzgebungsverfahren in den einzelnen Bundesstaaten weiterhin beobachten. Derzeit sind landesweit mehr als vierhundert Gesetzesvorlagen zum Thema KI in Bearbeitung. Selbst wenn eine Gesetzesvorlage nicht verabschiedet wird, ist es möglich, dass ähnliche Vorlagen in anderen Bundesstaaten angenommen werden.
Besonderer Dank gilt Adam Lundquist, Sommerpraktikant in der Bostoner Kanzlei von Foley, für seine Beiträge zu diesem Artikel.