Generative KI-Systeme lösen Streit um faire Nutzung aus
Der Boom generativer künstlicher Intelligenzsysteme (KI) auf dem Markt stößt vor Gericht auf eine Flut von Herausforderungen im Bereich des geistigen Eigentums. In einem bestimmten Fall behaupten Urheberrechtsinhaber, dass die generativen KI-Systeme die urheberrechtlich geschützten Werke der Eigentümer verletzen. Diese Verletzung, so argumentieren die Urheberrechtsinhaber, finde sowohl auf der „Eingabeseite“ als auch auf der „Ausgabeseite“ der Systeme statt. Auf der Eingabeseite argumentieren die Urheberrechtsinhaber, dass der Prozess des „Trainierens“ der Algorithmen oder Modelle der Systeme durch die Aufnahme großer Mengen öffentlich zugänglicher Werke die Urheberrechte der Eigentümer verletzt. Auf der Ausgabeseite behaupten die Urheberrechtsinhaber, dass die von generativen KI-Systemen erstellten sekundären Werke die Urheberrechte der Eigentümer verletzen. Die Beklagten behaupten (oder werden voraussichtlich behaupten), dass die beanstandeten Aktivitäten eine zulässige faire Nutzung darstellen, wodurch sich die Frage stellt, ob die faire Nutzung KI-Unternehmen vor Klagen wegen Urheberrechtsverletzung schützt. Im Folgenden sind einige derzeit anhängige Fälle aufgeführt, deren Entwicklung interessierte Parteien möglicherweise verfolgen möchten:
- Tremblay gegen OpenAI, Inc., Nr. 3:23-cv-03223 (N.D. Cal.):1 Eine Gruppe von Autoren verklagte OpenAI vor dem US-Bezirksgericht für den nördlichen Bezirk von Kalifornien und behauptete, OpenAI habe die Urheberrechte der Kläger an ihren Büchern verletzt, indem es OpenAI's ChatGPT und andere KI-Produkte mit diesen Werken trainiert habe. Die Beklagten reichten einen Antrag auf Abweisung aller Klagegründe mit Ausnahme der direkten Urheberrechtsverletzung ein. Das Gericht wies bestimmte angefochtene Ansprüche ab, gewährte jedoch die Änderung der Klage der Kläger.
- Andersen gegen Stability AI Ltd., Nr. 3:23-cv-00201 (N.D. Cal.): Drei bildende Künstler verklagten Stability AI Ltd., Stability AI, Inc., Deviant Art, Inc. und Midjourney, Inc. im Namen einer mutmaßlichen Sammelklägergruppe vor dem US-Bezirksgericht für den nördlichen Bezirk von Kalifornien und behaupteten, die Beklagten hätten die urheberrechtlich geschützten Bilder der Kläger verletzt, indem sie ihre jeweiligen generativen KI-Systeme mit diesen Werken trainiert hätten. Jeder Beklagte beantragte die Abweisung der Klage, und das Gericht wies alle Ansprüche gegen alle drei Beklagten mit der Möglichkeit zur Änderung ab, mit Ausnahme des Anspruchs wegen direkter Verletzung gegen Stability AI. Die Kläger reichten eine geänderte Klage ein und fügten Runway AI, Inc. zur Klage hinzu. Zum Zeitpunkt der Veröffentlichung dieses Artikels hat jeder Beklagte die Abweisung der geänderten Klagen der Kläger beantragt.
- Authors Guild gegen OpenAI, Inc., Nr. 1:23-cv-08292 (S.D.N.Y.): Autoren von registrierten Urheberrechten verklagten OpenAI vor dem US-Bezirksgericht für den südlichen Bezirk von New York und behaupteten, OpenAI habe die urheberrechtlich geschützten Werke der Autoren verletzt, indem es ChatGPT mit diesen Werken trainiert habe.Zum Zeitpunkt der Veröffentlichung dieses Artikels hat der Beklagte seine Klageerwiderung eingereicht und zahlreiche Einreden geltend gemacht, darunter die faire Nutzung.
- Getty Images (US), Inc. gegen Stability AI, Inc., Nr. 1:23-cv-00135 (D. Del.): Getty Images verklagte Stability AI vor dem US-Bezirksgericht für den Bezirk Delaware und behauptete, Stability AI habe das Urheberrecht von Getty verletzt, indem es die beschuldigte KI von Stability AI mit mehr als 12 Millionen urheberrechtlich geschützten Bildern von Getty trainiert habe. Der Beklagte beantragte die Abweisung der Klage aus mehreren Gründen und beantragte die Verweisung. Zum Zeitpunkt der Veröffentlichung dieses Artikels hat das Gericht noch nicht über diese Anträge entschieden.
- The New York Times Co. gegen Microsoft Corp., Nr. 1:23-cv-11195 (S.D.N.Y.): Die New York Times verklagte OpenAI und Microsoft (sowie verbundene Unternehmen) vor dem US-Bezirksgericht für den südlichen Bezirk von New York und behauptete, Microsoft und OpenAI hätten die urheberrechtlich geschützten Zeitungsartikel der Times verletzt, indem sie die beschuldigten Chatbots mit den Artikeln der Times trainiert hätten. Die Beklagten beantragten die Abweisung der Klage, und Microsoft beantragte die Intervention und die Abweisung, Aussetzung oder Verweisung der Klage. Zum Zeitpunkt der Veröffentlichung dieses Artikels hat das Gericht noch nicht über diese Anträge entschieden.
Diese Fälle befinden sich noch in einem frühen Stadium, aber es ist wahrscheinlich, dass jeder der Beklagten eine Fair-Use-Verteidigung geltend machen wird, wodurch diese Fälle zu den ersten gehören werden, in denen die Anwendbarkeit der Fair-Use-Verteidigung im Zusammenhang mit KI geprüft wird. Während einige der Meinung sind, dass das Trainieren von KI-Modellen mit urheberrechtlich geschützten Werken eindeutig unter Fair Use fällt,2 könnte die Einzigartigkeit der KI und die inhärente Undurchsichtigkeit der Funktionsweise der Systeme diese Frage jedoch weniger eindeutig machen und möglicherweise größere Herausforderungen für die beschuldigten Rechtsverletzer mit sich bringen.
Eine besondere Herausforderung könnte sich daraus ergeben, dass mutmaßliche Rechtsverletzer nicht genau wissen, wie ihre KI-Systeme funktionieren. Beispielsweise lernen Deep-Learning-Modelle – eine der verbreitetsten Formen moderner KI – ähnlich wie Menschen.3 In solchen Modellen trainieren Unternehmen ihre Algorithmen mit korrekten Beispielen für etwas, das der Algorithmus erkennen soll, und schließlich entwickeln die Algorithmen ein „neuronales Netzwerk“, das in der Lage ist, Dinge zu kategorisieren, mit denen die Algorithmen noch nicht in Berührung gekommen sind.4 Tatsächlich haben Website-Nutzer wahrscheinlich unwissentlich an einem solchen Training teilgenommen, indem sie ein „reCAPTCHA” ausgefüllt haben, um auf eine Website zuzugreifen (z. B. durch Anklicken aller Straßenschilder in einem bestimmten Bild). Aufgrund der Funktionsweise dieser Deep-Learning-Modelle wissen KI-Unternehmen nicht genau, wie ihre Systeme Entscheidungen treffen oder zu Schlussfolgerungen gelangen – ein Phänomen, das als „Black-Box”-Problem bekannt ist.5
Die faire Nutzung ist eine positive Verteidigung gegen Urheberrechtsverletzungen, wobei die Beweislast für die Verteidigung beim mutmaßlichen Rechtsverletzer liegt. Bei der Entscheidung, ob eine Nutzung fair ist, berücksichtigen die Gerichte die folgenden Faktoren: (1) den Zweck und Charakter der Nutzung; (2) die Art des urheberrechtlich geschützten Werks; (3) den Umfang und die Wesentlichkeit des genutzten Teils; und (4) die Auswirkungen der Nutzung auf den potenziellen Markt für das urheberrechtlich geschützte Werk.6 Das Black-Box-Problem könnte für beschuldigte Rechtsverletzer eine Herausforderung darstellen, wenn sie darlegen müssen, inwiefern diese Faktoren für eine faire Nutzung sprechen, was den Nachweis einer fairen Nutzung erschweren könnte. Dieses Problem könnte sich auf alle vier Faktoren auswirken, wäre jedoch für Faktor (3) besonders schwierig. Wenn beispielsweise KI-Beklagte nicht wissen, wie ihre Systeme lernen, könnte es schwierig sein, einem Gericht die „Umfang und Wesentlichkeit des verwendeten Teils” zu erklären. Interessierte Parteien sollten die oben aufgeführten Fälle beobachten, um zu sehen, ob das Black-Box-Problem zu einem Thema wird, und um Einblicke zu gewinnen, wie Gerichte mit fairer Nutzung im KI-Kontext umgehen.
- Zwei weitere Fälle, an denen Autoren beteiligt waren, wurden vor dem US-Bezirksgericht für den nördlichen Bezirk von Kalifornien gegen OpenAI eingereicht und dann im Oktober 2023 mit dem Fall Tremblay zusammengelegt. Siehe Chabon v. OpenAI, Inc., Nr. 3:23-cv-04625 (N.D. Cal.) und Silverman v. OpenAI, Inc., Nr. 3:23-cv-03416 (N.D. Cal.). ↩︎
- Siehe Katherine Klosek, „Training Generative AI Models on Copyrighted Works is Fair Use” (Das Trainieren generativer KI-Modelle anhand urheberrechtlich geschützter Werke ist eine faire Nutzung), Association of Research Libraries, zuletzt aktualisiert am 23. Januar 2024 (abgerufen am 28. Februar 2024), https://www.arl.org/blog/training-generative-ai-models-on-copyrighted-works-is-fair-use/. ↩︎
- Lou Blouin, Das mysteriöse „Black-Box“-Problem der KI erklärt, UM-Dearborn News, 6. März 2023 (abgerufen am 28.02.2024), https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained. ↩︎
- Id. ↩︎
- Id. ↩︎
- Siehe Andy Warhol Foundation for the Visual Arts, Inc. gegen Goldsmith, 143 S. Ct. 1258 (2023). ↩︎