US-Sammelklage: KI-Unternehmen muss Rechteinhaber entschädigen

Ein Signal pro Lizenzierung? Der Streitfall Anthropic

9. Oktober 2025
Redaktion Börsenblatt

In den USA muss ein KI-Unternehmen 1,5 Milliarden Dollar Schadensersatz an Verlage und Autor:innen zahlen. Was es damit auf sich hat - und was den Fall auch für Deutschland bedeutsam macht: Antworten von Susanne Barwick, stellvertretende Justiziarin des Börsenvereins. 

Susanne Barwick

Die Sammeklage schafft keinen Präzedenzfall für eine generelle Lizenzierungspflicht von KI-Trainingsdaten. Aber es könnte ein Signal an KI-Unternehmen sein, das Thema endlich ernst zu nehmen

Susanne Barwick, stellvertretende Justiziarin des Börsenvereins

Die Fragen stellte Anna Härle.

Eine Sammelklage sorgt aktuell für Aufmerksamkeit in den USA, aber auch bei uns: Verlage und Autor:innen werfen dem KI-Konzern Anthropic vor, ihre Inhalte ohne Erlaubnis zu Trainingszwecken eingesetzt zu haben. Worum geht es bei dem Fall konkret?

Susanne Barwick: Anthropic ist ein Unternehmen, das künstliche Intelligenz entwickelt, insbesondere große Sprachmodelle (ähnlich ChatGPT). Ihr bekanntestes Produkt ist der Chatbot "Claude".

Der Vorwurf bei besagter Sammelklage in den USA ist nun, dass Anthropic Millionen urheberrechtlich geschützter Bücher ohne Erlaubnis genutzt hat, um seine KI-Modelle zu trainieren. Die Werke stammen überwiegend von illegalen Buchpiraterie-Seiten wie Library Genesis und Pirate Library Mirror.

Das Gericht hat im Juni 2025 in zwei Punkten entschieden, die urheberrechtlich relevant sind: Das Training von KI mit legal erworbenen Werken kann als "Fair Use" gelten, ist also unter gewissen Umständen zulässig. Werden hierfür jedoch Datensätze aus illegal beschafften, raubkopierten Werken erstellt, liegt darin eine Urheberrechtsverletzung, die nicht durch "Fair Use" gerechtfertigt ist. Die Klage wurde daher auf die Ansprüche wegen massenhaftem Kopieren von Büchern aus illegalen Schattenbibliotheken reduziert.  

Was bedeutet das konkret für die Rechteinhaber?

Susanne Barwick: Im September 2025 haben beide Parteien eine Einigung erzielt und das US-Gericht hat dem Vergleich vorläufig zugestimmt. Anthropic zahlt demnach 1,5 Milliarden Dollar in einen Einigungsfonds, der verwendet wird, um die Rechteinhaber der Sammelklage zu befriedigen sowie die Kosten des Verfahrens zu decken.

Es handelt sich dabei um die höchste Summe, die jemals mit einer Sammelklage im Urheberrecht erreicht wurde. Der Vergleich bezieht sich allerdings ausschließlich auf die Nutzung von raubkopierten Werken zur Erstellung eines Datensatzes in den USA. Er schafft also keinen Präzedenzfall für eine generelle Lizenzierungspflicht von KI-Trainingsdaten.

Lässt sich daraus auch etwas für Verlage und Autoren in Deutschland schließen?

Susanne Barwick: Sicherlich fragen sich einige deutsche Verlage und Autor:innen, ob sie an dem Vergleich teilnehmen können. Leider gibt es in den USA die Besonderheit, dass unter anderem eine formale Registrierung beim U.S. Copyright Office Voraussetzung ist, um pauschalen Schadensersatz in Urheberrechtsklagen zu erhalten.

Da eine solche Registrierung nicht nötig ist, um grundsätzlich urheberrechtlichen Schutz in USA zu genießen, haben deutsche Rechteinhaber eine Registrierung im Regelfall nicht vorgenommen. Selbst wenn ein deutsches Werk also in den von Anthropic genutzten Piraterie-Seiten verfügbar und damit betroffen war, ist eine Teilnahme am Vergleich ohne Registrierung beim US Copyright Office nicht möglich.

Eine solche Registrierung kann leider auch nicht mit Wirkung für diesen Vergleich nachgeholt werden, sie muss bereits zum Stichtag im Jahr 2022 bestanden haben. Urheber und Verlage, deren Werke damals nicht registriert waren, können in dieser Sache also nicht der „class“ beitreten.

Ist der Fall dennoch auch für uns in Deutschland bedeutsam?

Susanne Barwick: Ja, das ist er. Immerhin wird in USA ein KI-Unternehmen Verlage und Autoren für die illegale Verwendung von Raubkopien entschädigen müssen. Dies könnte ein Signal an KI-Unternehmen sein, das Thema „Lizenzen“ nun endlich ernst zu nehmen. Die weitergehende Frage, ob das KI-Training mit urheberrechtlich geschützten Werken unter „Fair Use“ fällt, ist allerdings noch nicht geklärt. Der Richter im Anthropic-Fall hat hier aus unserer Sicht wichtige Aspekte übersehen und es gibt weitere Verfahren in den USA, in denen diese Frage noch offen ist bzw. Richter ausdrücklich gegenteilige Ansichten über die für „Fair Use“ entscheidenden Faktoren vertreten.

Die Einigung zeigt zudem, dass KI-Unternehmen durchaus in der Lage sind, offenzulegen, mit welchen Daten trainiert wurde. Dies sollte auch für den deutschen und europäischen Gesetzgeber eine interessante Erkenntnis sein. Bislang gibt es für Europa keine zufriedenstellende Regelung hinsichtlich der Transparenzpflichten für KI-Entwickler. Doch nur wenn Urheber*innen und Rechteinhaber nachvollziehen können, welche Werke für das Training von KIs verwendet wurden, können diese ihre Rechte auch durchsetzen.