>
GEMA v. OpenAI
Wenn Ihre KI zu viel erinnert, kann das rechtswidrig sein: GEMA vs. OpenAI in Deutschland, und was Life-Sciences-Unternehmen zum Urheberrechtsrisiko wissen sollten

Daniel Schuppmann, LL.M.
Aktualisiert am:
13. Feb. 2026
Wenn Ihr Unternehmen ein eigenes Large Language Model (LLM) entwickelt, etwa für Anwendungen wie Wirkstoffforschung, Biomarker-Identifikation oder die Optimierung klinischer Studien, sollte dieser Fall auf Ihrem Radar sein. Ein aktuelles Urteil des Landgerichts München I (LG München I, Urteil v. 11.11.2025 – 42 O 14139/24 – GEMA vs. OpenAI) setzt ein deutliches Signal. Auch wenn die Entscheidung noch nicht rechtskräftig ist, zeichnet sich eine klare Linie ab: Das Training von LLMs mit urheberrechtlich geschützten Werken stellt nach deutschem Recht eine Urheberrechtsverletzung dar, sofern nicht eng begrenzte gesetzliche Ausnahmen greifen. Das betrifft sowohl die Nutzung der Werke während des Trainings als auch ihr (Wieder-)Auftauchen in Chatbot-Ausgaben.
Im Verfahren ging es um eine Klage der GEMA, der deutschen Verwertungsgesellschaft für Musikrechte, gegen OpenAI. Der Kernvorwurf: ChatGPT hatte auf einfache Nutzerprompts hin bekannte deutsche Songtexte wiedergegeben. Das Gericht kam zu dem Ergebnis, dass OpenAI seine Modelle mit urheberrechtlich geschützten Lyrics trainiert habe, ohne die erforderlichen Rechte eingeholt zu haben. Dies stelle eine Urheberrechtsverletzung nach deutschem Recht dar. Besonders relevant ist, dass das Gericht (1) die Annahme zurückwies, ein solches Training sei durch die europäische Text-und-Data-Mining-Ausnahme gedeckt, und (2) auch das technische Argument verwarf, eine rechtsverletzende Vervielfältigung setze voraus, dass im Modell ein klar abgrenzbarer Datensatz identifizierbar sei. Auf diese beiden Positionen hatten viele Unternehmen gesetzt. Sie waren zudem in der akademischen und technischen Diskussion breit vertreten. Das Gericht stellte stattdessen darauf ab, dass auch dann, wenn Werke in numerische Parameter zerlegt und über das Modell verteilt werden, eine reproduzierbare Präsenz, also die Möglichkeit, geschützte Inhalte durch Prompts rekonstruieren zu können, weiterhin als körperliche Fixierung im urheberrechtlichen Sinne zu qualifizieren ist. Oder weniger formal: Wenn es aussieht wie eine Ente, schwimmt wie eine Ente und quakt wie eine Ente, dann ist es wahrscheinlich eine Ente.
Warum sollten Life-Sciences-Unternehmen das interessieren? Weil LLMs, die mit proprietärer wissenschaftlicher Literatur, historischen klinischen Daten oder Gesundheitsdaten trainiert werden, Inhalte „memorieren“ und später reproduzieren können. In diesem Fall droht den Entwicklern eine Haftung wegen Urheberrechtsverletzung. Anders gesagt: Sie sollten sich mit der Rechtmäßigkeit Ihrer Trainingsdaten, den Grenzen des Text und Data Mining (TDM) und der möglichen Haftung beschäftigen, wenn Ihre Modelle Inhalte Dritter „abspeichern“.
Schauen wir uns das etwas genauer an: Was das Gericht gesagt hat, warum es relevant ist und was Sie jetzt tun sollten.
I. Anwendbares Recht: warum deutsches Urheberrecht gilt (und warum „fair use“ nicht hilft)
Das Gericht wendete deutsches Recht auf Grundlage der Rom-II-Verordnung (Art. 8 Abs. 1) an. Diese regelt außervertragliche Schuldverhältnisse aus Verletzungen von Immaterialgüterrechten. Das Gericht stützte sich auf das sogenannte Schutzlandprinzip. Danach ist das Recht des Landes anwendbar, für das Schutz beansprucht wird. Da die GEMA eine Verletzung in Deutschland geltend machte, war deutsches Recht anwendbar. Für behauptete Verletzungen von Persönlichkeitsrechten, die vom Anwendungsbereich der Rom-II-Verordnung ausgenommen sind, griff das Gericht auf deutsche kollisionsrechtliche Regeln zurück, die ebenfalls zur Anwendung deutschen Rechts führten.
Das erklärt zugleich, warum Argumente aus der US-amerikanischen „fair use“-Doktrin im europäischen Kontext nicht tragen. Fair use, das in den USA in Teilen weit ausgelegt wird und bestimmte transformative Nutzungen auch ohne Zustimmung erlaubt, hat in der EU kein direktes Pendant. Das europäische Urheberrecht arbeitet mit einem abschließenden Katalog gesetzlicher Schranken. Diese werden von Gerichten typischerweise eng ausgelegt. Das Münchener Urteil folgt dieser Tradition. Für global agierende Life-Sciences-Unternehmen, die KI-Systeme in mehreren Jurisdiktionen entwickeln, führt diese Divergenz zu erheblicher rechtlicher Komplexität. Ein Modell, das in den USA unter einer fair-use-Theorie trainiert wird, kann in Europa dennoch Unterlassungs- und Schadensersatzansprüche auslösen.
II. Kernaussage 1: „Memorization“ ist eine Vervielfältigung
Im Zentrum des Falls steht die urheberrechtliche Einordnung dessen, was beim Modelltraining passiert. Das Gericht hielt fest:
„Die urheberrechtlich geschützten Liedtexte wurden in den Modellen vervielfältigt und sind in den Modellparametern so eingebettet, dass ihre Ausgabe möglich ist. Dies stellt eine Vervielfältigung im Sinne von § 16 UrhG dar.“
Entscheidend ist, dass das Gericht OpenAIs Argument zurückwies, Ausgaben seien lediglich das Ergebnis probabilistischer Synthese. Selbst wenn Informationen als Wahrscheinlichkeiten oder Vektoren gespeichert werden, reicht es nach Auffassung des Gerichts aus, dass das urheberrechtlich geschützte Werk durch einfache Prompts reproduziert werden kann. Damit qualifiziert bereits die interne Speicherung als Vervielfältigung. Das Gericht stellte außerdem klar, dass es unerheblich ist, ob die Memorierung intentional oder nur beiläufig erfolgt. Damit wird bestätigt: Das Speichern geschützter Inhalte in einem Modell genügt für eine urheberrechtliche Haftung, selbst wenn das Modell nicht auf das ursprüngliche Dateiformat zugreifen kann, solange der Inhalt reproduzierbar bleibt.
III. Kernaussage 2: Text und Data Mining rechtfertigt kein KI-Training
Text und Data Mining (TDM) bezeichnet die automatisierte Analyse großer Mengen digitaler Inhalte, etwa wissenschaftlicher Artikel oder klinischer Datensätze, um Muster, Trends oder Zusammenhänge zu identifizieren. Vereinfacht gesagt erlaubt TDM Computern, große Textmengen zu „lesen“ und auszuwerten, ohne dass Menschen jedes Dokument einzeln durchgehen müssen. In der EU ist TDM unter bestimmten Voraussetzungen zulässig. Rechteinhaber können jedoch durch einen ausdrücklichen Rechtevorbehalt opt-outen und die Nutzung untersagen.
Das Gericht nahm eine zentrale Differenzierung zwischen den Phasen der KI-Entwicklung vor:
Phase 1: Sammlung, Erstellung und Formatierung des Trainingsdatensatzes.
Phase 2: Training des Modells, in dem die Daten analysiert werden.
Phase 3: Nutzung des trainierten Modells über Prompts und Outputs.
Die deutschen und europäischen TDM-Ausnahmen nach § 44b UrhG und Art. 4 der DSM-Richtlinie gelten nach Auffassung des Gerichts nur für Phase 1. Sie erlauben nicht, dass Werke in Phase 2 in das Modell selbst „hineinvervielfältigt“ werden.
Das Gericht formulierte sinngemäß: „Die Memorierung der Trainingsdaten im Modell überschreitet den Rahmen der durch die TDM-Ausnahmen erlaubten Analyse. Es handelt sich nicht um bloße Auswertung, sondern um eine dauerhafte Einbettung in die Modellparameter, die in die Verwertungsinteressen der Rechteinhaber eingreift.“
Mit anderen Worten: TDM erlaubt Analyse, aber nicht Absorption.
Das ist praktisch relevant: Training auf einem Datensatz von FDA-Submissions? Wenn diese Dokumente urheberrechtlich geschützte Inhalte enthalten und Ihr Modell sie reproduzieren kann, kann eine Haftung drohen. Nutzung historischer CRO-Reports oder medizinischer Literatur? Wenn das Modell Inhalte daraus „erinnert“ und ausgibt, schützt Sie die TDM-Ausnahme nicht.
IV. Kernaussage 3: Direkte Haftung für Outputs
Das Gericht befasste sich auch mit der Haftung für rechtsverletzende Outputs. Es wies die Argumentation zurück, der Betreiber sei nur eine neutrale Plattform wie ein Hosting-Provider. Stattdessen stellte das Gericht klar, dass der Betreiber eines generativen Modells für dessen Outputs unmittelbar verantwortlich ist, wenn durch einfache Prompts urheberrechtlich geschützte Inhalte reproduziert werden. Einen „Intermediär-Schutzschirm“ gibt es nicht.
V. Praktische Konsequenzen für Life-Sciences-Unternehmen
Das Urteil sollte Anlass sein, KI-Workflows in der Branche neu zu bewerten. Besonders wichtig sind folgende Maßnahmen:
Audit der Trainingsdaten: Stellen Sie sicher, dass urheberrechtlich geschützte Inhalte (z.B. klinische Studienberichte, Publikationen, wissenschaftliche Datensätze, regulatorische Einreichungen, historische Verträge) für die Nutzung im Modelltraining rechtlich freigegeben sind, und zwar über reine TDM-Zwecke hinaus, etwa durch belastbare Lizenzmodelle.
Modellarchitektur mit Blick auf Reproduzierbarkeit: Verstehen Sie, was Ihr Modell tatsächlich ausgeben kann. Wenn ein LLM in der Lage ist, proprietäre oder fremde Texte zu regenerieren, entsteht ein konkretes Haftungsrisiko.
Lizenzbedingungen sauber verhandeln: Wenn Sie Daten von CROs, akademischen Partnern oder öffentlichen Datenbanken nutzen, sollten die Rechte ausdrücklich auch Training und potenzielle Reproduktion umfassen.
Output-Filter implementieren: Gerade bei Anwendungen wie automatisch generierten Patientenmaterialien oder Literaturzusammenfassungen sind retrieval-basierte oder template-gebundene Ansätze häufig risikoärmer.
Rechtsprechung beobachten: Das Urteil ist angefochten. Höhere Instanzen könnten den Rahmen präzisieren. Der Trend geht jedoch erkennbar in Richtung strengerer Prüfung von KI-Trainingsmethoden.
Sie entwickeln oder deployen LLMs in Europa? Wir unterstützen Life-Sciences-Unternehmen dabei, KI-Innovation mit urheberrechtlicher Compliance zu verbinden, ohne F&E unnötig zu verlangsamen.
Frequently Asked Questions

Daniel Schuppmann, LL.M.
Senior Associate
As a Senior Associate at NEUWERK, Daniel advises on intellectual property and IT law, specializing in the licensing, commercialization, and transfer of IP rights. He regularly advises on transactions involving the development, exploitation, and protection of technology, as well as software agreements, outsourcing, and data protection. In addition, he supports clients in M&A deals, carve-outs, and other strategic transactions involving intellectual property and technology assets.
His work spans multiple industries, with a particular focus on the pharma, biotech and medtech industries.
Daniel has extensive experience in drafting and negotiating complex research and development collaborations, licensing and option deals, and and IP assignments. He also frequently advises on commercial agreements, including manufacturing and supply arrangements, distribution agreements, clinical trial agreements, service agreements, material transfer agreements and confidentiality agreements.
His clients range from large multinational corporations, investors, and fast-growing start-ups to spin-outs, academic institutions, and non-profit research organizations.
In 2024 and 2025, the German Newspaper Handelsblatt recognized Daniel as “One to Watch - Lawyer of the Future” in the fields of Intellectual Property and IT Law.
+49 40 340 57 57 - 63
