StartseiteArtikel

Soras "offener Trick": Lösen der Ahnungslosigkeit in Bezug auf AI-Copyright durch ein Gewinnbeteiligungsmodell

36氪的朋友们2025-10-11 18:31
Wer sollte diesen neuen Kuchen schneiden und wie sollte er verteilt werden?

Am 30. September veröffentlichte OpenAI sein bisher leistungsfähigstes Videogenerierungsmodell Sora 2.0. Die beeindruckenden Ergebnisse haben die Tech-Szene schockiert. Innerhalb von weniger als fünf Tagen nach dem Release wurden bereits über eine Million Downloads erreicht, schneller als es damals bei ChatGPT ohne Zugangsbeschränkungen der Fall war. Doch es hat auch schnell die seit langem schwelende AI-URHEBERRECHTSKRISIS entfacht.

Im Internet tauchten plötzlich zahlreiche Nutzer auf, die mit Sora AI-Fanvideos bekannter IPs (wie Pikachu, Mario) erstellten. Die entsprechenden Videoinhalte wurden weit verbreitet und genutzt.

Drei große Hollywood-Buchungsagenturen haben sich zusammengeschlossen, um gegen Sora vorzugehen. Sie haben die Ressourcen ihrer Kunden einziehen lassen und gefordert, dass ein Lizenzierungs- und Einnteilungssystem eingerichtet wird. Giganten wie Disney und Branchenverbände haben gleichzeitig Druck ausgeübt und OpenAI aufgefordert, die Verantwortung für Urheberrechtsverletzungen zu übernehmen.

Hinter diesem Phänomen steht das ursprünglich von Sora eingesetzte "Opt-out"-System. Dieses System erlaubt standardmäßig die Erzeugung von urheberrechtlich geschütztem Inhalt, es sei denn, der Rechteinhaber fordert ausdrücklich die Entfernung. Diese Politik schiebt die Verantwortung für die Durchsetzung der Rechte vollständig auf die Rechteinhaber und wird dafür kritisiert, dass sie möglicherweise systemische Urheberrechtsverletzungen verursachen könnte.

Am 4. Oktober wechselte OpenAI in der heißen Phase der Debatte von der "Opt-out"-Methode. Der CEO Sam Altman kündigte eine entscheidende strategische Wende an: Sora wird künftig eine "Opt-in"-Politik einführen und ein Einnteilungssystem für IP-Einnahmen einführen. Es wird ein Geschäftsmodell umsetzen, bei dem die Plattformseinnahmen mit den Rechteinhabern, die die Nutzung ihrer Charaktere genehmigen, geteilt werden. Dies ist wie ein unerwarteter Zug im Spannungsfeld zwischen AI-Unternehmen und Rechtegiganten.

Dies markiert, dass die führenden Akteure in der Branche versuchen, den Konflikt von der gerichtlichen Auseinandersetzung hin zu einer kommerziellen Partnerschaft zu verlagern und eine neue Möglichkeit für die gemeinsame Schaffung einer Ökosystem für AI-URHEBERRECHTE zu finden. Aber kann dieses neue Modell wirklich die umstrittene Frage des AI-Video-URHEBERRECHTS grundlegend lösen?

Dieser Artikel wird aus der Perspektive eines Anwalts für geistiges Eigentum die neue Sora-URHEBERRECHTS-Einnteilungspolitik legal analysieren und die dahinter liegende Verteilung der Interessen untersuchen.

Bild: AI-generierte Bilder von Pikachu und Mario

Die rechtlichen Probleme hinter Sora 2

Um die Bedeutung der neuen Sora-Politik zu verstehen, muss man zunächst die derzeitigen rechtlichen Probleme aufzeigen, denen AI-Unternehmen gegenüberstehen.

Hinter der Sora-URHEBERRECHTSkrise liegt das seit der Entstehung von generativer AI ungelöst bleibende zentrale rechtliche Problem: Ist es eine Urheberrechtsverletzung, wenn kommerzielle AI-Modelle ohne Genehmigung mit einer riesigen Menge an urheberrechtlich geschützten Werken trainiert werden? Diese Frage lässt sich weiter aufteilen in die Frage der Legalität der Trainingsdaten auf der "Eingabeseite" und das Risiko von Urheberrechtsverletzungen bei der Erzeugung von ähnlichen Inhalten auf der "Ausgabeseite".

Zunächst das Problem der Trainingsdaten auf der "Eingabeseite". Die Stärke von AI-Modellen beruht auf dem Lernen aus einer riesigen Menge an Daten, die unweigerlich eine große Anzahl an urheberrechtlich geschützten Bildern, Videos und Texten enthalten. AI-Unternehmen behaupten allgemein, dass das Sammeln und Verwenden dieser Daten für das Modelltraining eine berechtigte Nutzung (Fair Use) sei. Aber diese Argumentation stößt in der gerichtlichen Praxis auf enorme Herausforderungen.

In den letzten Jahren haben verschiedene Rechteinhaber mehrere Klagen erhoben. Von der Klage der Bilderdatenbank Getty Images gegen Stable Diffusion über die gemeinsame Klage der sechs großen Hollywood-Studios gegen Midjourney bis hin zur Urheberrechtsklage von Warner Bros. wegen eines AI-generierten Supermann-Bildes. Alle diese Klagen zielen auf die unbefugte Nutzung von urheberrechtlich geschützten Inhalten für das Modelltraining. Bislang warten alle auf eine autoritative Entscheidung des Gerichts über die Anwendung des Fair-Use-Prinzips in der AI-Zeit.

Zur gleichen Zeit haben einige Unternehmen begonnen, Lösungen außerhalb des gerichtlichen Wegs zu suchen.

Kürzlich hat das Unternehmen Anthropic, dem das AI-Modell Claude gehört, in einem Kollektivprozess, der von mehreren Autoren gegen das Unternehmen erhoben wurde, einen Vergleich in Höhe von 1,5 Milliarden US-Dollar mit den Autoren und Verlagen geschlossen. Dies zeigt indirekt, dass AI-Unternehmen immer noch keine solide rechtliche Grundlage bei der Frage der Trainingsdaten haben.

Zweitens besteht das Risiko von Urheberrechtsverletzungen bei den generierten Inhalten auf der "Ausgabeseite". Selbst wenn die Hürde der Trainingsdaten genommen ist, kann der von AI generierte spezifische Inhalt immer noch eine Verletzung bestehender Werke darstellen. In der Anfangsphase konnte Sora 2 hochrealistische Videos von Pikachu oder Tanjirō Kamado (Hauptcharakter aus der Manga-Serie "Kimetsu no Yaiba") generieren. Dies kann leicht als unbefugte Kopie des Charakterbildes oder als Schaffung eines urheberrechtsverletzenden abgeleiteten Werkes angesehen werden und ist ein typisches Beispiel für eine Urheberrechtsverletzung.

Bild: Naruto, One Piece und Kimetsu no Yaiba, generiert mit Sora2

Beispielsweise hat das Hangzhou Internetgericht 2024 festgestellt, dass eine AI-Plattform, die es Nutzern erlaubte, Bilder von Ultraman hochzuladen, um ein LoRA-Modell zu trainieren und ähnliche urheberrechtsverletzende Inhalte zu generieren, eine Beihilfe bei der Urheberrechtsverletzung begangen hat. Das Guangzhou Internetgericht hat 2024 entschieden, dass die AI-Malfunktion einer anderen Plattform stabile Bilder generieren konnte, die im Wesentlichen ähnlich dem Ultraman-Bild waren, was eine direkte Urheberrechtsverletzung darstellt.

Die "Opt-out"-Politik schiebt die Verantwortung für die Erkennung und Entfernung von urheberrechtsverletzenden Inhalten auf die Rechteinhaber. Diese Vorgehensweise ist rechtlich sehr passiv. Wenn Rechtegiganten wie Nintendo oder Disney Klagen erheben, muss die Plattform enorme rechtliche und Schadensersatzrisiken tragen.

Deshalb hat Sora 2 durch die "Opt-out"-Politik beide oben genannten rechtlichen Risiken eingehen müssen. Die schnelle Wende von OpenAI ist eher eine Reaktion auf die Notwendigkeit, rechtliche Risiken zu vermeiden, als eine Innovation im Geschäftsmodell. Angesichts der Tausenden von Fanvideos wie "Pokémon" oder "Kimetsu no Yaiba", die von Nutzern generiert werden, wäre es unmöglich, die lockere Politik fortzusetzen, da dies in der gegenwärtigen gerichtlichen Umgebung als Zustimmung oder sogar Förderung von Urheberrechtsverletzungen angesehen würde.

Bild: Ein Screenshot eines Videos mit Sam Altman als Hauptcharakter, generiert mit Sora 2

Das Sora 2-URHEBERRECHTS-Einnteilungssystem und seine Vor- und Nachteile

Angesichts der rechtlichen Unsicherheit und des großen kommerziellen Drucks hat OpenAI nicht die Möglichkeit gewählt, in einem langwierigen gerichtlichen Kampf zu verharren, sondern hat eine kluge kommerzielle Karte gespielt: Das Herzstück des neuen Sora-Konzepts ist es, von der Blockade hin zu einer Lockerung zu wechseln und die Rechteinhaber von Gegnern in der Klage zu Partnern zu verwandeln.

Das Konzept sieht ungefähr folgendes vor: Die vom Nutzer generierten Inhalte werden als interaktive Fan-Kreativwerke definiert. Es wird den Rechteinhabern ein feineres Kontrollsystem für ihre IPs gewährleisten. Die Rechteinhaber können selbst entscheiden, ob und wie ihre Charaktere von Sora genutzt werden (z. B. können normale Szenen generiert werden, aber gewalttätige Inhalte sind verboten). Sie können sogar die Nutzung bestimmter Kern-IPs vollständig verbieten. Es wird ein Einnteilungssystem für IP-Einnahmen eingeführt. Rechteinhaber, die die Nutzung ihrer Charaktere erlauben, können von den entsprechenden Einnahmen der Plattform einen Anteil erhalten.

Diese Politik kann den Rechteinhabern neue zusätzliche Einnahmen bringen und ihnen auch helfen, ihre IPs zu promoten und deren Wert zu erschließen.

Das von OpenAI skizzierte Bild des IP-Einnteilungssystems ähnelt dem Einnteilungssystem von YouTube für Urheberrechtserträge und hat ein sehr attraktives Potenzial. Stellen Sie sich vor, ein Creator macht ein Video "Sun Wukong kämpft gegen Iron Man". Die Plattform kann automatisch die IP-Zugehörigkeit erkennen und die entstehenden Einnahmen proportional an die entsprechenden Rechteinhaber verteilen. Dies würde die Kreativität bei der Weiterverarbeitung von Werken stark anregen und den Rechteinhabern neue Möglichkeiten zur Monetarisierung eröffnen, was zu einem Mehrgewinn für alle Beteiligten führen würde. Dennoch gibt es bei diesem Geschäftsmodell einige Probleme und Risiken, die nicht ignoriert werden können:

1. Das Geschäftsmodell ist noch nicht klar definiert. OpenAI gibt zu, dass das genaue Einnteilungssystem erst nach wiederholten Tests festgelegt werden kann. Wie man mit Tausenden von IP-Inhabern weltweit über die Lizenzierung verhandeln soll, wie man ein faire und gerechtes Preissystem für verschiedene IPs entwickeln soll, wie man die Einnteilungsprozente, Abrechnungsverfahren und Transparenz gewährleisten soll, werden alle zukünftige Verhandlungsschwerpunkte und -herausforderungen sein. Wenn man ein Modell der individuellen Lizenzierungsverhandlungen wählt, könnte dies eher den großen IP-Giganten mit starker Verhandlungsmacht zugute kommen. Es ist noch unklar, wie die Interessen der kleinen und mittleren Creator effektiv geschützt werden können.

2. Die technische Umsetzung ist komplex. Der AI-Generierungsprozess hat eine gewisse "Black-Box"-Eigenschaft. Es ist eine enorme technische Herausforderung, wie man jedes urheberrechtlich geschützte Element (Charaktere, Szenen, Musik usw.) in den generierten Inhalten präzise und transparent verfolgen und erkennen kann und wie man eine genaue Wertzuordnung und Einnahmenverteilung vornehmen kann. Das Content-ID-System von YouTube hat es erst nach über zehn Jahren an Anpassungen und Verbesserungen geschafft, sich zu einem brauchbaren System zu entwickeln. Die Entwicklung eines ähnlichen Systems für die IP-Erkennung bei Sora wird noch komplexer sein. Wenn Sora nicht in der Lage ist, die Verwaltungspflichten wahrzunehmen, wenn die Rechteinhaber die Entfernung bestimmter IP-Charaktere verlangen, kann es immer noch rechtliche Verantwortung tragen.

3. Es behandelt nur die Symptome, nicht die Ursache. Das IP-Einnteilungssystem von Sora löst hauptsächlich das Problem der Urheberrechtsverletzungen auf der Ausgabeseite. Es gibt jedoch keine direkte Antwort auf die grundlegende rechtliche Frage, "ob die Nutzung von urheberrechtlich geschützten Daten für das Training des ursprünglichen Modells legal ist". Dies ist der Kern der Branche, nämlich wie man das Problem der "Sünden der Trainingsdaten" behandeln soll. Derzeit diskutieren Gesetzgeber und Wissenschaftler immer noch über verschiedene Lösungen wie das Kollektivlizenzmodell, das marktwirtschaftliche Transaktionsmodell und das gesetzliche Exemptionsmodell, aber es ist noch kein Konsens erreicht. Deshalb ist das Sora-Konzept im Wesentlichen ein Umweg auf kommerzieller Ebene. Es ist sehr rational und pragmatisch in der Entscheidungsfindung, aber wenn in Zukunft ungünstige gesetzliche Bestimmungen oder gerichtliche Präzedenzfälle auftreten, wird die Rechtskonformität des gesamten Geschäftsmodells ins Wanken geraten.

Die Essenz und die Zukunft der AI-URHEBERRECHTSkontroverse

Von den zahlreichen Klagen der IP-Giganten wie Disney und Warner Bros. bis hin zur Sora-URHEBERRECHTS-Einnteilungspolitik ist die Essenz der AI-URHEBERRECHTSkontroverse eher eine Frage der Verteilung von Interessen, die durch technologische Veränderungen ausgelöst wurde, als eine Frage des rechtlichen Richts und Falschs.

Generative AI nutzt die bestehenden menschlichen Wissensprodukte, um neues immenses Wert zu schaffen. Der Kern der Kontroverse ist: Wer sollte dieses neue "Kuchenstück" schneiden und wie sollte es verteilt werden?

Das Sora-Konzept ist von Bedeutung, da es auf die Wurzel des Problems und den ursprünglichen Zweck des geistigen Eigentums zurückkehrt. Indem es die Creator dazu anregt, Gewinn zu erzielen, wird die Entstehung von mehr kreativen IP-Inhalten gefördert. Dieser Gedanke, von der einmaligen Lizenzierung hin zu einer Einnahmeaufteilung basierend auf der Nutzungsmenge, könnte eher den Charakteristiken der AI-Zeit entsprechen, wie niedrige Grenzkosten bei der Inhaltserzeugung und individuelle Nutzerbedürfnisse.

Aber um dieses System wirklich funktionieren zu lassen, müssen neben der Verbesserung der Details des Geschäftsmodells und der technologischen Überprüfung auch tiefere Probleme wie die Legalität der Datenquelle, die Standardisierung der Wertbewertung und die Aktualisierung des rechtlichen Rahmens gelöst werden, um klarere und vorhersagbarere Richtlinien für die AI-Training, -Generierung und -Nutzung zu geben.

Zusammenfassend lässt sich sagen, dass die neuen URHEBERRECHTSregeln, die OpenAI für Sora entwickelt hat, keine "silver bullet" für alle Probleme sind. Aber dies deutet darauf hin, dass die AI-Branche von der Phase des wilden Wachstums in die Phase der kostenpflichtigen Lizenzierung eintritt. Es zeigt uns, dass angesichts der umwälzenden Herausforderungen, die die Technologie mit sich bringt, möglicherweise nicht nur strengere Gesetze, sondern auch geschicktere institutionelle Gestaltungen, die zu einem Mehrgewinn für alle Beteiligten führen, die Probleme lösen können. Dies ist vielleicht das,