OpenAI passt seine neue Plattform zur Videogenerierung, Sora, rasch an, um sowohl auf rechtlichen Druck als auch auf Bedenken der Benutzer hinsichtlich Urheberrechts- und Ähnlichkeitsmissbrauch zu reagieren. Nur wenige Tage nach dem Start, der nur auf Einladung möglich ist, führt das Unternehmen neue Funktionen ein, die den Benutzern mehr Kontrolle darüber geben sollen, wie ihre Bilder und Stimmen in von KI erstellten Videos verwendet werden. Dieser Schritt erfolgt vor dem Hintergrund zunehmender Aufmerksamkeit seitens der Unterhaltungsindustrie und von Rechtsexperten, die sich fragen, ob OpenAIs ursprünglicher Ansatz bei Urheberrechtsverletzungen nachhaltig war.
Das Cameo-Feature und die anfängliche Kontroverse
Soras herausragende Funktion „Cameo“ ermöglicht es Benutzern, Videos von sich selbst hochzuladen, um sie in KI-generierte Szenen einzubinden. Dies löste sofort Interesse aus, da Early Adopters realistische Deepfakes erstellten, darunter einer von OpenAI-CEO Sam Altman, der falsche Behauptungen über konkurrierende KI-Modelle aufstellte. Das Feature war zwar unterhaltsam, warf aber auch kritische Fragen zu Einwilligung, Urheberrecht und der Möglichkeit von Fehlinformationen auf. OpenAI verlangte zunächst von Urheberrechtsinhabern (z. B. Filmstudios), sich von der Nutzung ihres geistigen Eigentums für KI-Schulungen abzumelden – eine Haltung, die Rechtsexperten schnell als undurchführbar abtaten.
„Das Urheberrecht gilt für Werke in dem Moment, in dem sie geschaffen werden“, erklärt Robert Rosenberg, Anwalt für geistiges Eigentum bei Moses and Singer LLP. „Die Urheber zu bitten, sich proaktiv abzumelden, war nie ein praktikabler Ansatz.“ OpenAI kehrte diese Position schnell um und erkannte die Notwendigkeit, sich an das geltende Urheberrecht anzupassen.
Neue Einschränkungen und Wasserzeichen
Das Unternehmen führt nun eine detailliertere Kontrolle ein. Benutzer können jetzt eingeschränkte Schlüsselwörter oder Szenarien angeben, in denen ihr Abbild nicht verwendet werden kann, z. B. um zu verhindern, dass KI-generierte politische Kommentare ihr Gesicht und ihre Stimme zeigen. Darüber hinaus macht OpenAI das Wasserzeichen auf von Sora erstellten Videos sichtbarer, um KI-generierte Inhalte eindeutig zu identifizieren.
Diese Änderungen sind ein Schritt zur Minderung rechtlicher Risiken. Das Kernproblem besteht darin, den offenen Charakter der Plattform mit den Rechten der Inhaltsersteller in Einklang zu bringen. Bestehende Gesetze, wie Abschnitt 230 des Communications Decency Act, schützen Social-Media-Plattformen vor der Haftung für benutzergenerierte Inhalte. Allerdings haben Unterhaltungsgiganten wie Disney und Warner Bros. bereits damit begonnen, KI-Firmen zu verklagen, weil sie die unerlaubte Reproduktion urheberrechtlich geschützter Charaktere erlaubt haben.
Die breitere Rechtslandschaft
OpenAI steht nicht allein vor den Herausforderungen des Urheberrechts. Die New York Times und andere Verlage haben das Unternehmen wegen der illegalen Nutzung proprietärer Inhalte in seinen KI-Trainingsdaten verklagt. Aus ähnlichen Gründen reichte auch Ziff Davis, die Muttergesellschaft von CNET, eine Klage gegen OpenAI ein. Diese Rechtsstreitigkeiten verdeutlichen die grundlegende Spannung zwischen KI-Innovation und geistigen Eigentumsrechten.
Die Frage ist nun, ob die neuen Maßnahmen von OpenAI ausreichen werden, um sowohl einzelne YouTuber als auch größere Unterhaltungsunternehmen zufriedenzustellen. Laut Rosenberg „übernehmen die Plattformen mehr Verantwortung, aber ob diese Umsetzung den Erwartungen gerecht wird, bleibt abzuwarten.“
Diese Anpassungen sind für die Zukunft KI-generierter Inhalte von entscheidender Bedeutung. Die anhaltende Debatte über das Urheberrecht in der KI ist nicht nur rechtlicher Natur; Es definiert die Grenzen kreativer Freiheit und Innovation im digitalen Zeitalter.






























