Die OpenAI Sora App hat seit ihrem Start vor wenigen Wochen massive Aufmerksamkeit erregt. Über eine Million Downloads in nur einer Woche unterstreichen das immense Interesse an der Fähigkeit, hyperrealistische Kurzvideos mittels künstlicher Intelligenz zu erstellen. Doch der rasante Erfolg wird von einer wachsenden Kontroverse überschattet, da Nutzer unerlaubt Deepfakes von Prominenten, verstorbenen Persönlichkeiten und urheberrechtlich geschützten Charakteren erstellen.
Diese Entwicklung wirft ernsthafte Fragen bezüglich des Schutzes der digitalen Identität, der Verbreitung von Desinformation und der Kontrolle über persönliche Inhalte im digitalen Zeitalter auf. Familien von Berühmtheiten und große Filmstudios fordern OpenAI dringend auf, strengere Maßnahmen zu ergreifen, um den Missbrauch von Abbildungen zu verhindern.
Wichtige Punkte
- Sora App erreichte in einer Woche über 1 Million Downloads.
- Nutzer erstellen Deepfakes von Prominenten und urheberrechtlich geschützten Figuren.
- Familien von Prominenten und Studios fordern besseren Schutz der Persönlichkeitsrechte.
- OpenAI hat erste Maßnahmen ergriffen, wie die Sperrung bestimmter Persönlichkeiten.
- Die Sorge vor Desinformation und dem Verlust des Vertrauens in digitale Inhalte wächst.
Ein Blick in die KI-Multiversen
Das Scrollen durch die Sora App gleicht oft einem Sprung in ein Multiversum. Man sieht Michael Jackson als Stand-up-Comedian, den Alien aus den „Predator“-Filmen, der Burger bei McDonald's wendet, oder Queen Elizabeth, die von einem Kneipentisch springt. Solche unwahrscheinlichen Szenarien und absurden Videos sind das Markenzeichen der Sora App, einem neuen Kurzvideo-Tool von OpenAI, dem Entwickler hinter ChatGPT.
Der ununterbrochene Strom hyperrealistischer, von KI generierter Kurzvideos ist zunächst faszinierend und verblüffend. Doch schnell stellt sich eine neue Notwendigkeit ein: Jedes Stück Inhalt muss hinterfragt werden, ob es echt oder gefälscht ist. Diese Entwicklung verändert grundlegend unsere Wahrnehmung digitaler Inhalte.
Faktencheck
- Sora übertraf das anfängliche Wachstum von ChatGPT.
- Die App war kurz nach dem Start die Nummer eins im US-App Store.
- Derzeit ist Sora nur für iOS-Nutzer in den USA mit Einladungscode verfügbar.
Die Schattenseiten des Erfolgs: Deepfakes und Urheberrechtsverletzungen
Weniger als eine Woche nach dem Start am 30. September verzeichnete die Sora App bereits eine Million Downloads. Sie erreichte schnell die Spitze des App Stores in den USA. Um die App nutzen zu können, müssen Nutzer ihr Gesicht scannen und drei angezeigte Zahlen vorlesen, damit das System eine Stimmprobe erfassen kann. Danach können sie einen Textbefehl eingeben und hyperrealistische 10-Sekunden-Videos mit Hintergrundgeräuschen und Dialogen erstellen.
Eine Funktion namens „Cameos“ ermöglicht es Nutzern, ihr eigenes Gesicht oder das eines Freundes in ein bestehendes Video einzufügen. Obwohl alle Ausgaben ein sichtbares Wasserzeichen tragen, bieten zahlreiche Websites bereits Tools zur Entfernung dieser Wasserzeichen an.
„Das größte Risiko bei Sora ist, dass es plausible Leugnung unmöglich macht und unser Vertrauen in die Fähigkeit untergräbt, Authentisches von Synthetischem zu unterscheiden“, sagte Sam Gregory, ein Deepfake-Experte und Geschäftsführer der Menschenrechtsorganisation WITNESS. „Einzelne Fälschungen sind wichtig, aber der wahre Schaden ist ein Schleier des Zweifels, der sich über alles legt, was wir sehen.“
Bei der Einführung verfolgte OpenAI zunächst einen lockeren Ansatz bei der Durchsetzung von Urheberrechtsbeschränkungen. Die Wiederherstellung urheberrechtlich geschützten Materials war standardmäßig erlaubt, es sei denn, die Eigentümer lehnten dies explizit ab. Dies führte zu einer Flut von KI-generierten Videos mit Charakteren aus Titeln wie „SpongeBob Schwammkopf“, „South Park“ und „Breaking Bad“ sowie Videos im Stil der Spielshow „Der Preis ist heiß“ oder der 90er-Jahre-Sitcom „Friends“.
Prominente und Studios wehren sich
Die Situation eskalierte schnell mit der Erstellung von Videos verstorbener Prominenter. Beispiele sind Tupac Shakur, der durch die Straßen Kubas streift, Hitler im Kampf mit Michael Jackson oder Remixes von Martin Luther King Jr., der seine berühmte „I Have A Dream“-Rede hält, aber die Freilassung des in Ungnade gefallenen Rappers Diddy fordert.
Zelda Williams, die Tochter des verstorbenen Komikers Robin Williams, äußerte sich auf Instagram sehr deutlich: „Bitte, hört einfach auf, mir KI-Videos von Papa zu schicken.“ Sie fügte hinzu: „Ihr macht keine Kunst, ihr macht ekelhafte, überverarbeitete Hotdogs aus dem Leben von Menschen, aus der Geschichte der Kunst und Musik, und stopft sie dann jemandem in den Rachen, in der Hoffnung, dass sie euch einen kleinen Daumen hoch geben und es mögen. Ekelhaft.“
Hintergrundinformationen
Andere KI-Kreationen von verstorbenen Berühmtheiten, darunter Kobe Bryant, Stephen Hawking und Präsident Kennedy, wurden auf sozialen Medien millionenfach angesehen. Christina Gorski, Kommunikationsdirektorin bei Fred Rogers Productions, erklärte, dass Rogers' Familie „frustriert über die online verbreiteten KI-Videos, die Mister Rogers falsch darstellen“, sei. Videos, die Mister Rogers mit einer Waffe zeigen oder wie er den Rapper Tupac begrüßt, wurden ebenfalls weit verbreitet.
„Die Videos stehen in direktem Widerspruch zu der sorgfältigen Absicht und dem Festhalten an den Kernprinzipien der kindlichen Entwicklung, die Fred Rogers in jede Episode von Mister Rogers' Neighborhood eingebracht hat“, so Gorski in einer Erklärung. Sie fügte hinzu: „Wir haben OpenAI kontaktiert, um zu beantragen, dass die Stimme und das Abbild von Mister Rogers für die Nutzung auf der Sora-Plattform gesperrt werden, und wir erwarten von ihnen und anderen KI-Plattformen, dass sie persönliche Identitäten in Zukunft respektieren.“
Rechtliche Schritte und zukünftige Kontrollen
Hollywood-Talentagenturen und Gewerkschaften, darunter SAG-AFTRA, haben begonnen, OpenAI des unsachgemäßen Gebrauchs von Abbildungen zu beschuldigen. Der zentrale Konflikt dreht sich um die Kontrolle über die Nutzung der Abbildungen von Schauspielern und lizenzierten Charakteren sowie um eine gerechte Vergütung für deren Verwendung in KI-Videos.
Nach den Bedenken Hollywoods versprach Sam Altman, CEO von OpenAI, in einem Blogbeitrag mehr Kontrolle für Rechteinhaber. Sie sollen zukünftig festlegen können, wie ihre Charaktere in KI-Videos verwendet werden. OpenAI prüft zudem Möglichkeiten, Einnahmen mit Rechteinhabern zu teilen. Altman kündigte eine Kehrtwende an: Studios können nun „opt-in“ wählen, damit ihre Charaktere in KI-Nachbildungen verwendet werden, anstatt sich abmelden zu müssen.
- CMG Worldwide, das Nachlässe verstorbener Prominenter vertritt, arbeitet mit dem Deepfake-Erkennungsunternehmen Loti AI zusammen.
- Loti AI überwacht ständig KI-Imitationen von 20 Persönlichkeiten, darunter Burt Reynolds und Rosa Parks.
- Seit Januar hat Loti AI Tausende von Fällen unautorisierter Inhalte entfernt.
„Seit dem Start von Sora 2 haben sich unsere Anmeldungen beispielsweise um etwa das 30-fache erhöht, da Menschen nach Wegen suchen, die Kontrolle über ihr digitales Abbild zurückzugewinnen“, sagte Luke Arrigoni, Mitbegründer und CEO von Loti AI. Angesichts des zunehmenden rechtlichen Drucks ist Sora strenger geworden, was die Wiederherstellung urheberrechtlich geschützter Charaktere angeht. Nun lösen Versuche, Disney-Charaktere oder andere geschützte Bilder zu erstellen, eine Warnung wegen Verstoßes gegen die Inhaltsrichtlinien aus. Nutzer, die mit diesen Einschränkungen nicht einverstanden sind, haben begonnen, Videomemes über diese Warnungen zu erstellen.
Aktuelle Entwicklungen
Auf Anfrage des Nachlasses von Martin Luther King Jr. hat OpenAI die Generierung von Videos im Bild des Bürgerrechtlers auf Sora pausiert. OpenAI erklärte, dass öffentliche Persönlichkeiten und ihre Familien letztendlich die Kontrolle darüber haben sollten, wie ihr Abbild verwendet wird.
Die Zukunft der Inhalte und die „KI-Schlamperei“
Die Zukunft, so Altman, bewegt sich hin zur Erstellung personalisierter Inhalte für ein kleines Publikum – oder sogar für ein Publikum von nur einer Person. „Kreativität könnte eine kambrische Explosion erleben, und damit kann die Qualität von Kunst und Unterhaltung drastisch steigen“, schrieb Altman und nannte dieses Genre des Engagements „interaktive Fanfiction“.
Doch auch mit zunehmendem Schutz für Prominenten-Abbilder warnen Kritiker, dass die beiläufige „Aneignung von Abbildern“ gewöhnlicher Personen oder Situationen zu öffentlicher Verwirrung führen, Desinformation verstärken und das öffentliche Vertrauen untergraben könnte. Sam Gregory von WITNESS äußerte Bedenken hinsichtlich der Fähigkeit, Protestaufnahmen zu fälschen, falsche Gräueltaten zu inszenieren oder reale Personen mit in den Mund gelegten Worten in kompromittierende Szenarien einzufügen.
Die zunehmende Verbreitung dessen, was als „KI-Schlamperei“ bezeichnet wird, ist ein weiteres Problem. Letzte Woche kursierten Aufnahmen einer Ringkamera, die eine Großmutter zeigte, die ein Krokodil an der Tür jagte, sowie eine Reihe von „Fett-Olympics“-Videos, in denen übergewichtige Menschen an sportlichen Wettkämpfen wie Stabhochsprung, Schwimmen und Leichtathletik teilnahmen. Dedizierte „Slop-Fabriken“ haben dieses Engagement zu einer Gelddruckmaschine gemacht, die einen konstanten Strom von Videos generiert, von denen man schwer wegschauen kann. Ein prägnanter Tech-Kommentator nannte es „Cocomelon für Erwachsene“.
Die Debatte um KI-generierte Inhalte und ihre Auswirkungen auf die Gesellschaft wird sich in den kommenden Monaten und Jahren intensivieren. Die Balance zwischen kreativer Freiheit und dem Schutz individueller Rechte und der Wahrheit bleibt eine große Herausforderung für Technologieunternehmen, Gesetzgeber und die Gesellschaft als Ganzes.





