Die neue Text-zu-Video-App Sora von OpenAI hat nach ihrer Veröffentlichung schnell über eine Million Downloads im iOS App Store erreicht. Die Anwendung ermöglicht es Nutzern, realistische Videos zu erstellen. Gleichzeitig wächst die Besorgnis über die Funktion, Deepfakes von verstorbenen Persönlichkeiten und historischen Figuren zu generieren, die ihre Zustimmung nicht mehr geben können.
Die App kann in kürzester Zeit Videos von prominenten Verstorbenen in fiktiven Szenarien erstellen. Dies hat zu öffentlichen Protesten von Familienangehörigen und einer intensiven Debatte über digitale Ethik, Fehlinformation und die Kontrolle über das eigene Abbild nach dem Tod geführt.
Wichtige Erkenntnisse
- Die KI-Video-App Sora von OpenAI hat über eine Million Downloads erreicht und löst eine Debatte über die Ethik von Deepfakes aus.
- Die App ermöglicht die Erstellung realistischer Videos von verstorbenen Prominenten, was zu Protesten von deren Familien führt.
- Experten warnen vor der Gefahr von historischer Fehlinformation und einem allgemeinen Vertrauensverlust in digitale Medien.
- Die Wirksamkeit von Erkennungsmethoden wie Wasserzeichen wird von Fachleuten als unzureichend bewertet.
Soras Aufstieg und die ethische Debatte
OpenAIs Anwendung Sora wurde als eine soziale Plattform konzipiert, auf der Nutzer kreative KI-Videos von sich selbst, Freunden oder Prominenten erstellen können. Eine Funktion, die es Nutzern erlaubt, die Verwendung ihres eigenen Abbilds durch andere zu steuern, sollte Bedenken hinsichtlich der Zustimmung adressieren. Doch diese Schutzmaßnahme greift nicht bei Personen, die bereits verstorben sind.
Die Möglichkeit, in weniger als einer Minute überzeugende Videos von historischen Persönlichkeiten in frei erfundenen Situationen zu erstellen, hat eine ethische Kontroverse ausgelöst. Beispiele reichen von absurden Szenarien wie Aretha Franklin bei der Herstellung von Sojakerzen bis hin zu Marilyn Monroe, die Vietnamesisch unterrichtet.
Gefahr historischer Fälschungen
Über die Darstellung von Prominenten hinaus birgt die Technologie ein erhebliches Potenzial für die Verbreitung von Fehlinformationen. Testläufe zeigten, dass mit Sora überzeugende Videos erstellt werden können, in denen historische Figuren Falschaussagen treffen. So konnten realistische Clips generiert werden, in denen Präsident Dwight D. Eisenhower die Annahme von Bestechungsgeldern gesteht oder John F. Kennedy die Mondlandung als Fälschung bezeichnet.
Familien erheben ihre Stimme
Die unkontrollierte Verwendung der Abbilder verstorbener Prominenter hat zu deutlicher Kritik von deren Nachkommen geführt. Die Reaktionen zeigen die persönliche Betroffenheit und den Wunsch, das Erbe ihrer Angehörigen zu schützen.
„Wenn Sie auch nur einen Funken Anstand besitzen, hören Sie einfach auf, ihm und mir das anzutun“, schrieb Zelda Williams, die Tochter des 2014 verstorbenen Schauspielers Robin Williams, in einer Instagram-Story. „Es ist dumm, eine Verschwendung von Zeit und Energie, und glauben Sie mir, es ist NICHT das, was er gewollt hätte.“
Auch die Familie des Bürgerrechtlers Martin Luther King Jr. äußerte sich kritisch. Seine Tochter, Bernice King, schrieb auf der Plattform X: „Ich stimme bezüglich meines Vaters zu. Bitte hören Sie auf.“ Die berühmte „I have a dream“-Rede ihres Vaters wurde auf der Plattform wiederholt manipuliert und neu abgemischt.
Die Tochter des Komikers George Carlin erklärte ebenfalls, dass ihre Familie ihr Bestes tue, um gegen Deepfakes ihres Vaters vorzugehen. Diese Reaktionen unterstreichen eine wachsende Kluft zwischen technologischer Machbarkeit und ethischer Verantwortung.
OpenAIs Reaktion und die rechtliche Grauzone
OpenAI hat auf die wachsende Kritik reagiert und Anpassungen in Aussicht gestellt. Ein Sprecher des Unternehmens erklärte, dass man glaube, Persönlichkeiten des öffentlichen Lebens und ihre Familien sollten die Kontrolle über die Verwendung ihres Abbilds haben. Für kürzlich Verstorbene können autorisierte Vertreter oder Nachlassverwalter beantragen, dass das Abbild nicht in Sora verwendet wird.
Zukünftige Kontrollmechanismen
Sam Altman, CEO von OpenAI, kündigte an, dass das Unternehmen Rechteinhabern bald eine „granularere Kontrolle über die Erstellung von Charakteren“ geben werde. Er sprach von einer neuen Art „interaktiver Fan-Fiction“, betonte aber gleichzeitig, dass Rechteinhaber die Möglichkeit haben sollen, die Nutzung ihrer Charaktere genau zu spezifizieren oder vollständig zu untersagen.
Rechtsexperten sehen die Situation kritisch. Adam Streisand, ein Anwalt, der mehrere Nachlässe von Prominenten vertreten hat, erklärte, dass das Problem weniger im Gesetz als in der Durchsetzung liege. Gerichte in Kalifornien schützen Prominente seit langem vor unerlaubten Reproduktionen. „Die Frage ist, ob ein nicht-KI-gestützter Justizprozess, der von Menschen abhängt, jemals in der Lage sein wird, ein fast fünfdimensionales Whack-a-Mole-Spiel zu spielen“, so Streisand.
Expertenwarnungen und die Grenzen der Erkennung
Wissenschaftler und Medienexperten warnen vor weitreichenden gesellschaftlichen Folgen. Liam Mayes, Dozent an der Rice University, sieht zwei zentrale Gefahren. Einerseits könnten „Menschen Opfer von Betrug werden, große Unternehmen Zwang ausüben und böswillige Akteure demokratische Prozesse untergraben“. Andererseits könnte die Unfähigkeit, Fälschungen von echten Videos zu unterscheiden, das Vertrauen in alle Medieninstitutionen untergraben.
Technische Hürden bei der Identifizierung
OpenAI hat mehrere Werkzeuge implementiert, um KI-generierte Inhalte kenntlich zu machen. Dazu gehören unsichtbare Signale im Video, ein sichtbares Wasserzeichen und Metadaten, die den Inhalt als KI-generiert ausweisen. Experten bezweifeln jedoch die Wirksamkeit dieser Maßnahmen.
- Sichtbare Wasserzeichen: Können oft mit einfachen Mitteln entfernt oder abgeschnitten werden.
- Metadaten: Lassen sich leicht löschen oder verändern, wenn das Video neu kodiert wird.
- Unsichtbare Signale: Gelten als die robusteste Methode, erfordern aber spezielle Detektionswerkzeuge.
Sid Srinivasan, Informatiker an der Harvard University, hält Wasserzeichen und Metadaten für leicht umgehbar. „Sie werden den beiläufigen Missbrauch durch einen gewissen Aufwand abschrecken, aber entschlossenere Akteure nicht aufhalten.“ Er fordert, dass Videoplattformen Zugang zu zuverlässigen Erkennungswerkzeugen erhalten müssten.
Der Wettlauf zwischen Fälschung und Erkennung
Als Reaktion auf die zunehmend realistischeren Deepfakes setzen einige Unternehmen ebenfalls auf künstliche Intelligenz, um Fälschungen zu entlarven. Ben Colman, CEO des Deepfake-Erkennungs-Startups Reality Defender, erklärt: „Bei Reality Defender wird KI eingesetzt, um KI zu erkennen.“ Er argumentiert, dass KI Dinge in Videos „sehen und hören“ könne, die dem menschlichen Auge verborgen bleiben.
Auch McAfee setzt mit seiner „Scam Detector“-Software auf diesen Ansatz. Steve Grobman, Chief Technology Officer bei McAfee, berichtet jedoch, dass bereits jeder fünfte Befragte angab, selbst oder eine bekannte Person Opfer eines Deepfake-Betrugs geworden zu sein. Die Qualität der Fälschungen verbessert sich stetig, was den Erkennungsprozess zu einem permanenten Wettlauf macht.
Unterschiede je nach Sprache
Ein weiterer wichtiger Aspekt ist die Sprachabhängigkeit der KI-Modelle. Werkzeuge für weit verbreitete Sprachen wie Englisch, Spanisch oder Mandarin sind deutlich leistungsfähiger als die für weniger gebräuchliche Sprachen. Dies schafft ein globales Ungleichgewicht bei der Qualität und Erkennbarkeit von Deepfakes.
Während die Befürchtungen, dass die Wahlen 2024 von Deepfakes überschwemmt würden, sich nicht vollständig bewahrheiteten, markiert das Jahr 2025 einen Wendepunkt. Modelle wie Sora von OpenAI oder Veo 3 von Google erzeugen Inhalte von einer bisher unerreichten Realitätsnähe. Dies stellt die Fähigkeit der Öffentlichkeit, zwischen echten und künstlich erzeugten Informationen zu unterscheiden, vor eine neue, große Herausforderung.





