Der bekannte US-Radiomoderator David Greene hat eine Klage gegen Google eingereicht. Er behauptet, dass das KI-Werkzeug NotebookLM des Unternehmens eine synthetische Stimme verwendet, die eine unautorisierte Nachbildung seiner eigenen ist. Greene, dessen Stimme Millionen von Hörern durch Sendungen wie „Morning Edition“ von NPR bekannt ist, fühlt sich enteignet und in seinen Rechten verletzt.
Wichtige Erkenntnisse
- Der ehemalige NPR-Moderator David Greene verklagt Google, weil eine KI-Stimme in NotebookLM seiner eigenen unheimlich ähnlich sein soll.
- Google bestreitet die Vorwürfe und gibt an, die Stimme stamme von einem bezahlten professionellen Schauspieler.
- Der Fall wirft grundlegende Fragen zum Urheberrecht, zur Persönlichkeit und zur Nutzung menschlicher Merkmale im Zeitalter der künstlichen Intelligenz auf.
- Ein forensisches Gutachten deutet mit "relativ hoher" Wahrscheinlichkeit darauf hin, dass Greenes Stimme zum Training des Modells verwendet wurde.
Ein unheimliches Déjà-vu
Alles begann mit einer E-Mail eines ehemaligen Kollegen im Herbst 2024. Darin wurde David Greene gefragt, ob er seine Stimme an Google lizenziert habe. Der Kollege hatte die Podcast-Funktion von NotebookLM, einem KI-Tool von Google, ausprobiert und war überzeugt, Greenes vertraute Stimme zu hören. Greene, der bis dahin noch nie von dem Werkzeug gehört hatte, war schockiert, als er sich die Audiobeispiele anhörte.
„Ich war völlig aus dem Häuschen“, sagte Greene. „Es ist dieser unheimliche Moment, in dem man das Gefühl hat, sich selbst zuzuhören.“ Die männliche der beiden KI-Stimmen in der Funktion „Audio Overviews“ klang für ihn nicht nur ähnlich – sie schien seine eigene zu sein, inklusive des Sprachrhythmus, der Betonung und sogar kleiner Eigenheiten wie gelegentlichen „ähs“.
Wachsende Überzeugung nach zahlreichen Rückmeldungen
In den folgenden Tagen meldeten sich immer mehr Freunde, Familienmitglieder und ehemalige Mitarbeiter. Sie alle stellten dieselbe Frage: Ist das deine Stimme in der Google-KI? Für Greene war dies die Bestätigung seines Verdachts. Er gelangte zu der Überzeugung, dass sein persönlichstes Gut – seine Stimme – ohne seine Erlaubnis oder eine Vergütung verwendet wurde, um ein kommerzielles Produkt zu entwickeln.
Was ist Google NotebookLM?
NotebookLM ist ein KI-gestütztes Recherche- und Schreibwerkzeug von Google. Eine seiner beliebtesten Funktionen sind die „Audio Overviews“. Nutzer können lange Dokumente hochladen, und das Tool fasst die wichtigsten Punkte in Form eines kurzen, lockeren Podcasts zusammen, der von einer männlichen und einer weiblichen KI-Stimme präsentiert wird.
Google weist die Vorwürfe zurück
Google hat die Anschuldigungen entschieden zurückgewiesen. In einer offiziellen Stellungnahme erklärte ein Sprecher des Unternehmens, die Vorwürfe seien „unbegründet“. Die männliche Stimme in NotebookLM basiere auf Aufnahmen eines professionellen Schauspielers, den Google für diese Aufgabe engagiert und bezahlt habe.
Trotz des Dementis hat Greene Klage beim Superior Court in Santa Clara County, Kalifornien, eingereicht. Seine Anwälte argumentieren, dass die Ähnlichkeit so groß sei, dass ein durchschnittlicher Hörer vernünftigerweise annehmen würde, es handle sich um Greene. Dies allein könnte bereits eine Verletzung seiner Persönlichkeitsrechte darstellen.
„Meine Stimme ist so etwas wie der wichtigste Teil dessen, wer ich bin.“ - David Greene
Die Klageschrift beruft sich auf eine Analyse einer ungenannten forensischen KI-Firma. Deren Software verglich Greenes Stimme mit der KI-Stimme und kam zu einem Konfidenzwert von 53 bis 60 Prozent, dass Greenes Stimme zum Trainieren des Modells verwendet wurde. Ein solcher Wert wird als „relativ hoch“ für den Vergleich zwischen einer echten und einer künstlichen Stimme eingestuft.
Ein Präzedenzfall im KI-Zeitalter?
Der Rechtsstreit zwischen Greene und Google ist mehr als nur ein Einzelfall. Er steht symbolisch für eine wachsende Zahl von Konflikten zwischen menschlichen Kreativen und der boomenden KI-Industrie. Im Kern geht es um die Frage, wem digitale Nachbildungen von menschlichen Stimmen, Gesichtern oder Kunstwerken gehören.
Historischer Vergleich: Bette Midler vs. Ford
Rechtsexperten ziehen Parallelen zu einem Fall aus dem Jahr 1988. Damals verklagte die Sängerin Bette Midler erfolgreich die Ford Motor Company, weil in einem Werbespot eine Sängerin ihre unverwechselbare Stimme imitierte. Das Gericht entschied damals zugunsten von Midler und schuf einen wichtigen Präzedenzfall für den Schutz von Persönlichkeitsmerkmalen.
Eine zentrale Frage für das Gericht wird sein, wie eng eine KI-Stimme dem Original ähneln muss, um als Rechtsverletzung zu gelten. Zudem muss geklärt werden, ob Greenes Stimme bekannt genug ist, dass die Öffentlichkeit sie wiedererkennt und ob ihm durch die Ähnlichkeit ein Schaden entsteht, sei es finanziell oder für seinen Ruf.
Sorge vor Missbrauch
Für David Greene geht es um mehr als nur um eine verpasste Geschäftsmöglichkeit. Seine Stimme, die er über Jahre kultiviert hat, um Vertrauen und Empathie zu vermitteln, war für Millionen von Amerikanern die erste Stimme des Tages. Die Vorstellung, dass ein ihm ähnelnder Klang nun dazu verwendet werden könnte, Falschinformationen oder Hetze zu verbreiten, beunruhigt ihn zutiefst.
„Ich habe einen Artikel darüber gelesen, wie dieses Podcast-Tool genutzt werden kann, um Verschwörungstheorien zu verbreiten und den hässlicheren Dingen in unserer Gesellschaft Glaubwürdigkeit zu verleihen“, so Greene. „Dass etwas, das wie ich klingt, dafür eingesetzt wird, war wirklich beunruhigend.“
Stimmen aus der Branche
Auch Kollegen aus der Medienbranche zeigen sich besorgt. Mike Pesca, ein ehemaliger Kollege von Greene bei NPR, sagte, er habe die KI-Stimme zum ersten Mal gehört und sofort gedacht: „Das ist David Greene.“ Er kritisierte nicht nur den mutmaßlichen Diebstahl, sondern auch die Qualität des KI-generierten Inhalts als oberflächlich und banal – als „KI-Matsch“.
Der Fall Greene könnte wegweisend dafür sein, wie die Gesellschaft und die Justiz mit den ethischen und rechtlichen Herausforderungen der künstlichen Intelligenz umgehen. Es geht um die grundlegende Frage, ob die menschliche Identität in einer zunehmend digitalen Welt geschützt werden kann, wenn Technologie sie nahezu perfekt nachbilden kann.





