Insights KI Neuigkeiten Klage gegen Google wegen Stimmenklau: Was jetzt zählt
post

KI Neuigkeiten

19 Feb. 2026

Read 8 min

Klage gegen Google wegen Stimmenklau: Was jetzt zählt

Klage gegen Google wegen Stimmenklau erklärt welche Beweise zählen und welche Folgen Podcaster drohen

Die Klage gegen Google wegen Stimmenklau sorgt für Wirbel: Ex-NPR-Moderator David Greene behauptet, Googles KI-Podcast-Tool NotebookLM nutze eine Stimme, die seiner zum Verwechseln ähnlich klingt. Google widerspricht und verweist auf einen bezahlten Sprecher. Worum es konkret geht, welche Belege vorliegen und was noch unklar ist – hier im Überblick. Der ehemalige NPR-Host David Greene, bekannt aus Morning Edition und Up First und heute die Stimme von KCRW’s Left, Right & Center, hat in Santa Clara County, Kalifornien, Klage eingereicht. Mit seiner Klage gegen Google wegen Stimmenklau wirft er dem Konzern vor, die männliche Podcaster-Stimme von NotebookLM an seine eigene Stimme angelehnt oder mit ihr trainiert zu haben. Auslöser waren E-Mails und Nachrichten von Kollegen, Freunden und Familie, die fragten, ob er seine Stimme lizenziert habe. Greene schildert, er sei „komplett verunsichert“ gewesen und habe sich selbst zu hören geglaubt – er betont zugleich, er sei kein genereller KI-Gegner.

Klage gegen Google wegen Stimmenklau: Der Fall in Kürze

  • Kläger: David Greene, Ex-Moderator von Morning Edition und Up First; aktuell Stimme von KCRW’s „Left, Right & Center“.
  • Beklagter/Produkt: Google mit NotebookLM, einem 2024 gestarteten KI-Tool, das automatisierte Podcasts erstellt – mit einer männlichen und einer weiblichen Stimme, die miteinander sprechen („Audio Overviews“).
  • Ort/Datum: Die Klage gegen Google wegen Stimmenklau wurde am 23. Januar in Santa Clara County, Kalifornien, eingereicht.
  • Vorwurf: Die männliche Stimme klinge wie Greene – gleiche Kadenz, Intonation und Füllwörter („uhs“ und „likes“).
  • Belege laut Klage: Ein ungenanntes KI-Forensik-Unternehmen habe eine 53–60%ige Wahrscheinlichkeit ermittelt, dass Greenes Stimme zum Training genutzt wurde; in der Klage als „relativ hoch“ bezeichnet. Konkrete Beweise legt die Klage nicht vor.

Wie alles begann

Ein früherer Kollege schrieb Greene nach dem Start von NotebookLM im Herbst 2024: „Hast du deine Stimme an Google lizenziert? Es klingt sehr nach dir!“ Danach wurde Greene mit ähnlichen Nachfragen überhäuft. Für ihn ist das Thema persönlich: „Meine Stimme ist der wichtigste Teil von dem, wer ich bin“, sagte er der Washington Post. Auch seine Frau habe verblüfft reagiert, als er ihr die KI-Passage vorspielte.

Was genau behauptet die Klage?

Die Klage schildert, Google habe Greenes Stimme „gespooft“. Sie stützt sich dabei auf die Analyse der erwähnten Forensik-Firma. Diese Einstufung ersetzt aber keinen eindeutigen Nachweis. Das Verfahren soll klären, ob und wie Material von Greene zum Training genutzt wurde.

Googles Antwort und offene Punkte in der Klage

Google weist die Vorwürfe entschieden zurück. Sprecher José Castañeda erklärte gegenüber der New York Post, die Anschuldigungen seien „grundlos“. Die männliche Stimme in den „Audio Overviews“ stamme von einem bezahlten professionellen Sprecher. In der Klage gegen Google wegen Stimmenklau bleibt damit zentral offen, ob Trainingsdaten von Greene tatsächlich verwendet wurden und wie die Stimmauswahl konkret erfolgte. Greenes Anwalt Joshua Michelangelo Stein (Boies Schiller Flexner) zeigte sich zuversichtlich und forderte die Öffentlichkeit laut Washington Post auf, sich die Beispiel-Audios selbst anzuhören. Gleichzeitig hält die Klage fest, dass sie derzeit keinen direkten Beweis liefert und die Forensik-Bewertung nur eine Wahrscheinlichkeit ausdrückt.

Einordnung: Bekannte KI-Fälle rund um Stimmen und Bilder

Die Klage gegen Google wegen Stimmenklau reiht sich ein in eine Reihe prominenter KI-Streitfälle:
  • Scarlett Johansson und OpenAI (2024): Nach Veröffentlichung der ChatGPT-Stimme „Sky“, die der Schauspielerin ähnlich klang, drohte Johansson mit rechtlichen Schritten. OpenAI entfernte „Sky“ daraufhin.
  • Deepfakes auf X (ehemals Twitter): Sexuell explizite KI-Bilder von Taylor Swift verbreiteten sich 2024 millionenfach. X entfernte temporär den Namen und verwandte Suchbegriffe, doch ein Bild hatte bereits 47 Millionen Aufrufe.
  • Weitere Verfahren: Greenes Anwalt vertritt auch Buchautorinnen und -autoren wie Sarah Silverman und Ta-Nehisi Coates in einer KI-Urheberrechtsklage gegen Meta.

Was jetzt zählt

Die nächsten Schritte beobachten

Die Gerichte müssen klären, ob die Vorwürfe tragen und welche Rolle die Forensik-Bewertung spielt. Wichtig ist, ob zusätzliche Belege vorgelegt werden und wie Google die Herkunft und Auswahl seiner Stimmen dokumentiert.

Transparenz über Stimmen und Trainingsdaten

Je klarer Unternehmen offenlegen, woher Stimmen stammen und wie sie eingesetzt werden, desto besser lassen sich Missverständnisse vermeiden. Das gilt besonders für Tools, die gesprochene Inhalte automatisch erzeugen und Dialoge simulieren.

Präzise Kommunikation gegenüber Nutzern

Wenn Produkte wie NotebookLM mit „Audio Overviews“ arbeiten, hilft eine eindeutige Kennzeichnung: Wer spricht? Ist es ein Schauspieler? Wie wird KI eingesetzt? Das schafft Vertrauen, reduziert Risiken und schützt Identitäten. Am Ende wird entscheidend sein, wie Gerichte und Unternehmen mit ähnlich gelagerten Fällen umgehen. Wie die Klage gegen Google wegen Stimmenklau ausgeht, könnte Maßstäbe setzen – für Moderatoren, Kreative und Tech-Firmen gleichermaßen.

(Source: https://nypost.com/2026/02/16/media/npr-host-david-greene-accuses-google-of-stealing-his-voice-for-ai-podcast-tool/)

For more news: Click Here

FAQ

Q: Worum geht es in der Klage von David Greene? A: In der Klage gegen Google wegen Stimmenklau behauptet David Greene, dass die männliche Podcaster‑Stimme in Googles NotebookLM seiner Stimme zum Verwechseln ähnlich ist und womöglich mit seinem Material trainiert wurde. Er beschreibt gleiche Kadenz, Intonation und typische Füllwörter und sagt, das habe ihn stark verunsichert. Q: Wer ist David Greene und welche Relevanz hat seine Stimme für die Klage? A: David Greene ist ein ehemaliger Moderator von NPR‑Sendungen wie Morning Edition und Up First und derzeit die Stimme von KCRW’s Left, Right & Center. Als Kläger legt er dar, dass seine berufliche Stimme im Zentrum des Vorwurfs steht. Q: Wie hat Google auf die Vorwürfe reagiert? A: Google wies die Anschuldigungen zurück und bezeichnete sie als grundlos. Ein Sprecher, José Castañeda, erklärte laut Artikel, die männliche Stimme stamme von einem bezahlten professionellen Sprecher. Q: Welche Belege führt die Klage an? A: Die Klage verweist auf die Analyse einer ungenannten KI‑Forensikfirma, die eine 53–60%ige Wahrscheinlichkeit angab, dass Greenes Stimme für das Training genutzt wurde. Konkrete, eindeutige Beweise legt die Klage nach Angabe des Artikels bislang nicht vor. Q: Wann wurde die Klage eingereicht und gegen welches Produkt richtet sie sich? A: Die Klage gegen Google wegen Stimmenklau wurde am 23. Januar in Santa Clara County, Kalifornien, eingereicht und richtet sich gegen Googles KI‑Tool NotebookLM, das seit 2024 automatisierte Podcasts erzeugt. NotebookLM bietet laut Artikel eine männliche und eine weibliche Stimme in sogenannten Audio Overviews. Q: Welche Rolle spielt die Audio‑Forensik im Verfahren? A: Die Klage zitiert eine Forensik‑Analyse mit einer als „relativ hoch“ bezeichneten Wahrscheinlichkeit, ersetzt laut Artikel jedoch keinen eindeutigen Nachweis. Das Gericht muss klären, wie viel Gewicht solche forensischen Bewertungen im Prozess haben. Q: Wie begann Greene zu bemerken, dass die KI‑Stimme ihm ähnlich klingt? A: Greene wurde laut Artikel durch eine E‑Mail eines früheren Kollegen auf NotebookLM aufmerksam gemacht, der fragte, ob Greene seine Stimme lizenziert habe. Greene schildert, er sei „komplett verunsichert“ gewesen und habe das KI‑Audio als sehr ähnlich zu seiner eigenen Stimme empfunden. Q: In welchem Kontext steht dieser Fall zu früheren KI‑Streitfällen? A: Der Artikel stellt die Klage gegen Google wegen Stimmenklau in eine Reihe ähnlicher Fälle, etwa Scarlett Johanssons Kritik an einer ChatGPT‑Stimme 2024 und die Verbreitung von KI‑Deepfakes auf X im Jahr 2024. Diese Beispiele zeigen, dass Fragen zu Stimmenrechten, Urheberrecht und Plattformtransparenz bereits zuvor strittig waren.

Contents