Spoiler
"Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht", heißt es in einer der gefälschten tagesschau-Audiodateien.
Das Audio beginnt mit dem offiziellen tagesschau-Jingle, der vor jeder Sendung zu hören ist und suggeriert damit, dass es sich um Aufnahmen von tagesschau-Sprecherin Susanne Daubner sowie tagesschau-Sprecher Jens Riewa handle.Insgesamt kursieren drei Audios, die alle vermeintliche Entschuldigungen über angeblich "bewusste Manipulation" und "Lügen" in der Berichterstattung enthalten.
Thematisch geht es um den Krieg in der Ukraine, die Corona-Pandemie und die "Denunzierung" von Demonstranten.
So habe die tagesschau gelogen, als sie "anständige Bürger aus der Mitte der Gesellschaft als Rechtsextreme, Reichsbürger oder Corona-Leugner denunzierten". Die tagesschau belüge die Menschen seit Beginn des Kriegs in der Ukraine, "um allein Putin die Schuld an der Eskalation in die Schuhe schieben zu können" oder habe wider besseres Wissen Lügen über die Covid-19-Impfungen verbreitet.
In allen drei Audiodateien heißt es gegen Ende: "Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen."
Klare FälschungMarcus Bornheim, Chefredakteur von ARD-aktuell, stellt klar, dass es sich bei diesen Dateien um Fälschungen handelt. Die tagesschau werde als bekannteste Nachrichtensendung in Deutschland als seriös, glaubwürdig und zuverlässig eingeschätzt. "Das wird hier ausgenutzt, um gezielt Desinformation zu verbreiten", sagt Bornheim. Es sei absurd, dass Menschen, die die Presse als "Lügenpresse" bezeichnen, ihr Publikum bewusst mit solchen gefakten Audios beeinflussen.
Hört man genau hin, kann man diese KI-generierten Audiodateien relativ einfach als Fakes entlarven. Die Stimmen der tagesschau-Sprecherinnen und -Sprecher klingen mechanisch, einige Betonungen der Wörter sind falsch und die Sprachmelodie unterscheidet sich von den echten Sprechern. Dies ist in den Übergängen am Ende besonders gut zu hören, wo die tatsächlichen Verabschiedungen der Sprecher eingfügt wurden.
KI-generierte Audios oftmals schwer zu erkennen
So einfach wie bei diesen Beispielen ist es jedoch häufig nicht mehr, echte von falschen Audiodateien zu unterscheiden. Insgesamt sei es bereits heute nur schwer möglich, KI-generierte Audios zu erkennen, sagt Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI): "Die KI kann auch leichte Nuancen der Menschlichkeit simulieren wie beispielsweise Emotionen oder Subjektivität. Und dann ist es umso schwerer, so was zu identifizieren.
"Aus Sicht von Dengel müssten Menschen daher vor allem die Plausibilität des Inhalts überprüfen. "Dass ein Nachrichtensender solche Audios veröffentlicht, ist sehr unrealistisch. Da sollte sich der gesunde Menschenverstand einschalten und sagen, dass diese Audios nicht echt sein können." Allerdings hänge es auch sehr stark davon ab, wer solch ein Fake zu hören bekommt. "Je besser eine Nachricht ins bestehende Weltbild von Menschen passt, desto eher wird sie auch geglaubt."
Audios auf Demonstration gespielt
Ob die Audiodateien von den Personen, die sie hören, als glaubwürdig eingeschätzt werden oder nicht, lässt sich schwer sagen. Doch wurden die drei Audios einem Live-Videostream zufolge wohl per Lautsprecherdurchsagen auf einer Demonstration Anfang November in Kiel abgespielt, die unter dem Namen "Die große Meuterei" angemeldet wurde.
Die "Kieler Gelbwesten", die aus den Protesten gegen die Corona-Politik entstanden sind, mobilisierten laut der "Kieler Nachrichten" deutschlandweit für die Demonstration - gekommen sind um die 1.500 Menschen. Bei den Teilnehmenden handele es sich vor allem um Menschen aus der sogenannten Querdenkerszene, sagt Christian Martin, Professor für Vergleichende Politikwissenschaft an der Christian-Albrechts-Universität zu Kiel. "Politisch sind sie nicht eindeutig einer Richtung zuzuordnen, das geht teilweise wild durcheinander. Als Klammer kann man sagen, dass die Menschen sich zurückgesetzt fühlen und glauben, dass der Staat ihre Freiheitsrechte beschränkt."
Demonstrierende aus dem Querdenkenmileu
Von den Inhalten und Menschen sei die Demo etwa mit den Protesten gegen die Corona-Maßnahmen während der Pandemie zu vergleichen, sagt Martin. "Es gibt die Idee von einer bösen Elite, die für alles Übel in der Welt verantwortlich ist." So war einer der Redner beispielsweise der Hamburger Arzt Walter Weber, gegen den die Hamburger Staatsanwaltschaft im vergangenen Jahr Anklage erhoben hat, da er falsche Atteste zur Maskenbefreiung ausgestellt haben soll.
Auf der Website der Demo sind ähnliche Positionen wie in den KI-generierten Audios zu finden. Neben der Forderung nach einer angeblich notwendigen Trennung von Staat und Medien, die sich für ihre Berichte von Politikern schmieren lassen würden, gehen die Forderungen von einem Waffenlieferungsstopp an die Ukraine bis hin zu Verschwörungserzählungen rund um die Weltgesundheitsorganisation und die Vereinten Nationen.
Im Impressum der Seite wird Henry Gienap aufgeführt, der bei der diesjährigen Gemeindewahl in Kiel für die AfD antrat. Aus Sicht von Martin ist das wenig überraschend: "Menschen, die sich in einem solchen Umfeld wohlfühlen, haben auch eine Affinität zur AfD."
Verbreitung in den Sozialen Netzwerken
Auch in einigen einschlägigen verschwörungsideologischen Telegram-Kanälen, auf Facebook und TikTok wurden die KI-generierten Audios verbreitet und jeweils mehreren Tausend Nutzerinnen und Nutzern angezeigt - wenn auch meist mit dem Hinweis, dass es sich um Satire handle. Josef Holnburger vom Center für Monitoring, Analyse und Strategie (CeMAS) weist jedoch darauf hin, dass Kennzeichnungen der Satire nicht etwa ein Hinweis für das Publikum sein müssen. "Häufig wird ein Satirehinweis gezielt als Strategie von Desinformationsverbreitern genutzt, um sich im Rahmen der Kunstfreiheit gegen mögliche drohende Anklagen zu schützen." Dies sei mal mehr, mal weniger erfolgversprechend.
Der Inhalt würde bei den Nutzerinnen und Nutzern hängen bleiben, erläutert Holnburger. "In der verschwörungsideologischen Szene ist man überzeugt, dass die Medien zu allem lügen würden - deswegen ist eine solche Entschuldigung auch bei vielen eine Wunschvorstellung". Am Ende sei es einem großen Teil der Szene egal, ob Audioaufnahmen oder Zitate tatsächlich so getätigt wurden, es reiche meist schon die Überzeugung aus, dass Aussagen so getroffen worden sein könnten.
"Strategien der Delegitimierung"
Audiodateien wie diese müssen nach Ansicht von Martin ernst genommen werden. "Alleine die Tatsache, dass es solche Audios gibt, unterminiert natürlich die Glaubwürdigkeit von Äußerungen im öffentlich-rechtlichen Rundfunk", sagt Politikwissenschaftler Martin. Letztlich seien das alles "Strategien der Delegitimierung", so Martin. Es werde versucht, Verwirrung zu stiften, damit die echten Fakten weniger zur Kenntnis genommen würden.
Auch Chefredakteur Bornheim betont: "Die in den KI-generierten Audios vertretenen Positionen und Strategien sind geeignet, die freiheitlich-demokratische Grundordnung zu beschädigen."
Missbrauch der Glaubwürdigkeit von Nachrichtensprechern
Da es in Zukunft immer einfacher werden wird, KI-generierte Fakes zu produzieren, geht Holnburger davon aus, dass diese zunehmen werden. Bereits jetzt kursieren immer wieder falsche Inhalte von Nachrichtensprechern und -sprecherinnen. So machten beispielsweise KI-generierte Videos von tagesschau24-Sprecher André Schünke oder "ZDF heute-journal"-Sprecher Christian Sievers die Runde, in denen sie vermeintlich Werbung für dubiose Finanzanlagen machten. In beiden Fällen handelt es sich um Fakes.
"Ersteller dieser gefakten Anlage-Empfehlungen, auch Scams genannt, nutzen häufig bekannte Persönlichkeiten, um ihren angeblichen Investitionsempfehlungen mehr Glaubwürdigkeit zu verleihen", sagt Holnburger. Die Hoffnung der Betrüger sei dabei, dass bei den Leuten ankomme: Wenn selbst die tagesschau darüber berichtet, kann es nur seriös sein."Die Sprecher und deren Sendungen haben bereits eine gewisse Glaubwürdigkeit in der Bevölkerung. Dieses Vertrauen kann dann für solche Zwecke ausgenutzt werden", sagt auch Dengel. Hinzu komme, dass es von Nachrichtensprecherinnen und -sprecher viel Material gebe, mit dem die KI trainiert werden könne. Je mehr Daten vorhanden seien, desto besser werde das Endergebnis.