Der ZDF-Journalist und Nachrichtensprecher Christian Sievers warnte vor seinem digitalen Klon. „Der Typ sieht aus wie ich und klingt fast wie ich. Aber ich bin es nicht wirklich. Echt nicht“, schrieb er in dem sozialen Netzwerk X (vormals Twitter). Sievers hatte ein Video entdeckt, in dem vermeintlich er selbst für eine neue Investmentmöglichkeit wirbt. Doch Sievers hat nie gesprochen. Betrüger haben eine digitale Kopie seiner Stimme erstellt und den echten Mitschnitt einer „heute journal“-Moderation so bearbeitet, dass Sievers‘ Lippenbewegungen an den Text angepasst wurden – der bekannte Moderator als Werbegesicht für mutmaßlichen Anlagebetrug.
Solche Deep Fakes sind dank der rasanten Entwicklung sogenannter künstlicher Intelligenz bereits mit wenig Aufwand und kaum Vorkenntnissen möglich. Oft lassen sie sich spätestens auf den zweiten Blick als Fälschung entlarven. Doch die Technik wird immer besser – und sie wird immer einfacher zu bedienen. Deep Fakes – mithilfe künstlicher Intelligenz (KI) erstellte Fälschungen von Bildern, Sprachaufnahmen und Videos echter Personen – werden nicht nur von gewöhnlichen Kriminellen genutzt. Sie drohen auch zu einem viel verwendeten Werkzeug politischer Kampagnen und Einflussoperationen zu werden.
In Washington, D. C., beobachtet Gavin Wilde, Wissenschaftler der Denkfabrik Carnegie Endowment for International Peace, solche Entwicklungen. „Führende US-Geheimdienstmitarbeiter erwarten, dass Staaten wie Russland, aber auch nicht staatliche Akteure zunehmend generative KI einsetzen werden, um Deep Fakes zu erstellen“, sagt er dem RedaktionsNetzwerk Deutschland (RND) bei einem Gespräch mit internationalen Journalisten. „Je verfügbarer diese Technologie wird, desto mehr werden wir eine Flut von Deep Fakes sehen – besonders im Zusammenhang mit Großereignissen wie Wahlen oder Militärübungen.“
Bislang sind überzeugende Deep Fakes in politischen Kampagnen noch eine Seltenheit. Doch vor allem Stimmen lassen sich heute bereits leicht und zunehmend überzeugend klonen. Technisches Know-how ist dafür nicht nötig. Die Technik wird längst auch für alltägliche Betrugsversuche eingesetzt. Deep Fakes werden in naher Zukunft noch viel überzeugender werden. Und die vergangenen Jahre haben gezeigt: Fälschungen müssen gar nicht perfekt sein, um zu überzeugen. Menschen neigen dazu, Dinge eher zu glauben, wenn sie ihr Weltbild bestätigen. Und sie neigen oft auch dazu, sie ungeprüft weiterzuverbreiten.
Nicht nur Deep Fakes, auch andere durch künstliche Intelligenz erzeugte Bilder und Videos haben das Potenzial, für Desinformationskampagnen verwendet zu werden und gesellschaftliche Unruhe zu stiften. Besonders große Fortschritte hat in den vergangenen Monaten die Entwicklung von Chatbots gemacht, die auf sogenannten Large Language Models, großen Sprachmodellen, basieren. Systeme wie ChatGPT des KI-Pioniers Open AI oder Claude des Konkurrenten Anthropic sind nicht nur in der Lage, nützliche Gebrauchstexte zu verfassen, die sich kaum noch von menschengeschriebenen Texten unterscheiden. Sie lassen sich auch dazu verwenden, Propagandatexte voller Falschinformationen zu schreiben. Beide Systeme haben Sicherheitsmechanismen eingebaut, die verhindern sollen, dass sie zur Erstellung von propagandistischen, volksverhetzenden Inhalten oder Falschinformationen verwendet werden. Diese Mechanismen lassen sich jedoch austricksen.
KI-Experten und Sicherheitsforscher sind sich einig: An denselben Techniken, die derzeit vor allem von US-Unternehmen entwickelt und der Weltöffentlichkeit vorgestellt werden, arbeiten gleichzeitig im Verborgenen auch Geheimdienste und andere staatliche Stellen. Künftig könnten solche Systeme bei staatlich gesteuerten Desinformationskampagnen und Einflussoperationen zum Einsatz kommen. Systeme, die wie ChatGPT funktionieren – aber keine Sicherheitsmechanismen haben und speziell dafür programmiert wurden, Propaganda und Desinformation zu erstellen.