Falscher Klitschko: Was gegen ein Deepfake spricht
Links Vitali Klitschko, wie ihn Franziska Giffey zu sehen bekam - rechts, wie er mit einem ukrainischen Journalisten sprach. (Bild: Berliner Senatskanzlei, Dmitrij Gordon/YouTube)
Klar ist eigentlich nur eines: Franziska Giffey sprach am Freitag nicht wie zunächst angenommen mit Kiews Oberbürgermeister Vitali Klitschko. Das war Berlins Regierender Bürgermeisterin bereits während des Videoanrufs aufgefallen, der daraufhin endete. Doch wie es den bislang Unbekannten gelungen war, Giffey in ein etwa halbstündiges Gespräch zu verwickeln, ist ein Rätsel.
Die Senatskanzlei selbst machte den ungewöhnlichen Vorgang noch am selben Tag öffentlich. Auf Twitter lieferte sie eine dystopisch anmutende Erklärung: Sie spekulierte, bei dem falschen Klitschko habe es sich um ein sogenanntes Deepfake gehandelt – also um ein mittels Künstlicher Intelligenz generiertes Abbild des Politikers. Eine Auswertung des ARD-Politikmagazins Kontraste nährt nun Zweifel daran, dass tatsächlich eine solche Technologie zum Einsatz kam.
Bilder stammen aus altem Interview
Nach Angaben der Senatskanzlei existieren keine Videoaufzeichnungen des Gesprächs. Kontraste konnte jedoch fünf Fotos untersuchen, welche die Senatskanzlei während des Videoanrufs angefertigt hat. Metadaten zufolge sind sie über einen Zeitraum zwischen 16.59 Uhr und 17.15 Uhr entstanden – vorausgesetzt, die Uhrzeit der Fotokamera war korrekt eingestellt.
Die Aufnahmen sind nicht perfekt, manchmal ist der Bildschirm nur klein zu sehen, der falsche Klitschko unscharf. Dennoch legt die Analyse nahe, dass die Bilder nicht durch einen Computer erstellt wurden, sondern aus einem Interview kopiert wurden, das Klitschko Anfang April dem ukrainischen Journalisten Dmitrij Gordon gab. Gordon veröffentlicht es damals auf YouTube.
Kein Deepfake ohne Vorlage
Tatsächlich wird auch für ein Deepfake eine Quelle benötigt – mindestens ein Foto, besser ein Video, am besten sogar sehr viel Videomaterial. In Echtzeit erzeugte Ergebnisse waren bislang wenig überzeugend – früher oder später treten verräterische Bildfehler auf, wenn sich der Computer sinngemäß verrechnet.
Basierend auf existierenden Gesichtsaufnahmen sammelt ein Computer Daten, anhand derer er lernen soll, wie eine Person die Stirn runzelt, blinzelt, die Lippen bewegt. Am Ende versucht die KI, diese erlernte Mimik selbst zu simulieren und eigene Bilder zu erstellen, aber zum Beispiel passend zu einem neuen Sprechertext. Es handelt sich dann nicht um eine Kopie der Vorlage, sondern um eine Neukreation.
Keine Simulation, bloß eine Kopie
Das Problem mit den Fotos der Senatskanzlei: Sie zeigen augenscheinlich keine computersimulierten Bilder. Tatsächlich fand Kontraste für alle fünf Fotos aus Giffeys Videoanruf Übereinstimmungen im Ursprungsmaterial – allesamt in den ersten rund fünf Minuten des bestehenden Videos. Identisch ist jeweils nicht nur Klitschkos Gesichtsausdruck, sondern auch der Hintergrund beziehungsweise der Teil des Hintergrunds, den Klitschko gerade mit seinem Kopf verdeckt. Ein Bild, das einen schweigenden Klitschko zeigt, wurde zudem doppelt verwendet – offenbar nutzten die Fälscher Material mehrfach.
Zwar sind die Funde kein definitiver Beleg dafür, dass der falsche Klitschko kein Deepfake war, sie deuten aber darauf hin, dass womöglich eher bestehendes Material neu arrangiert worden sein könnte. Vorstellbar scheint, dass kleine Ruckler und ungleichmäßige Bildraten, wie sie bei Videoanrufen üblich sind, kleinere Ungereimtheiten kaschiert haben. Der falsche Klitschko wäre dann zwar immer noch eine Fälschung – aber ein zumindest in technologischer Hinsicht weniger anspruchsvolles „Shallowfake“.
Fake-Klitschko sprach Russisch
Das Ergebnis war in jedem Fall so überzeugend, dass Giffey rund 30 Minuten lang mit dem Fremden sprach und auch vier weiteren laut Senatskanzlei in Berlin anwesenden Personen zunächst nichts auffiel. Erst der Inhalt habe skeptisch gemacht: So habe der vermeintliche Klitschko etwa gefordert, dass deutsche Sicherheitsbehörden dabei helfen, junge ukrainische Männer zurück in die Ukraine zu befördern.
Eigentlich spricht Klitschko auch Deutsch. Auf Wunsch des falschen Klitschkos fand das Gespräch laut Senatskanzlei jedoch auf Russisch statt, eine unsichtbare Person auf der anderen Seite habe immer wieder im Anschluss übersetzt. Eine Erklärung für die anfangs geglückte Fälschung ist die Sprachbarriere offenbar nicht: Giffey und eine weitere Person im Raum sollen Russisch verstehen. Demnach handelt es sich also auch bei der Tonspur um eine umfangreiche Fälschung.
Auch Bürgermeister von Wien und Madrid betroffen
Berlins Regierende Bürgermeisterin ist nicht die einzige, die sich in den vergangenen Tagen mit einem falschen Klitschko zum Videoanruf traf. Einem Foto zufolge machte Wiens Bürgermeister Michael Ludwig die Bekanntschaft mit denselben Fälschern. Auch Madrids Bürgermeister José Luis Martinez-Almeida hatte einen solchen Termin.
Wer hinter alldem steckt, ist weiterhin unklar. Mit ähnlichen Aktionen aufgefallen sind in der Vergangenheit die russischen Komiker Lexus und Vovan. Erst kürzlich narrten sie die „Harry Potter“-Autorin J.K. Rowling, indem sie sich in einem Videoanruf als der ukrainische Präsident Wolodymyr Selenskyj ausgaben. Das Duo nutzte die Gelegenheit für Pro-Putin-Propaganda und stellte ein geschnittenes Video ins Netz. Streiche spielten die beiden über die Jahre auch schon diversen westlichen Politiker.