STAND
AUTOR/IN
Philip Häusser
ONLINEFASSUNG
Vanessa Valkovic
Vanessa Valkovic (Foto: SWR3)

Plötzlich taucht ein Porno im Netz auf – einer der Darsteller hat dein Gesicht, obwohl du nichts mit dem Video zu tun hast. Der Grund: Deepfakes. Worum geht es dabei und was kannst du dagegen tun?

Ein paar Klicks, und aus dem Faktencheck-Moderator Philip Häusser wird Tom Cruise oder Sylvester Stallone. Mit dem richtigen Programm lässt sich heutzutage auch die Stimme kopieren und schon hat man alles, was man braucht, um ein gefälschtes Video zu basteln – ganz einfach. Solche Deepfakes sind aber offensichtlich mehr als eine nette Spielerei: Damit kann auch ganz gezielt getäuscht werden. Droht uns eine neue Welle Deepfake-Content im Internet, wenn das jetzt jeder machen kann?

Wie groß ist die Gefahr durch Deepfakes?

Folgendes Szenario: Es ist das Jahr 2024. Die nächste US-Präsidentschaftswahl steht an. Ein Kandidat will Fake News verbreiten und die Menschheit verunsichern. Er lässt Videos erstellen, in denen Politiker der anderen Partei abstruse Aussagen machen. Das verbreitet sein Team dann an verschiedenen Stellen im Internet. Die Menschen, bei denen diese Videos auf Whatsapp, Snapchat oder Telegram aufploppen, können nicht mehr unterscheiden, ob das Wahrheit oder Fake ist. Klingt nach einer ziemlich dunklen Zukunft? Technisch ist das schon längst möglich – sogar spielend einfach.

Die Technologie hinter Deepfakes

Alles begann an der Uni Erlangen-Nürnberg. Ein Forscher-Team arbeitete daran, Gesichts-Modelle am Computer zu erstellen. Ziel war es, Ärztinnen und Ärzten zu helfen, bestimmte Fehlbildungen im Gesicht besser zu behandeln.

Im Hintergrund steckt ein Modell von einem Gesicht. Modell heißt: Der Computer kann mit Zahlen beschreiben, was ein Gesicht ausmacht. Also zum Beispiel: Wie bewegen sich die Augen und Lippen. Wie sieht es aus, wenn sich die Stirn runzelt? Wie fällt der Schatten unter der Nase. Dieses Modell war auch in der Lage, den Inhalt von der Erscheinung zu trennen. Der Inhalt beschreibt zum Beispiel, ob eine Person gerade A oder O sagt. Und die Erscheinung bestimmt, wie das Gesicht eben dabei aussieht.

Als die Technologie der Forscher immer besser wurde, wagten sie ein Experiment. Es sollte zeigen, dass die Algorithmen ein Gesicht schon aus wenigen Bildern erstaunlich gut rekonstruieren können. So gut, dass es möglich ist, diese Charakteristika von einem Gesicht auf das Modell von einem anderen zu übertragen. Das war, wenn man so will, die Geburtsstunde von Deepfakes. Oder zumindest ein erster Meilenstein. Hier bei uns in Deutschland. Facial Reenactment haben das die Forscher dann genannt - also etwa: „Gesichts-Reinszenierung“. Parallel haben natürlich noch andere Forscher weltweit an diesem Thema gearbeitet. Im weiteren Verlauf und mit Hilfe von künstlichen neuronalen Netzen sind diese Facial Reenactments immer besser geworden. Sie funktionierten in hoher Auflösung, täuschend realistisch und sogar in Echtzeit. Das war damals eine echte Sensation.

Faktencheck: Wie gefährlich sind Deepfakes? (Foto: SWR3, niessnerlab.org)
niessnerlab.org

Normalerweise veröffentlichen Forscherinnen und Forscher den Code und die Daten dazu auch, damit andere das reproduzieren können, wenn sie dazu eine wissenschaftliche Arbeit veröffentlichen wollen. Die Forscher haben aber schnell gemerkt: Sie können den Code nicht einfach so veröffentlichen. Sie fanden: Das wäre moralisch nicht zu verantworten. Sie entschieden sich, hier anders vorzugehen – dazu später mehr.

Faktencheck: Wie gefährlich sind Deepfakes? (Foto: SWR3, Matthias Niessner/Youtube)
Matthias Niessner/Youtube

Kann jeder DeepFakes erstellen?

Was heißt das jetzt konkret für uns? Braucht man für einen Deepfake Programmierkenntnisse, einen Doktor in Informatik und einen Supercomputer? Nicht unbedingt. Obwohl die Forscher den Original-Code nicht veröffentlicht haben, war es nur eine Frage der Zeit, bis Programmierer aus aller Welt es schafften, die Algorithmen aus den Papern – also der wissenschaftlichen Veröffentlichung – nachzubauen. Und heute kann sich praktisch jeder den Code herunterladen, um Deepfakes zu basteln.

Nötig ist nur etwas Bildmaterial, ein paar Minuten Videomaterial reichen aus. Mit ein paar Klicks lässt sich ein künstliches neuronales Netz trainieren, um die Gesichter richtig auszuschneiden. Auch dafür reichen wenige Frames – den Rest macht das neuronale Netz automatisch. Danach erzeugt der Algorithmus einen Encoder-Decoder. Das bedeutet: Ein Encoder bekommt als Input ein Bild und gibt einen Code aus. Ein paar Zahlen, die das Wesentliche von meinem Gesicht beschreiben. Der Decoder soll, vereinfacht gesagt, aus diesen Zahlen wieder Pixel rekonstruieren. Mit ein paar weiteren Tricks der Software lässt sich so quasi ein Gesicht in ein anderes Gesicht übersetzen.

Faktencheck: Wie gefährlich sind Deepfakes? (Foto: SWR3, q-images.nzz.ch)
q-images.nzz.ch

Besser funktioniert die Übersetzung natürlich mit professionell trainierten Masken und Vorlagen und einem leistungsstarken Rechner. Aber Deepfakes zu erstellen, das ist keine geheime Kunst. Und die Entwicklung geht weiter, in Zukunft wird es wohl noch einfacher sein, solche Fakes zu erstellen. Und wenn wir darüber nachdenken, was wir alles in TikTok, Instagram und Co. hochladen oder über Whatsapp oder Telegram weiterleiten, dann ist es gar nicht so abwegig, dass jemand genug Material von uns für einen Deepfake besitzt. Und spätestens jetzt wird klar: Das ist ein echtes Problem.

Baden-Baden

Faktencheck Wird mein Handy abgehört?

Ist das echt Zufall? Gerade noch mit Freunden über ein Thema gesprochen. Und im nächsten Moment kommt Werbung auf mein Handy. Wir machen für euch den Faktencheck.  mehr...

Wie gefährlich sind Deepfakes?

In diversen Internetforen ist ein regelrechter Wettbewerb entstanden, wer die besten Deepfakes produziert. Eine besonders beliebte Kategorie: Gesichter von Schauspielern in Pornos einbauen. Die Cyber-Security-Firma Deeptrace hat ermittelt, dass 96 Prozent aller Deepfake-Videos im Internet pornografischer Natur sind. Das Perfide: Es lässt sich nur schwer nachvollziehen, wer den Fake gemacht hat. Und was einmal im Netz ist, das bleibt auch im Netz.

Natürlich sind auch schon Leute auf die Idee gekommen, Politiker mit Deepfakes zu verunglimpfen. Kalifornien hat sogar ein Gesetz erlassen, dass das innerhalb von 60 Tagen vor einer Wahl verbietet. Aber: Was Menschen auf WhatsApp, Telegram und andere Messenger weiterleiten, ist für eine Staatsanwaltschaft nur schwer nachzuvollziehen.

Gleichzeitig gibt es im Zusammenhang mit Deepfakes einen ganz neuen Effekt: Wenn ein echtes, aber unangenehmes Video von einer Person auftaucht, kann man das hinterher einfach leugnen: „Das ist so nie passiert – das ist ein Deepfake!“ Wenn jemand eine besonders polarisierende oder kritische Äußerung macht, dann ist die Deepfake-Ausrede besonders einfach. So geschehen zum Beispiel bei der Rede des ehemaligen US-Präsidenten Donald Trump, als er den Sturm auf das Kapitol im Nachgang kritisiert hat. Da gab es einige Trump-Anhänger, die gesagt haben: Das Video sei ein Deepfake. Das war es natürlich nicht.

Deepfakes können also zum Beispiel für politische oder wirtschaftliche Zwecke missbraucht werden. Aber auch wir Privatleute sind eben alle potenzielle Fake-Opfer. Immer wieder gibt es Meldungen von Privatleuten, deren Gesichter in andere Videos gefaked wurden. Mal vermeintlich zum Spaß, mal um jemanden zu verunglimpfen, mal aus Eifersucht – Stichwort Revenge Porn – mal um jemanden zu erpressen. Wenn so einfach Gesichter in Videos austauschen werden können, entwickelt sich im schlimmsten Fall eine ganz neue Art von Kriminalität.

Zwischenergebnis: Deepfakes stellen eine echte Gefahr da.

Kann man Deepfakes erkennen?

Die Schwierigkeit ist, dass Deepfakes inzwischen so unfassbar realistisch aussehen. Gibt es nicht doch eine Chance, Deepfakes zu enttarnen?

Und hier schließt sich der Kreis: Als die Forscher erkannt hatten, welches Potenzial ihre Gesichts-Rekonstruktions-Software eben auch hat, haben sie eine neue Disziplin im Feld der KI-Forschung (KI: Künstliche Intelligenz) begründet: Die Deep Forensics, also die Untersuchung von Video-Manipulationen. Denn bei einem Deepfake erstellt die KI zwar fotorealistische Gesichter. Aber nicht immer stimmt dabei die Physik. Ein Ansatzpunkt sind dabei die Augen des potenziellen Deepfakes. Augen haben in den meisten Fällen eine nahezu perfekt glatte Oberfläche. Licht spiegelt sich dann auf eine Art und Weise, die sich physikalisch genau rekonstruieren lässt.

Faktencheck: Wie gefährlich sind Deepfakes? (Foto: SWR3, arxiv.org)
arxiv.org

Bei Fake-Bildern setzt die KI Augen aber statistisch zusammen, nicht physikalisch. Daher passen oft die Spiegelungen nicht zusammen. Weitere Schwierigkeiten sind Schatten im Gesicht. Die müssen natürlich auch zur Beleuchtung passen. Auch der Mundinnenraum und lange Haare sind oft eine Herausforderung für Deepfakes.

Faktencheck: Wie gefährlich sind Deepfakes? (Foto: SWR3, arxiv.org)
arxiv.org

Das sind also ein paar Anhaltspunkte, einen Deepfake mit bloßem Auge zu enttarnen. Aber KI-Entwickler denken natürlich einen Schritt weiter: All diese Eigenschaften kann auch genauso eine KI scannen! Das ist die Idee hinter Deep Forensics. Es gibt inzwischen regelrechte Wettbewerbe zur Enttarnung von Deepfakes. Allerdings ist das ein Wettlauf. Wenn die Entlarvungs-Methoden besser werden, werden die Fälschungen früher oder später auch besser. Und umgekehrt.

Es gibt inzwischen auch einige Kamera-Chips, die Bilder und Videos direkt digital signieren, so dass man hinterher überprüfen kann, ob das Bildmaterial manipuliert wurde oder nicht. Die Blockchain-Technologie könnte hier eine ganz entscheidende Rolle spielen. Sie könnte das Werkzeug liefern, um zu überprüfen, ob ein Video genau so aufgezeichnet wurde.

Allerdings werden die Fakes immer realistischer. Wir werden sie wahrscheinlich bald schon nicht mehr mit dem menschlichen Auge enttarnen können. Und da müssen uns schon fragen: Wohin führt das noch alles? Wie können wir mit Deepfakes umgehen und uns schützen?

Wie können wir uns schützen?

Ein Pessimist würde davon ausgehen, dass die Welt von einer Fake-Flut überrollt wird. Gerade, wenn politische, wirtschaftliche oder sehr emotionale Beweggründe im Spiel sind, werden wir in Zukunft immer mehr Deepfakes zu Gesicht bekommen. Sich das klar zu machen, ist ein erster Schritt, um sich zu schützen.

Zum Beispiel indem wir uns die Frage stellen, welchen Quellen wir noch vertrauen können. Selbst in einem Video-Chat kann ich heute relativ problemlos per Deepfake mein Gesicht in Echtzeit austauschen. Bei Videos, die wir über Messengerdienste weitergeleitet bekommen, können wir in den meisten Fällen nicht mehr nachvollziehen, wo genau sie herkommen.

Erst checken, dann teilen Fake News? So kannst du sie erkennen!

Falsche Studien, Lügen über das Coronavirus oder den Ukraine-Krieg: Fake News gehören mittlerweile zu unserem täglichen Leben. Hier gibt es Tipps zum Umgang damit.  mehr...

Allerdings muss man eben auch festhalten: Fakes hat es schon immer gegeben. Schon die alten Römer haben Fake News genutzt um einen Krieg anzuzetteln. Damit Fake News und Deepfakes funktionieren, braucht es nämlich auch eine psychologische Komponente: Menschen glauben gerne an das, was den eigenen Überzeugungen entspricht. Erhalten wir eine Nachricht, die unsere Erwartungen erfüllt, sind wir eher geneigt, das auch für die Wahrheit zu halten. Das ist der Confirmation Bias – auf deutsch: Bestätigungsfehler.

Die Politik befasst sich bereits mit dem Thema. Es gab schon einige Diskussionen in der EU-Kommission und unter den Justizministern in Deutschland. Gesetze könnten einen Rahmen vorgeben – Leute, die Kunst, Nachrichten oder Videos fälschen, interessiert das wahrscheinlich eher nicht. Aber immerhin könnten sie dafür belangt werden.

Faktencheck: Sind Deepfakes gefährlich?


  • Die Algorithmen hinter Deepfakes sind inzwischen so gut, dass sie gar nicht so viele Daten brauchen, um ziemlich realistisch auszusehen.
  • Mit grundlegenden Programmierkenntnissen lassen sich Deepfakes erstellen – und in Zukunft wird das noch einfacher.
  • Es gibt eine große Community rund um Deep Forensics, die daran arbeitet, Deepfakes mit Hilfe von KI zu überführen.
  • Technische Tools und ein Auge für physikalische Ungereimtheiten können Fakes entlarven.
  • In Zukunft brauchen wir aber in jedem Fall neue Wege, um die Echtheit von Bildern oder Videos zu prüfen, mit digitalen Signaturen, vielleicht mit einer Blockchain-Lösung – und mit einem breiten gesellschaftlichen Bewusstsein für dieses Thema.

Meistgelesen

  1. Liveblog: Der Krieg in der Ukraine und seine Folgen Russland soll mindestens 20 Zivilisten getötet haben

    Russland versucht weiter, die Ukraine einzunehmen. Der Krieg hat auch Auswirkungen auf Europa und die ganze Welt. Alle Infos dazu.  mehr...

  2. Flut im Ahrtal Videos aus Hubschrauber setzen Innenminister Lewentz unter Druck

    Schockierende Videos der Polizei aus der Flutnacht im Ahrtal sind aufgetaucht. Die Öffentlichkeit darf sie noch nicht sehen. Nun wird ermittelt: Wer wusste wann von den Videos?  mehr...

    NOW SWR3

  3. Das ändert sich jetzt alles Neu im Oktober: Mindestlohn, Gas, Maskenpflicht

    Neuer Monat, neue Regelungen: Was es ab Oktober für wichtige Änderungen gibt, haben wir hier für euch zusammengefasst.  mehr...

  4. Kreis Neuwied

    Großeinsatz vorbei Kreis Neuwied: Menschen durch Schüsse verletzt

    Nach Schüssen bei Breitscheid im Westerwald hat die Polizei am Abend Entwarnung gegeben. Nun prüfen Ermittler einen Zusammenhang mit einem Vorfall aus NRW mit zwei Toten.  mehr...

    NOW SWR3

  5. „Time is Brain“ Warum immer mehr junge Menschen einen Schlaganfall erleiden

    Das Alter für Schlaganfälle verschiebt sich: Immer häufiger sind auch junge Menschen betroffen. „Schlaganfall, ich? Jetzt schon?“ Was sind Risikofaktoren und wie reagierst du im Zweifel?  mehr...

    NOW SWR3

  6. SWR3 Tatort-Check Schockmomente im Tatort: Wer ist vom Teufel besessen?

    Einmal im Jahr wird es im Tatort gruselig. Dann gehts um Geister, Dämonen, Teufel. Die Wiener Ermittler Moritz Eisner und Bibi Fellner müssen den Mord an einem Priester aufklären.  mehr...