Was sind „Deep Fakes“ und wie kann man sie erkennen?

Was sind „Deep Fakes“ und wie kann man sie erkennen?

Anfang des Jahres sorgten Videos in den Sozialen Medien, welche den Leiter der rumänischen Nationalbank (BNR), Mugur Isărescu, sowie die bekannte Journalistin und Moderatorin Andreea Esca zeigten, in denen sie vermeintlich Anlageempfehlungen gaben, für Aufsehen. Die Qualität der Videos veranlasste anschließend die BNR und Esca zu Klarstellungen. Letztlich handelte es sich bei den Videos um sogenannte „Deep Fakes“. Sie sind mittlerweile von so hoher Qualität, dass sie auf den ersten Blick täuschend realistisch wirken. 

Seit Jahren warnen Experten vor gestreuten Falschmeldungen und Desinformationen (auch Fake News genannt). In den letzten Jahren ist eine besondere Form der Desinformation durch den technologischen und rasanten Fortschritt der Künstlichen Intelligenz (KI) auf der Überholspur. Es handelt sich dabei um „Deep Fakes“: Fotos, Videos oder Audio-Dateien, die mit Unterstützung von KI vorsätzlich verändert werden. Der Begriff setzt sich aus den Wörtern „Deep Learning“ (eine Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ (Fälschung, falsch) zusammen. Deepfakes gehen über die klassischen Methoden weit hinaus, da damit sehr komplexe und realistische Fakes wie beispielsweise der Austausch einer Stimme oder eines gesamten Körpers möglich sind. 

Wie ein „Deep Fake“ entsteht

Die technische Grundlage für die Kreation von Deep Fakes bildet das Deep Learning. Es werden künstliche neuronale Netze herangezogen, um von bereits vorliegendem Material (Videos, Bilder, Stimmen) ein Modell zu erstellen, welches dann wiederum neues Material erzeugen kann. Der Ursprung von Deepfakes sind sogenannte „autoencoders“ oder „Generative Aversial Networks“ (GANs).

Für die Erstellung benötigt man zunächst Ausgangsmaterial von der Person, die man „faken“ (vortäuschen) und dann z. B. in ein anderes Video integrieren will. Je mehr Datenmenge das Basismaterial hat, desto besser kann dann der Algorithmus auch basierend auf den Informationen lernen. Gerade bei Personen, die in der Öffentlichkeit stehen, gibt es auch mehr als ausreichend Videos, Bilder und Audiodaten. Mit diesem Material trainiert dann die KI. Dies kann je nach Menge der Daten einige Stunden oder auch Tage dauern. Das neuronale Netz nimmt sich ein Ausgangsbild und zerlegt es in ein digitales Abbild (ein „encoding”). Dieses Abbild versucht nun wiederum, das eigentliche Ausgangsbild künstlich zu erzeugen (zu „decoden”). Dazu gibt man möglichst viel und möglichst Unterschiedliches ins „encoding“ und lässt den Computer arbeiten, um per „decoding“ wieder ein möglichst dem Ausgangsmaterial ähnliches Ergebnis zu erzeugen. Mit der Zeit gelingt es der KI immer besser, bis irgendwann die Unterschiede zwischen Ausgangsmaterial und Ergebnis nur noch sehr gering sind.

Mittlerweile ist es für jeden – auch ohne Programmierkenntnisse von Autoencodern – möglich, Deep Fakes zu kreieren. Spezifische kommerzielle Programme und Applikationen machen es auch für den Laien möglich. Bei der Installation von unverifizierten Programmen sollte man jedoch Vorsicht walten lassen, da gerade wegen der großen Popularität rund um das Thema viele zwielichtige Anbieter auftauchen, um die Neugierde der Menschen auszunutzen oder um Computerviren zu verbreiten.

Desinformationen auf dem Vormarsch

In den letzten Jahren hat man sich mit der rapiden Zunahme von Falschmeldungen vor allem im Bereich der sozialen Medien abgefunden. Weitaus besorgniserregender ist jedoch der starke Anstieg von Deepfakes. Diese Form der Täuschung wird auch zunehmend für betrügerische Machenschaften eingesetzt. Der Sumsub Identity Fraud Report kam 2023 nach einer Auswertung von über zwei Millionen Betrugsfällen in insgesamt 224 Ländern zu dem Ergebnis, dass von 2022 bis 2023 Betrugsmaschen, die über „Deepfakes“ durchgeführt wurden, in vielen Staaten um mehrere hundert und sogar tausend Prozent zugenommen haben. Deepfakes werden also nicht nur für gezielte Desinformationen eingesetzt, sondern fungieren für kriminelle Betrüger auch als nützliches Werkzeug, um das Vertrauen ihrer Opfer auszunutzen.

Wie gefährlich sind KI-Fakes?

Neben betrügerischen Auswüchsen, die oft einen finanziellen Schaden bei Opfern hervorrufen, liegt die Gefahr bei den durch die Künstliche Intelligenz erschaffenen Fälschungen in ihrer immer besser werdenden Qualität. Es liegt daher also auf der Hand, dass es für eine Person immer schwieriger wird, echt von falsch zu unterscheiden. In den letzten Monaten haben weltweit berühmte Beispiele dabei für Aufsehen gesorgt. Im Rahmen der Vorwahlen in den USA bekamen Bürgerinnen und Bürger im Bundesstaat New Hampshire kurz vor den Wahlterminen einen Anruf vom amtierenden US-Präsidenten Joe Biden. „Sie sollten sich ihre Stimme lieber aufheben für die Wahl im November“, sagte Biden scheinbar am Telefon. Nur war in Wirklichkeit nicht der Präsident in der Leitung, sondern ein KI-Doppelgänger. Für Biden ging es in New Hampshire um wenig, er hatte keinen ernsthaften Gegenkandidaten, und so gab es auch keinen erheblichen Schaden. Dennoch zeigen derartige Täuschungsmanöver, mit welcher Qualität und in welchem Ausmaß Deepfakes Einfluss gewinnen könnten. So könnten Videos von hochrangigen Politikern Wahlen entscheiden oder im Extremfall auch durch gefälschte Äußerungen zu ernsthaften Konflikten führen.

Wie kann man „Deep Fakes“ erkennen?

In den letzten Jahren gab es mit dem kometenhaften Aufstieg der Falschmeldungen auch vielfältige Initiativen, vor allem auch bei jungen Menschen, um sie auf diese Form der Manipulation vorzubereiten. Allein durch einen simplen Faktencheck lassen sich viele Falschmeldungen schon relativ zügig filtern und enttarnen.

Ein erster Schritt ist, das Video bzw. Foto, welches für die Täuschung genutzt wurde, genau zu betrachten. Eine unnatürliche Mimik oder oft auch ein leerer und starrer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder komisch aussehende Haare können demaskierend sein. Man sollte auch auf Übergänge wie jene zwischen Gesicht und Haaren oder Gesicht und Hals achten. Diese Übergänge sind bei Deepfakes oftmals nicht ausreichend scharf gestaltet. Viele Menschen blinzeln ganz natürlich relativ oft. Blinzelt eine Person in einem Video gar nicht, sollten die Alarmglocken angehen! Ebenso sollte man auf die Qualität achten. Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, ist die Wahrscheinlichkeit, dass es sich wohl um eine Täuschung handelt, sehr groß. Auch genaues Betrachten des Hintergrunds sowie des Übergangs zwischen Gesicht und Hintergrund lohnt sich. Hier stößt man häufig erst beim genaueren Hinsehen auf Fehler. Verzerrungen oder verschwommene Stellen sind ebenfalls gute Indikatoren, dass bei einem Video etwas nicht stimmt.

Des Weiteren sollte man auch auf die Stimme bzw. Audiospur achten. Bei der Erstellung von Deep Fakes achten die Initiatoren vor allem bei Videos mehr auf die Qualität des Bildmaterials. Das Audiomaterial wird dabei oft vernachlässigt. So kann man eine fehlende Synchronisation zwischen dem bewegenden Mund und der tatsächlichen Tonspur feststellen.

Letztlich ist auch ein einfacher Faktencheck immer ein gutes Werkzeug, um die Echtheit eines Bildes oder Videos, insbesondere wenn es sich um berühmte und bekannte Persönlichkeiten handelt, zu prüfen. Wird ein Video beispielsweise nur über Social-Media-Kanäle verbreitet, und man findet es bei vertrauenswürdigen Medienportalen nicht wieder, ist das gleichfalls ein Warnzeichen.

Gesetzgeber und Soziale Medien mehr in der Pflicht

Wie zu erkennen ist, können Deepfakes ernstzunehmende Probleme auslösen. Es gibt mehrere Stoßrichtungen bei der Gegenwehr auf KI-gesteuerte Manipulationen.

Der Gesetzgeber muss diejenigen, die Deepfakes erstellen und verbreiten, verstärkt zur Rechenschaft ziehen können. Die rechtlichen Rahmen und entsprechend auch Strafen variieren weltweit jedoch erheblich. Die USA stellen z. B. explizit Deepfakes mit Bezug zu Personen des öffentlichen Lebens oder Fakes mit sexuellen Darstellungen unter ein Verbot. China hingegen verlangt die Kennzeichnung von Deepfakes – sonst drohen empfindliche Strafen für Verbreiter und Plattform gleichermaßen. In anderen Staaten gelten weniger klare Regeln, dennoch sind Deepfakes durchaus strafrechtlich verfolgbar, vor allem, wenn Persönlichkeits- und Urheberrechte verletzt werden. Weltweite, einheitliche und verbindliche Regeln fehlen bisher. Auch die Betreiber von Social-Media-Plattformen müssen stärker in die Pflicht genommen werden, Deepfakes besser zu bekämpfen.

Manipulationen mit eigenen Waffen schlagen?

Eine weitere Option, gegen manipulative Deepfakes vorzugehen, ist die Künstliche Intelligenz selbst. Hierzu werden Ungereimtheiten wie falsche Helligkeiten oder Schatten in Videos durch Algorithmen detektiert und somit als Fake gekennzeichnet. Natürlich wird auch hier wieder Deep Learning eingesetzt. Dieses Vorgehen kommt jedoch einem technologischen Wettrüsten gleich. So können sich Deepfake-Algorithmen stetig verbessern, indem sie die Deepfake-Detektions-Algorithmen nutzen, um eigene Fehler auszubessern, was wiederum eine Gegenreaktion auf Seiten der Detektion erfordert. 

Leave a Reply

Your email address will not be published. Required fields are marked *