Deepfakes zu erkennen, wird immer schwieriger und wenn du nicht weißt, nach welchen Details du Ausschau halten musst, wirst du sie schlicht nicht erkennen. Ein Mitarbeiter in Hongkong überwies 2024 genau deshalb 25 Millionen Dollar an Betrüger, weil er glaubte seinen CFO und seine Kollegen im Videocall vor sich zu haben. Alle waren jedoch KI-generiert. Dieser Artikel zeigt, was du wissen musst, um nicht in dieselbe Falle zu tappen.
Infos auf einen Blick
- Audio-Deepfakes werden unterschätzt: Die meisten denken bei KI-Fälschungen sofort an Videos. Dabei reicht eine Minute Audiomaterial, um deine Stimme oder die deines Chefs täuschend echt zu klonen.
- Kein Tool ersetzt einen wachen Blick: Es gibt inzwischen gute Software zur Deepfake-Erkennung, aber sie ist kein Ersatz dafür zu wissen wo Fälschungen typischerweise scheitern.
- Psychologischer Druck ist Teil der Methode: Echte Deepfake-Angriffe arbeiten fast immer mit künstlicher Dringlichkeit. Wenn dich jemand zur sofortigen Handlung drängt, sollte dich das misstrauisch machen.
#1: Das Blinzeln verrät fast jeden Deepfake
KI-Modelle lernen aus Bildmaterial. Weil Menschen auf Fotos selten blinzeln, fehlt dieser Reflex in vielen Deepfakes vollständig oder wirkt seltsam mechanisch. Das Ergebnis ist ein Blick, der sich falsch anfühlt, ohne dass du sofort sagen kannst, warum.
Echtes menschliches Blinzeln ist leicht asymmetrisch. Das linke und das rechte Auge schließen sich nie in absolut identischer Geschwindigkeit. KI macht daraus zwei perfekt synchronisierte Bewegungen und genau diese Perfektion ist das Problem.
Wenn du ein verdächtiges Video prüfst, achte gezielt auf die Augen. Blinzelt die Person zu selten? Wirkt das Blinzeln zu gleichmäßig? Fehlt die kleine Unregelmäßigkeit, die echtes Blinzeln ausmacht? Dann ist Vorsicht angebracht!
#2: Haare, Hals und Ohren: Wo KI noch zuverlässig Fehler macht
Gesichter kann KI inzwischen sehr überzeugend generieren, aber den Übergang zwischen Gesicht und Umgebung beherrscht sie noch nicht wirklich. An genau dieser Stelle entstehen die auffälligsten Fehler und sie sind mit bloßem Auge erkennbar, wenn du weißt, wo du hinschauen musst.
Typische Schwachstellen in Deepfake-Videos:
- Haare wirken unscharf oder verschwimmen mit dem Hintergrund
- Der Halsbereich zeigt Farbunterschiede oder Verzerrungen zur Schulter hin
- Ohrringe oder Brillen flimmern kurz bei schnellen Bewegungen oder verschwinden ganz
- Die Haut an Kinn oder Schläfen sieht zu glatt aus und hat keine echte Textur
Ein bewusster Blick auf den Rand des Gesichts kostet dich fünf Sekunden. Das reicht oft aus.
#3: Audio-Deepfakes erkennen: Wenn die Stimme zu perfekt klingt
Viele denken bei Deepfakes ausschließlich an Videos, dabei sind Stimm-Fälschungen mindestens genauso gefährlich und deutlich leichter zu produzieren. Für wenige Dollar und einer Minute Audiomaterial lässt sich heute eine überzeugende Stimme klonen. Der CEO-Fraud wächst deshalb rasant.
Echte menschliche Sprache ist unordentlich. Sie enthält kurze Pausen, ein leises Einatmen vor längeren Sätzen und kleine Versprecher, die niemanden stören. KI-Stimmen klingen dagegen zu gleichmäßig und zu glatt. Sie klingen professioneller, als jeder Mensch im normalen Gespräch jemals klingt.
Im Ferrari-Betrugsfall von 2024 fragte ein Mitarbeiter den vermeintlichen CEO nach einem Buchtipp, den dieser kürzlich gegeben hatte. Der Betrüger konnte nicht antworten und legte auf. Eine einzige persönliche Frage hat Millionen gerettet. Diese Taktik solltest du kennen.
#4: Licht und Schatten: Was Physik mit Deepfakes zu tun hat
Licht folgt physikalischen Gesetzen. KI-Modelle, die ein Gesicht in eine fremde Umgebung einsetzen, müssen diese Gesetze simulieren und das gelingt ihnen nicht konsequent. Gerade bei schnellen Bewegungen entstehen hier Fehler, die verräterisch sind.
Der Praxistest ist simpel: Schau, woher das Licht im Video kommt, dann schau, wo der Schatten auf dem Gesicht liegt. Fällt Licht von links ein aber der Schatten unter der Nase zeigt in eine andere Richtung, ist das ein starkes Warnsignal.
Noch deutlicher wird es bei Reflexionen in den Augen. Echte Augen spiegeln Lichtquellen aus dem Raum wider. In vielen Deepfakes fehlt dieser Reflex oder er sitzt an der falschen Position. Es lohnt sich, genau dort hinzuschauen.
#5: Körperbewegungen, die nicht zur Situation passen
Gesichtsgeneratoren sind technisch weiter entwickelt als Körpergeneratoren. Das führt zu einem typischen Muster: Das Gesicht wirkt überzeugend, aber der Rest des Körpers bewegt sich auf eine Weise, die nicht stimmt. Die Arme schwingen beim Reden kaum mit, der Kopf nickt zu gleichmäßig und die Hände werden außerhalb des zentralen Bildbereichs unscharf oder verzerrt.
Je mehr Körper im Bild zu sehen ist, desto wahrscheinlicher ist es, einen Fehler zu entdecken. Lenk deinen Blick bewusst vom Gesicht weg. Besonders aufschlussreich sind Momente, in denen sich die Person schnell dreht oder lebhaft gestikuliert. Genau dort brechen die meisten Deepfakes zusammen.
#6: Der Kontext-Check: Manchmal brauchst du gar keine Technik
Manchmal musst du kein Experte sein, um einen Deepfake zu entlarven. Ein nüchterner Blick auf den Kontext reicht vollständig aus.
Drei Fragen, die du dir bei verdächtigen Videos sofort stellen solltest:
- Gibt es diese Aussage auch auf einem verifizierten offiziellen Kanal der Person oder Organisation?
- Ist es überhaupt plausibel, dass diese Person das sagt oder tut?
- Wurde der Inhalt ausschließlich über eine unbekannte oder fragwürdige Quelle geteilt?
Ein Reverse Image Search mit einem Screenshot aus dem Video kostet dich 30 Sekunden. Wenn das Gesicht in völlig anderen Kontexten auftaucht oder das Video nirgendwo sonst auffindbar ist, solltest du hellhörig werden. Google Bilder und TinEye sind dafür die schnellsten Anlaufstellen.
#7: Psychologischer Druck: Warum Deepfake-Betrug fast immer drängt
Fast alle erfolgreichen Deepfake-Betrugsfälle kombinieren die technische Täuschung mit psychologischem Druck. Der falsche CFO braucht sofort eine Überweisung. Die gefälschte Stimme des Chefs bittet um absolute Diskretion. Eine sofortige Entscheidung wird verlangt, ohne Rücksprache mit anderen.
Das Gehirn schaltet in einen Vertrauensmodus, sobald es jemanden zu erkennen glaubt und genau das nutzen Angreifer gezielt aus. KI macht es gefährlicher, weil das vertraute Gesicht oder die vertraute Stimme diese Schutzreaktion aushebelt.
Ein echter Vorgesetzter versteht es, wenn du kurz zurückrufst, um zu verifizieren. Ein Betrüger tut das nicht.
#8: KI gegen KI: Diese Tools helfen dir beim Erkennen von Deepfakes
Wenn du regelmäßig mit verdächtigem Material konfrontiert wirst, musst du das nicht allein mit dem menschlichen Auge lösen. Spezialisierte Tools analysieren Metadaten, Kompressionsartefakte und KI-typische Muster, die für das menschliche Auge unsichtbar sind.
Empfehlenswerte Tools zur Deepfake-Erkennung:
- Deepfake Total (Fraunhofer AISEC): Kostenlose Plattform des deutschen Forschungsinstituts, mit der du Audio-Dateien und YouTube-Videos auf Manipulationen prüfen kannst
- Reality Defender: Professionelles System, das Stimme, Video und Bilder in Echtzeit analysiert und besonders im Unternehmensumfeld eingesetzt wird
- Hive Moderation: API-basiertes Tool, das Bilder und Videos auf KI-Generierung prüft und auch für Einzelnutzer zugänglich ist
Kein Tool ist unfehlbar. Die Erkennungstechnologie und die Fälschungstechnologie entwickeln sich parallel. Nutze diese Tools als zusätzliches Sicherheitsnetz, aber verlasse dich nicht blind auf sie.
Fazit: Deepfakes erkennen ist eine Frage der Aufmerksamkeit
Die Technologie wird besser. Wer aber weiß, wo er hinschauen muss, hat einen echten Vorteil. Die meisten Deepfakes scheitern an den Rändern: an Haaren, Schatten, Übergängen und dem natürlichen Chaos echter menschlicher Sprache. Diese Schwachstellen sind lernbar und wer sie kennt, wird deutlich schwieriger zu täuschen sein.
Das wichtigste Werkzeug gegen Deepfakes ist übrigens kein Tool: Es ist die Gewohnheit, kurz innezuhalten und zu fragen: Kann das wirklich echt sein?