Veröffentlicht am 8. September 2025 | Lesezeit: 5 Minuten
25 Millionen Dollar Schaden durch eine gefälschte Videokonferenz. Was wie Science-Fiction klingt, ist bittere Realität geworden. Ein Mitarbeiter überwies diese gigantische Summe, nachdem er in einem Video-Call mit seinem vermeintlichen Finanzchef gesprochen hatte. Das Problem: Alle Teilnehmer waren KI-generierte Deepfakes.
Die neue Dimension des Betrugs
Seit dem Boom der Videokonferenzen durch Corona arbeiten Millionen Menschen im Home Office. Was praktisch ist, öffnet Cyberkriminellen neue Türen. Deepfakes (eine Kombination aus „Deep Learning“ und „Fake“) nutzen Künstliche Intelligenz, um täuschend echte Videos und Audiodateien zu erstellen.
Die Statistiken sind alarmierend: Laut dem Signicat-Report „The Battle Against AI-Driven Identity Fraud“ sind Deepfake-Betrugsversuche im Finanzbereich in den letzten drei Jahren um 2137 % gestiegen. Laut dem 2025 Identity Fraud Report des Entrust Cybersecurity Institute registrieren Sicherheitsexperten etwa alle fünf Minuten einen neuen Deepfake-Angriff.
Wie funktionieren Deepfake-Angriffe im Home Office?
Ein klassisches Szenario kennst du vielleicht: Du erhältst einen Anruf von deinem Chef, der dich um eine dringende Überweisung bittet. Die Stimme klingt vertraut, der Tonfall passt. Was du nicht weißt: Cyberkriminelle haben mit nur wenigen Minuten Audiomaterial von deinem Chef ein Voice-Cloning-System trainiert. Diese Systeme kosten etwa 20 000 Dollar und können jede Stimme in Echtzeit imitieren.
Noch perfider sind manipulierte Video-Calls. Mittels Face-Swapping-Verfahren tauschen Kriminelle Gesichter in Videos aus. In Echtzeit-Anwendungen entstehen dabei oft sichtbare Artefakte (Bildstörungen), aber unter Stress oder bei schlechter Videoqualität fallen diese kaum auf.
Deepfakes verstärken außerdem klassisches Social Engineering (psychologische Manipulation). Angreifer sammeln Informationen aus sozialen Netzwerken und erstellen dann personalisierte Betrugsversuche. Sie imitieren Kollegen, Kunden oder Dienstleister und nutzen dabei das Vertrauen aus, das du zu diesen Personen hast.
Reale Schadensfälle zeigen das Ausmaß
Der spektakulärste Fall ereignete sich bei einem multinationalen Unternehmen, als ein Mitarbeiter 25,6 Millionen Dollar überwies, nachdem er in einer Videokonferenz die Aufforderung dazu erhalten hatte. Die Teilnehmer des Meetings waren KI-generierte Deepfake-Figuren von anderen Mitarbeitenden sowie dem Finanzchef.
Auch prominente Fälle zeigen die Gefahr auf. Ein Ferrari-Manager erhielt WhatsApp-Nachrichten vom vermeintlichen CEO Benedetto Vigna wegen einer „geheimen Währungstransaktion“. Nur durch kritisches Nachfragen konnte der Betrug aufgedeckt werden. In einem anderen Fall überwies der CEO eines britischen Energieunternehmens umgerechnet 220 000 Euro nach einem Anruf mit der gefälschten Stimme seines Vorgesetzten.
Selbst hochrangige Politiker fallen auf solche Angriffe herein, wie der bekannte Fall mit Franziska Giffey und dem falschen Vitali Klitschko zeigt.
Woran erkennst du Deepfakes?
Bei Videos solltest du auf unnatürliche Übergänge zwischen Kopf und Hals achten, sowie auf flackernde oder verschwommene Gesichtsbereiche. Asymmetrische Gesichtszüge, unrealistische Augenbewegungen oder inkonsistente Beleuchtung sind weitere Warnsignale.
Audio-Fälschungen erkennst du oft an roboterhafter oder monotoner Sprachmelodie, unnatürlichen Pausen zwischen Wörtern oder Verzerrungen bei emotionalen Äußerungen. Auch fehlende typische Hintergrundgeräusche können ein Hinweis sein.
Besonders verdächtig sind dringende Geldtransfers ohne schriftliche Bestätigung, ungewöhnliche Kommunikationswege oder Zeitdruck ohne plausiblen Grund. Wenn jemand von normalen Geschäftsprozessen abweicht, solltest du hellhörig werden.
So schützt du dich im Home Office
Technisch kannst du dich schützen, indem du vertrauenswürdige Video-Plattformen mit Sicherheitsfeatures nutzt und Zwei-Faktor-Authentifizierung für alle Business-Accounts aktivierst. Halte deine Video-Software immer aktuell und installiere Deepfake-Erkennungssoftware, falls verfügbar.
Organisatorisch solltest du das Vier-Augen-Prinzip bei Überweisungen einführen und klare Kommunikationswege für finanzielle Anfragen definieren. Vereinbare Codewörter oder Sicherheitsfragen mit wichtigen Kollegen und erstelle Notfallpläne für verdächtige Anfragen.
Im täglichen Umgang gilt: Bestätige ungewöhnliche Anfragen immer über einen zweiten Kanal. Vertraue deinem Bauchgefühl bei seltsamen Situationen und gib niemals sofort sensible Daten in Video-Calls preis. Dokumentiere außerdem verdächtige Kontaktversuche für den Fall einer späteren Untersuchung.
Die Verantwortung der Unternehmen
Arbeitgeber müssen ihre Mitarbeiter durch regelmäßige Awareness-Schulungen über Deepfake-Gefahren aufklären und dabei realistische Beispiele verwenden. Klare schriftliche Prozesse für Zahlungsfreigaben und sensible Datenübertragung sind ebenso wichtig wie der Einsatz von KI-basierten Erkennungssystemen und sicheren Kommunikationstools. Zusätzlich braucht es schnelle Reaktionspläne bei verdächtigen Vorfällen.
Ausblick: KI gegen KI
Experten warnen: 2025 wird das Jahr der KI-gestützten Cyberangriffe. Deepfakes werden nicht nur überzeugender, sondern auch günstiger und einfacher zu erstellen. Gleichzeitig entwickeln sich aber auch die Abwehrmechanismen weiter. Moderne Sicherheitssysteme nutzen ebenfalls Künstliche Intelligenz, um Deepfakes zu erkennen und zu blockieren. Blockchain-Verifikation durch kryptographische Signaturen und digitale Wasserzeichen kann echte Inhalte authentifizieren.
Fazit: Wachsamkeit ist der beste Schutz
Deepfakes sind keine Zukunftsmusik mehr, sondern knallharte Realität. Im Home Office, wo persönliche Gespräche seltener werden, steigt das Risiko für solche Angriffe erheblich. Der wichtigste Schutz bist du selbst: Entwickle ein gesundes Misstrauen bei ungewöhnlichen Anfragen, bestätige alles über mehrere Kanäle und lass dich nicht unter Druck setzen. Technologie kann helfen, aber der menschliche Verstand bleibt die erste Verteidigungslinie.
Denk daran: Wenn sich etwas seltsam anfühlt, ist es das wahrscheinlich auch. Im Zweifel lieber einmal zu viel nachfragen als Millionen zu verlieren.
Quellen
- Deepfakes – Gefahren und Gegenmaßnahmen: https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html
- Deepfakes 2025: Zuvor KI-Spielerei und heute bedrohliches Hacker-Tool: https://www.datensicherheit.de/deepfakes-2025-ki-spielerei-bedrohung-hacker-tool
- Deepfake-Angriffe nehmen massiv zu: Zahlen, Fakten, Fallbeispiele: https://unternehmen-cybersicherheit.de/deepfake-angriffe-nehmen-massiv-zu-zahlen-fakten-fallbeispiele/
- Scammer erbeuten mit Deepfake-Videokonferenz mehr als 25 Millionen Dollar: https://www.itmagazine.ch/artikel/81524/Scammer_erbeuten_mit_Deepfake-Videokonferenz_mehr_als_25_Millionen_Dollar.html
- Prognosen für 2025: Mehr Angriffe per KI, Quantenbedrohungen und Deepfakes: https://www.it-daily.net/it-sicherheit/cybercrime/prognosen-fuer-2025-mehr-angriffe-per-ki-quantenbedrohungen-und-deepfakes
