Mit den rasanten Fortschritten der KI-Technologie steigt auch die Gefahr durch Deepfakes. Diese täuschend echten, KI-generierten Inhalte werden zunehmend für Betrugszwecke genutzt und stellen ein wachsendes Risiko für Unternehmen dar. Während Ferrari nur knapp einem Deepfake-Angriff entging, fiel ein Mitarbeiter eines multinationalen Konzerns auf eine gefälschte Videokonferenz herein und überwies 25 Millionen Dollar an die Cyberbetrüger.
„Alle fünf Minuten ein Deepfake-Angriff“ – mit dieser Schlagzeile berichtete das Nachrichtenportal „it-daily.net“ im November 2024 über alarmierende Zahlen aus dem 2025 Identity Fraud Report des Entrust Cybersecurity Institute. Die Studie zeigt: KI-basierte Betrugsversuche nehmen rasant zu und werden immer ausgefeilter. „Derzeit vollzieht sich ein drastischer Wandel in der globalen Betrugslandschaft, gekennzeichnet durch einen signifikanten Anstieg raffinierter, KI-gestützter Angriffe. Unternehmen müssen diese Anzeichen sehr ernst nehmen“, warnt Simon Horswell, Senior Fraud Specialist bei Entrust.
Deepfakes: Täuschend echte Medieninhalte für betrügerische Zwecke
Unter Deepfakes versteht man Medieninhalte, die mithilfe von KI-Technologien täuschend echt verfälscht werden. Videos, Bilder oder Audiodateien werden so manipuliert, dass sie kaum von echten Aufnahmen zu unterscheiden sind. Bei Anrufen wird beispielsweise die Stimme von Führungskräften nachgeahmt, und in Videokonferenzen erscheinen nicht existierende Teilnehmer. Die kriminellen Einsatzbereiche sind vielfältig: von Cyberbetrug über Datendiebstahl und Spionage bis hin zu Desinformations- und Reputationsangriffen. Besonders verbreitet ist der CEO-Fraud (Chefbetrug), bei dem Betrüger mithilfe von Deepfakes als Führungskraft auftreten, um Mitarbeitende zu hohen Zahlungen zu verleiten.
Deepfake-Angriffe: Anzahl steigt exponentiell
Deepfake-Angriffe nehmen rasant zu und bedrohen Unternehmen weltweit – in nahezu allen Branchen. Besonders alarmierend ist die Zunahme der Vorfälle im Finanzbereich. Laut dem Signicat-Report „The Battle Against AI-Driven Identity Fraud“ ist dort die Zahl der Deepfake-Betrugsversuche in den letzten drei Jahren um 2137 Prozent gestiegen. Auch in der DACH-Region nimmt die Bedrohung zu. Wie die KPMG Cybersecurity Studie 2024 zeigt, stieg die Zahl der Deepfake-Angriffe allein in Österreich im vergangenen Jahr um 119 Prozent. Ähnliche Entwicklungen sind auch in Deutschland und der Schweiz zu beobachten.
Fallbeispiele: So läuft ein Deepfake-Betrug ab
Wie perfide Deepfake-Angriffe mittlerweile sind, zeigte ein Vorfall bei Ferrari im Juli 2024. Ein Manager des Luxusautoherstellers erhielt mehrere Nachrichten, die angeblich vom Vorstandsvorsitzenden Benedetto Vigna stammten – es ging um eine geplante Übernahme. Als der Manager nicht reagierte, folgte ein Anruf. Die Stimme klang absolut authentisch, selbst der süditalienische Akzent von Vigna war perfekt imitiert. Ziel der Betrüger: eine hohe Geldüberweisung. Doch der Ferrari-Mitarbeiter wurde misstrauisch und verhielt sich richtig – er stellte eine persönliche Frage, die nur Benedetto Vigna hätte beantworten können. Die Betrüger hinter der KI-Stimme legten daraufhin sofort auf.
Weniger Glück hatte Anfang 2024 ein multinationales Unternehmen, das mit einem Deepfake-Video getäuscht wurde. In einer manipulierten Videokonferenz, in der Kollegen und der Chief Financial Officer zu sehen waren, wurde ein Finanzangestellter beauftragt, eine Überweisung in Höhe von 25 Millionen Dollar zu tätigen. Tatsächlich waren jedoch alle Konferenzteilnehmer computergenerierte Fälschungen. Der Mitarbeiter ließ sich täuschen und überwies die geforderte Summe an die kriminellen Urheber des Videos.
Deepfake-Betrug verhindern: Schulungen, klare Prozesse, strenge Freigaben
Erfolgreiche Deepfake-Angriffe beruhen auf menschlicher Täuschung – regelmäßige Schulungen sind daher essenziell. Integrieren Sie realistische Deepfake-Szenarien in Ihr Cyber Awareness Programm, um das Risikobewusstsein zu schärfen.
Klare Kommunikationsrichtlinien helfen, Betrug und Datendiebstahl zu verhindern. Prozesse, die Führungskräfte betreffen, sollten standardisiert und überprüfbar sein. Die Unternehmensleitung muss unmissverständlich festlegen, dass Überweisungen niemals per Telefon, Messenger oder Videokonferenz angewiesen werden.
Ein konsequentes Vier-Augen-Prinzip mit zusätzlicher Freigabeschleife für Zahlungsaufträge ist unerlässlich. Ergänzend sollte eine Richtlinie vorschreiben, dass sensible Informationen weder telefonisch noch in Online-Meetings ohne vorherige Absprache weitergegeben werden dürfen.
Bildnachweis: CL STOCK / Shutterstock
Unsere Empfehlungen für Sie:

Kontakt
THOMAS VÖLKER
Spartenverantwortlicher Cyber Versicherung
VSMA GmbH – ein Unternehmen des VDMA
Telefon +49 69 6603-1520
tvoelker@vsma.org
www.vsma.de Impressum Datenschutz