Spätestens seit Franziska Giffeys Telefonat mit dem unechten Vitali Klitschko ist klar: Selbst im Live-Videocall kann man sich nicht mehr darauf verlassen, dass das Gegenüber echt ist. Für Deepfakes verwendete Techniken haben inzwischen eine Qualitätsstufe erreicht, die es ermöglicht, Videos und Sprachnachrichten völlig überzeugend zu fälschen. Dadurch ergeben sich für Cyberkriminelle neue Betrugsmöglichkeiten, die auch Unternehmen bedrohen.

Was sind Deepfakes?
Künstliche Intelligenz (KI) machts möglich: Deepfakes sind Medieninhalte, die mithilfe von KI-Techniken völlig realistisch abgeändert und verfälscht worden sind. Die Manipulation von Bild-, Audio- oder Videoaufnahmen erfolgt meist, um sich als eine andere Person auszugeben. Die kriminellen Einsatzbereiche sind vielfältig und reichen vom Cyberbetrug bis zur Verleumdung. „Deepfake“ setzt sich aus den Begriffen und „Deep Learning“ und „Fake“ zusammen. Bei der Erstellung von Deepfakes werden Methoden des maschinellen Lernens genutzt, um Fälschungen weitgehend autonom zu erzeugen.

Wie groß ist die Bedrohung?
Lange Zeit war die Manipulation von dynamischen Medien wie Videos schwierig bis unmöglich. Das hat sich durch den rasanten Fortschritt geändert. Mit der entsprechenden Software können heute sogar Laien Video- und Audiodateien fälschen. Dementsprechend steigt die Zahl der Deepfake Angriffe kontinuierlich. Laut dem neuesten Global Incident Response Threat Report von VMware wurden im Vergleich zum Vorjahr 13 Prozent mehr Deepfake-Attacken registriert. „Cyberkriminelle integrieren jetzt Deepfakes in ihre Angriffsmethoden, um Sicherheitskontrollen zu umgehen. Zwei von drei Befragten in unserem Bericht haben bereits Deepfakes als Teil eines Angriffs erlebt“, sagte Rick McElroy, leitender Cybersicherheitsstratege bei VMware.

Welche Szenarien sind denkbar?
Betrug, Datendiebstahl, Verleumdung, Umgehung von biometrischen Systemen: Deepfakes lassen sich für viele kriminelle Zwecke missbrauchen. In einem Fall aus dem Jahr 2019 überwies der CEO eines britischen Energieunternehmens zum Beispiel 243.000 US-Dollar an Cyberbetrüger. Diese hatten eine Stimmfälschungssoftware genutzt, um sich als Leiter der Muttergesellschaft auszugeben und eine Zahlungsanweisung zu übermitteln. In anderen Fällen wurden gefälschte Videos oder Audiodateien eingesetzt, um Informationen oder Daten abzugreifen. Dabei sind die manipulierten Medieninhalte inzwischen so ausgeklügelt, dass sie sogar in Echtzeit erfolgen. Eine Täuschung ist also auch in laufenden Telefonaten oder Live-Videocalls möglich. Deepfakes stellen außerdem eine Gefahr für biometrische Systeme dar und können für Desinformationskampagnen zulasten von Unternehmen eingesetzt werden.

Wie können sich Unternehmen schützen?
Erfolgreiche Deepfake-Angriffe beruhen auf der Täuschung von Menschen. Wie in anderen Bereichen der IT-Sicherheit ist daher das Thema Sensibilisierung entscheidend. Schulen Sie Ihre Mitarbeiter regelmäßig zum Thema Deepfakes. Bauen Sie mögliche Angriffsszenarien mit anschaulichen Beispielen in Ihr Cyber Awareness Programm ein. Zur Vermeidung von Cyberbetrug und Datendiebstahl sollten zudem verpflichtende interne Richtlinien erstellt werden. Legen Sie zum Beispiel fest, dass sensible Informationen oder Daten nicht ohne vorherige Rücksprache telefonisch oder in Video-Calls übermittelt werden dürfen. Führen Sie zudem für Zahlungsanweisungen ein konsequentes Vieraugenprinzip und bestenfalls eine zusätzliche Freigabeschleife ein.

 

Bildnachweis: Shutterstock 2212493183 • Who is Danny

Unsere Empfehlungen für Sie:

Kontakt

THOMAS VÖLKER

Spartenverantwortlicher Cyber Versicherung

VSMA GmbH – ein Unternehmen des VDMA
Telefon +49 69 6603-1520
tvoelker@vsma.org

www.vsma.de    Impressum    Datenschutz