Spätestens seit der Veröffentlichung von ChatGPT im November 2022 ist das Thema Künstliche Intelligenz in aller Munde. Auch Cyberkriminelle haben den Nutzen von KI-Anwendungen längst entdeckt und nutzen sie für Phishing-Angriffe, Deepfakes, das Knacken von Passwörtern oder die Erstellung von Schadsoftware. In diesem Artikel haben wir einige neue KI-basierte Cyberrisiken zusammengefasst, die Unternehmen in ihre Cybersicherheitsstrategie einbeziehen sollten.

Der Einsatz von KI hat sich in vielen Geschäftsbereichen als nützlich erwiesen. Leider sind Chatbots und KI-Anwendungen auch ideale Komplizen für Cyberkriminelle: KI lernt schnell, entwickelt sich ständig weiter und kennt keine Skrupel. Entsprechend groß ist das Schadenspotenzial von KI-basierten Hackerangriffen. Folgende Angriffsmethoden sind auf dem Vormarsch und sollten bei der Optimierung der IT-Sicherheit berücksichtigt werden.

Ausgefeiltes Phishing und Social Engineering
Die Zeiten, in denen Phishing-Angriffe leicht an Rechtschreib- und Grammatikfehlern zu erkennen waren, sind vorbei. KI-Chatbots produzieren qualitativ hochwertige Inhalte, die von menschlichem Text kaum zu unterscheiden sind. Cyberkriminelle nutzen Chatbots daher zunehmend, um täuschend echte Phishing-E-Mails und Phishing-Websites zu erstellen. Da die Text-KIs zudem auf Befehl jeden gewünschten Sprachstil imitieren können, werden Social-Engineering-Angriffe und Spear-Phishing-Attacken leicht personalisierbar – und damit noch überzeugender. Auch Cyber-Betrugsversuche wie der CEO-Fraud gewinnen durch den Einsatz von Chatbots auf Knopfdruck an Überzeugungskraft.

 Täuschend echte Deepfakes in Echtzeit
Auch im Bereich der KI-generierten Bild-, Audio- und Videoformate schreitet die Entwicklung rasant voran. KI-Anwendungen zur Fälschung von Stimmen und Bildinhalten sind mittlerweile frei verfügbar. Selbst Laien können damit problemlos Bild-, Audio- oder Videodateien manipulieren, um sich als eine andere Person auszugeben. Diese sogenannten Deepfakes werden durch die stetige Qualitätssteigerung der KI-Werkzeuge immer authentischer und damit schwerer zu entlarven. Die zunehmende Echtzeitfähigkeit der Manipulationen könnte in naher Zukunft dazu führen, dass man auch in Online-Meetings nicht mehr sicher sein kann, ob man mit der realen Person, einem Angreifer oder gar dem Avatar eines Chatbots spricht.

Passwörter knacken und „abhören“.
Im April 2023 zeigten die Sicherheitsexperten von Home Security Heroes in einem Experiment, wie lange Künstliche Intelligenz braucht, um gängige Passwörter zu knacken. Das Ergebnis war beeindruckend – und erschreckend. Insgesamt wurden für den Test 15.600.000 gängige Passwörter in eine KI eingegeben. 51 Prozent davon konnten in weniger als einer Minute geknackt werden. Nach einem Tag hatte die KI bereits 71 Prozent, nach einem Monat insgesamt 81 Prozent der Passwörter erraten.

Mindestens ebenso erschreckend war ein wissenschaftliches Experiment, bei dem eine KI darauf trainiert wurde, Passwörter in Online-Meetings abzuhören. Dazu brachten die Wissenschaftler einem Deep-Learning-Netzwerk bei, die verschiedenen Tastaturtöne eines MacBooks zu unterscheiden. Hörte die so trainierte KI dann mit, wenn eine Person in einem Skype- oder Zoom-Gespräch ein Passwort in die Tastatur eintippte, konnte sie das Passwort mit hoher Genauigkeit erraten. Die Trefferquote lag bei 91,7 Prozent (Skype) bzw. 93 Prozent (Zoom).

Neue und in Zukunft möglicherweise lernfähige Malware
Die meisten Chatbots können Programmcode generieren – und sind damit prinzipiell auch in der Lage, Schadprogramme zu entwickeln. Sicherheitsmechanismen, die dies verhindern sollen, können umgangen werden. Zudem kursieren im Darknet auch für technisch weniger versierte Hacker längst KI-Anwendungen ohne antrainierte „Skrupel“, die auf Knopfdruck die benötigten Malware-Komponenten generieren. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) erwartet laut aktuellem Lagebericht eine rasante Weiterentwicklung von verbesserten Angriffswerkzeugen aller Art: vom Information Stealer über das DDoS-Botnetz bis hin zu fertigen Modulen für einen komplexen Ransomware-Angriff.

Laut dem Cybersicherheitsunternehmen Malwarebyte wird sich diese Bedrohung in Zukunft noch deutlich verschärfen. Die Experten rechnen damit, dass wir es schon bald mit einer neuen Art von KI-basierter Malware zu tun haben werden, die lernfähig ist und sich selbstständig weiterentwickelt. Diese „Malware 2.0“ könnte dann Schutzmaßnahmen automatisch erkennen und beim nächsten Angriffsversuch umgehen. Düstere Aussichten!

Fazit und Empfehlungen
Die Cyber-Bedrohungslandschaft hat sich durch KI-Anwendungen und Chatbots verändert. Um den neuen Risiken zu begegnen, muss die IT-Sicherheitspolitik mit der rasanten Entwicklung Schritt halten. Die Cybersicherheitsindustrie hat bereits damit begonnen, KI-Fähigkeiten in ihre Verteidigungsarsenale zu integrieren. Mithilfe spezieller KI-Systeme können mittlerweile beispielsweise Anomalien im IT-System bereits sehr früh erkannt werden. In Zukunft ist mit KI-gestützten IT-Sicherheitslösungen zu rechnen, die bei der Abwehr von Cyberangriffen besser und früher unterstützen können. Für Unternehmen ist es daher heute wichtiger denn je, auf leistungsfähige IT-Sicherheitslösungen nach dem neuesten Stand der Technik zu setzen.

Die KI-basierten, hochgradig personalisierten Phishing- und Social-Engineering-Angriffe lassen sich zudem nur minimieren, wenn die Mitarbeitenden darauf vorbereitet werden. Schulungen zu KI-induzierten Cyber-Risiken, ein durchdachtes Cyber-Awareness-Konzept und regelmäßige Phishing-Simulationen sollten daher ebenfalls Bestandteil der IT-Sicherheitsstrategie sein. Auch die „Klassiker“ der Cyberabwehr wie das Passwort-, Update- und Backup-Management sollten laufend an die neuen Risiken angepasst werden. Unternehmen, die nicht über ausreichende personelle Ressourcen im Bereich IT-Sicherheit verfügen, sollten externe Spezialisten mit ausgewiesener Expertise im Bereich KI-induzierte Cyber-Risiken und -Angriffe hinzuziehen.

 

Bildnachweis: Shutterstock: 2322281155 • Teerachai Jampanak

Unsere Empfehlungen für Sie:

Kontakt

THOMAS VÖLKER

Spartenverantwortlicher Cyber Versicherung

VSMA GmbH – ein Unternehmen des VDMA
Telefon +49 69 6603-1520
tvoelker@vsma.org

www.vsma.de    Impressum    Datenschutz