Generative KI (GenAi) verleiht Cyberangriffen eine neue Dynamik: Phishing-Mails klingen wie echte Geschäftskorrespondenz, Deepfake-Avatare ahmen Führungskräfte nach und Schatten-KI öffnet unbemerkt Einfallstore im eigenen Unternehmen. Gleichzeitig kursiert erstmals Ransomware, die KI-Sprachmodelle nutzt, um eigenständig Angriffsskripte zu erstellen. Der Beitrag zeigt, wie diese Entwicklungen die Cyberbedrohungslage verändern.
KI-Phishing und Deepfake-Vishing: Täuschung auf neuem Niveau
Phishing gehört seit Jahren zu den größten Cyberrisiken – 2025 hat diese Angriffsmethode eine neue Qualität erreicht. Laut der aktuellen TÜV Cybersecurity Studie 2025 sind rund 84 Prozent der IT-Sicherheitsvorfälle auf Phishing zurückzuführen. Mit generativer KI werden diese Betrugsnachrichten deutlich professioneller: Statt Fehlern und holprigen Formulierungen erzeugen KI-Modelle heute täuschend echte Nachrichten im Stil individueller Unternehmenskommunikation. Die Bedrohung durch Phishing-E-Mails wächst damit weiter.
Was bei Texten beginnt, setzt sich bei Sprache und Video fort. Deepfake-Vishing wird zu einem realen Geschäftsrisiko: KI-Systeme können Stimmen in Echtzeit nachahmen und Personen simulieren. Wie gefährlich das ist, zeigte ein dokumentierter Fall beim Baukonzern Arup. Ein Mitarbeitender überwies rund 23 Millionen Euro an Betrüger – nach einer Videokonferenz mit dem vermeintlichen CFO und weiteren „Kollegen“. Später stellte sich heraus, dass keine dieser Personen real war. Im Meeting waren außer dem Opfer nur KI-generierte Avatare anwesend, die so überzeugend waren, dass der Mitarbeitende nichts ahnte.
Schatten-KI: Unkontrollierte KI-Nutzung im Unternehmen
Eine weitere bisher unterschätzte Bedrohung breitet sich unbemerkt im Inneren aus: die sogenannte Schatten-KI. Einer Microsoft-Studie zur Nutzung generativer KI in der Bundesverwaltung zufolge setzt fast die Hälfte der Mitarbeitenden regelmäßig nicht freigegebene KI-Tools ein. Für Unternehmen zeichnet der aktuelle „Cloud and Threat Report – Generative AI 2025“ von Netskope ein ähnlich kritisches Bild.
Laut Netskope haben sich die von Unternehmensanwendern an GenAI-Apps wie ChatGPT, Google Gemini und GitHub Copilot gesendeten Datenmengen innerhalb eines Jahres verdreißigfacht. Besonders riskant: 72 Prozent der Beschäftigten nutzen dafür am Arbeitsplatz persönliche und damit nicht regulierte Konten. Unter den übermittelten Inhalten fanden sich sensible Informationen, Passwörter, Quellcodes und geistiges Eigentum. Für Unternehmen besteht Handlungsbedarf: Ohne klare KI-Richtlinien, technische Kontrollen und Freigabeverfahren drohen Datenabfluss, Compliance-Verstöße und Know-how-Verlust.
Ransomware 2.0: Erste Angriffsskripte mit KI-Sprachmodellen
Auch im Bereich Ransomware erreicht die Bedrohung durch den Einsatz von KI eine neue Dimension. Mit „PromptLock“ hat ESET erstmals eine Schadsoftware beobachtet, die ein lokal installiertes KI-Sprachmodell nutzt, um eigenständig Dateien zu durchsuchen, zu bewerten und Angriffsskripte zu erstellen – ohne Verbindung zu einem Cloud-Dienst. Die Experten sprechen von einer „deutlichen Veränderung in der Cyber-Bedrohungslandschaft“, weil KI die Arbeitsweise der Angreifer flexibler, dynamischer und weniger vorhersehbar macht.
In industriellen Umgebungen hat diese Entwicklung Folgen: KI-gestützte Ransomware kann lokale Systeme zielgerichteter analysieren und ihr Vorgehen variieren. Das erschwert klassische signaturbasierte Abwehrmechanismen. Unternehmen benötigen daher Lösungen, die ungewöhnliche Skriptgenerierung, autonome Dateioperationen und andere anomale Verhaltensmuster in Echtzeit erkennen und blockieren können.
Strategien für mehr Cyberresilienz im KI-Zeitalter
Die Beispiele zeigen: KI verstärkt bekannte Angriffswege und schafft zugleich neue. Unternehmen sollten ihre Sicherheitsarchitektur deshalb nicht punktuell erweitern, sondern ganzheitlich modernisieren – technisch, organisatorisch und kulturell.
Wichtige Bausteine sind unter anderem:
- IT- und OT-Inventarisierung: Alle Systeme, Schnittstellen und eingesetzten KI-Komponenten erfassen und regelmäßig aktualisieren.
- Netzwerksegmentierung: Kritische Bereiche – insbesondere Produktionsnetze und KI-Systeme – klar von Office- und Cloud-Umgebungen trennen.
- Moderne Angriffserkennung: Systeme einsetzen, die Verhaltensanalysen und Anomalieerkennung nutzen und auch KI-generierte Muster identifizieren können.
- Awareness-Programme aktualisieren: Mitarbeitende gezielt zu KI-basiertem Phishing, Deepfakes und Schatten-KI schulen; Freigabeprozesse für Zahlungen und kritische Entscheidungen nachschärfen.
- Modell- und Datenintegrität schützen: Trainingsdaten, Modelle und KI-Lieferketten prüfen, Versionierung etablieren und Manipulationen überwachen.
- KI-Richtlinien einführen: Regeln definieren, welche KI-Dienste genutzt werden dürfen, wie Daten verarbeitet werden und wer Verantwortung trägt.
- Cyberversicherung prüfen: KI-unterstützte Angriffe, Betriebsunterbrechungen und Datenabflüsse als Teil des Risikomanagements absichern.
Bildnachweis: Collagery / Shutterstock
Unsere Empfehlungen für Sie:
Kontakt
THOMAS VÖLKER
Spartenverantwortlicher Cyber Versicherung
VSMA GmbH – ein Unternehmen des VDMA
Telefon +49 69 6603-1520
tvoelker@vsma.org
www.vsma.de Impressum Datenschutz




