ChatGPT hat im vergangenen Dezember einen riesigen Hype ausgelöst. Der KI-basierte Chatbot kann erstaunlich menschlich kommunizieren, Texte verfassen und sogar Programmcode schreiben. Viele Unternehmen setzen die Software bereits ein, um ihren Service zu verbessern oder Arbeitsschritte zu vereinfachen. Leider gilt dies auch für Cyberkriminelle. Experten zufolge können Hacker ihre Opfer mit ChatGPT zielgenauer attackieren und auf Knopfdruck bösartigen Programmcode produzieren.

Was ist ChatGPT und wofür kann der Chatbot eingesetzt werden?
Kaum eine neue Software hat in der Vergangenheit so viel Aufsehen erregt wie der Chatbot ChatGPT. Der Name steht für „Chat Generative Pretrained Transformer“. Dahinter verbirgt sich ein von OpenAI entwickeltes KI-System, das vor der Veröffentlichung mit riesigen Datenmengen trainiert wurde und nun ständig weiter lernt. Bereits die erste Version konnte menschliche Texteingaben verstehen und erstaunlich natürlich antworten. Die neue Version GPT-4 kann neben Texten auch Bilder oder Audiodateien als Eingabequelle nutzen.

Die Anwendungsgebiete sind vielfältig. ChatGPT hilft zum Beispiel bei der Recherche, beim Verfassen von Referaten, bei der Datenanalyse, bei Matheaufgaben, bei der Beantwortung von Kundenanfragen oder beim Schreiben oder Optimieren von Programmcode. Derzeit sind die Ergebnisse allerdings teilweise fehlerhaft. Laut OpenAI neigt der Chatbot dazu, „plausibel klingende, aber falsche oder sinnlose Antworten“ zu geben. Doch die KI lernt täglich dazu und eröffnet so immer neue Anwendungsmöglichkeiten. Experten sind überzeugt, dass KI-Systeme wie ChatGPT in naher Zukunft alle Arbeits- und Lebensbereiche grundlegend verändern werden.

Wie können Hacker ChatGPT für ihre Zwecke nutzen?
Die Begeisterung über die Fähigkeiten von ChatGPT ist nicht unumstritten. IT-Sicherheitsforscher warnen seit der Veröffentlichung des Chatbots davor, dass auch Hacker die KI für ihre Zwecke missbrauchen könnten. Ein Risiko, das den Entwicklern von OpenAI bewusst ist. Abhilfe sollen eingebaute Inhaltsfilter schaffen. Doch die sind noch lückenhaft. Tests haben gezeigt, dass ChatGPT für kriminelle Zwecke missbraucht werden kann – und bereits missbraucht wird. Folgende kriminelle Einsatzbereiche wurden bereits bestätigt:

1) Programmierung und Modifikation von Schadprogrammen
Forscher des IT-Sicherheitsunternehmens Check Point Research haben herausgefunden, dass ChatGPT aktiv zur Erstellung von Schadsoftware genutzt wird. So habe ein Mitglied eines Hackerforums Tipps veröffentlicht, wie mit KI-Hilfe schädliche Tools und Programme entwickelt werden können. Auch die IT-Sicherheitsexperten von Cyberark haben das kriminelle Potenzial von ChatGPT getestet. Sie konnten das KI-System dazu bringen, Software zu schreiben, mit der sich Schadcode auf Computern ausführen lässt. Dank der Kreativität des Chatbots war es zudem möglich, den Programmcode über mehrere Anfragen hinweg zu modifizieren. Das kann Cyberkriminellen ihre „Arbeit“ enorm erleichtern. Noch erproben die Hacker die Fähigkeiten und Möglichkeiten des Super-Chatbots. Experten rechnen jedoch damit, dass der erste Cyberangriff mithilfe von ChatGPT noch in diesem Jahr erfolgt.

2) Erstellung von sprachlich einwandfreien Phishing-Mails
Eine weitere kriminelle Nutzungsmöglichkeit ergibt sich aus den außergewöhnlichen sprachlichen Fähigkeiten des Chatbots. IT-Sicherheitsexperten befürchten eine Welle ausgefeilter Phishing-Mails. Mithilfe der KI ließen sich E-Mails leicht so individuell und überzeugend gestalten, dass die Erfolgschancen der Angreifer enorm steigen. Rechtschreib- und Grammatikfehler, an denen gefährliche E-Mails bisher oft zu erkennen waren, gehören damit der Vergangenheit an. Es sei zu erwarten, dass es durch ChatGPT und ähnliche Systeme in Zukunft noch schwieriger werden wird, Phishing-E-Mails von echter Geschäftskommunikation zu unterscheiden.

3) Betrugsversuche mit falschen ChatGPT-Versionen
Wie bei jedem neuen Trend gibt es auch bei ChatGPT eine Welle von Betrugsversuchen. Die Sicherheitsexperten von Bitdefender warnen aktuell davor, dass Cyberkriminelle versuchen, über eine gefälschte Version von ChatGPT an Benutzerdaten oder Geld zu gelangen. Der Betrug beginnt mit einer Phishing-E-Mail, die den neuen Chatbot von OpenAI bewirbt. Die E-Mail enthält einen Link, der zu einer Webseite mit einem tatsächlich funktionierenden Chatbot führt. Die gefälschte Webseite sieht dem Original von OpenAI sehr ähnlich und dient nur dazu, Nutzerdaten abzugreifen und den Nutzer zu einer finanziellen Transaktion zu bewegen. Wird die Überweisung getätigt, ist das Geld weg und diverse persönliche Daten ebenfalls.

VDMA Cyber-Police (VCP): Umfassende Absicherung für heute und morgen
ChatGPT wird die angespannte Cyber-Sicherheitslage weiter verschärfen. VDMA-Mitglieder sollten daher verstärkt in IT-/OT-Sicherheit investieren – und die verbleibenden Risiken bestmöglich absichern. Die VDMA Cyber-Police wurde speziell für den Maschinen- und Anlagenbau entwickelt und bietet eine umfassende Allgefahrendeckung mit weltweitem Schutzumfang. Auch wichtige Assistance-Leistungen sind enthalten. Im Ernstfall steht Ihnen ein erfahrenes Incident Response Team zur Seite, das Sie mit IT-Forensikern, Krisen-, PR- und Rechtsberatern bei der Bewältigung des Vorfalls und der Minimierung des Schadens unterstützt.

 

Bildnachweis: Stock-Illustration ID: 2249349207 • NMStudio789

Unsere Empfehlungen für Sie:

Kontakt

THOMAS VÖLKER

Spartenverantwortlicher Cyber Versicherung

VSMA GmbH – ein Unternehmen des VDMA
Telefon +49 69 6603-1520
tvoelker@vsma.org

www.vsma.de    Impressum    Datenschutz