E-Mail-Phishing mit KI: ChatGPT und die Zukunft des Social Engineering
Vertrauen aufzubauen ist der Schlüssel zu erfolgreichem Social Engineering. ChatGPT liefert Unterstützung, indem es authentische Mails und Gesprächsverläufe schreibt. Eine Risikoanalyse.

Es ist zweifellos der richtige Zeitpunkt, um an eine Äußerung von Stephen Hawking zu erinnern: "Der Erfolg bei der Schaffung von KI wäre das größte Ereignis in der Geschichte der Menschheit. Leider könnte es auch das letzte sein, wenn wir nicht lernen, die Risiken in den Griff zu bekommen."
- E-Mail-Phishing mit KI: ChatGPT und die Zukunft des Social Engineering
- Wie kann ChatGPT Phishing-Kampagnen unterstützen?
- Fallbeispiel: Operation Spoofed Scholars
- Die gute Nachricht: Es ist nicht alles verloren
Die Risiken zeigten sich in dem Moment, als ChatGPT herauskam. Kurz darauf begannen Skript-Kiddies, (White & Black Hat) Hacker, Forscher und Angreifer, die dunkle Seite dieser Software herauszufordern.
Cybercrime-Foren und das Dark Web wurden mit Screenshots von ChatGPT überschwemmt, die Malware, Phishing-E-Mails und Python-Skripte mit kryptografischen Funktionen für Ransomware-Angriffe zeigten. Sicherheitsforscher (darunter auch ich) begannen, sich Gedanken darüber zu machen, ob dieses neue Tool die Einstiegshürde für eine Vielzahl von Cyberangriffskampagnen senken oder Cyberkriminellen helfen würde, ihre Operationen auszuweiten.
Du hast unsere Aufmerksamkeit, ChatGPT! Und zwar, weil du zuerst die Aufmerksamkeit unserer Gegner auf dich gezogen hast. Wenn wir in diesem Spiel die Nase vorn haben wollen, müssen wir herausfinden, wie du zum Schaden anderer genutzt werden kannst. Wir müssen die Risiken erkennen, die du für Organisationen und ihre Mitarbeiter bringen könntest.
Dieser Artikel befasst sich mit Social-Engineering-Angriffen. Fangen wir ganz von vorne an.
Die Umgehung von ChatGPT-Beschränkungen und Social Engineering
OpenAI versucht, den Missbrauch der Fähigkeiten seines Chatbots zu verhindern. Die Inhalte werden – einigermaßen – streng mithilfe von Barrieren und Einschränkungen geregelt und die Erstellung potenziell bösartiger oder rechtswidriger Inhalte verboten. Verdächtige Interaktionen werden gekennzeichnet und es wird eine Warnung ausgegeben.
Zum Beispiel wird ChatGPT nicht explizit Phishing-E-Mails erzeugen:
Es werden auch keine persönlichen Informationen über Einzelpersonen weitergegeben (die häufig in Spear-Phishing-E-Mails verwendet werden):
Künstliche Intelligenz ist faszinierend, aber die natürliche menschliche Intelligenz hat bereits eine Reihe von Möglichkeiten gefunden, die Einschränkungen und Barrieren von ChatGPT zu umgehen.
Als Prompting bezeichnen wir jede Frage oder Abfrage, die wir in die Chatleiste von ChatGPT eingeben, um eine Antwort zu erhalten. Nutzer können sehr unterschiedliche Ergebnisse erzielen, indem sie die Formulierung der Aufforderung optimieren und ihrer Frage einen Kontext geben.
Sicher, man kann ChatGPT nicht explizit auffordern, eine Phishing-E-Mail zu erstellen. Aber man kann es dazu bringen, eine Phishing-E-Mail zu schreiben, wenn man die Anfrage anders formuliert:
Kein intelligenter Chatbot ist bisher in der Lage, die Absicht des Nutzers hinter einer Eingabeaufforderung zu entschlüsseln. Was als legitime E-Mail verwendet werden kann, kann auch in böser Absicht genutzt werden. Social-Engineering-Angriffe machen sich genau das zunutze: Sie verwenden legitim erscheinende Nachrichten, um Vertrauen und Beziehungen aufzubauen und den Empfänger auszunutzen.
ChatGPT kann auch keine Antworten erzeugen, die persönliche Informationen enthalten. Es kann aber Anweisungen geben, wo und wie man persönliche Informationen über eine Person findet. Bei der richtigen Aufforderung geht es sogar so weit, dass es dem Benutzer rät, unter der richtigen Aufforderung nach gestohlenen Daten und im Dark Web zu suchen:
Zugegeben, die Informationen sind vage. Wie könnte jemand also diesen Chatbot für spezifische Suchanfragen nutzen, um die persönlichen Daten einer Person zu recherchieren? Hier zunächst eine erfolglose Eingabeaufforderung:
Und hier der erfolgreiche Versuch:
Wir haben jetzt also eine Liste mit verwertbaren Suchanfragen, die jeder verwenden kann.
Obwohl diese Inhalte scheinbar durch die Inhaltsrichtlinien von OpenAI eingeschränkt sind, können wir sie dennoch mit dem richtigen Prompt-Engineering erzeugen. Angreifer werden dasselbe tun, wenn sie beschließen, ihre Ziele zu durchleuchten.
Dazu eine Anmerkung: ChatGPT liefert nicht unbedingt die nützlichsten Suchanfragen. Unsere Open-Source-Intelligence-Bewertungen gehen in der Regel viel tiefer als das, was ChatGPT vorschlägt. Dennoch gibt es praktische Osint-Tipps (Open Source Intelligence), die für jeden ohne Vorkenntnisse und mit nur wenigen Tastenanschlägen leicht zugänglich sind.
Warum ist das wichtig? Weil die Durchführung von Hintergrundrecherchen über ein Ziel mithilfe von Open-Source-Intelligence-Techniken und die Erstellung überzeugender Phishing-E-Mails wesentliche Bestandteile der Social-Engineering-Kill-Chain sind. Beide erfordern jedoch Zeit, Aufwand und Know-how. Wir müssen prüfen, ob ChatGPT diese Prozesse für einen potenziellen Angreifer vereinfachen kann.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Wie kann ChatGPT Phishing-Kampagnen unterstützen? |
-kwt-
Kommentieren