Polymorphe Malware: KI stellt IT-Sicherheitslösungen vor neue Herausforderungen

ChatGPT nimmt lästige Arbeit ab – das gilt auch für Cyberkriminelle.

Artikel veröffentlicht am , Marc Stöckel
ChatGPT kann für ausgeklügelte Malware genutzt werden.
ChatGPT kann für ausgeklügelte Malware genutzt werden. (Bild: Jaap Arriens via Reuters Connect)

ChatGPT erweist sich auch für Cyberkriminelle als nützliches Werkzeug. Mithilfe des Chatbots lässt sich beispielsweise eine polymorphe Malware entwickeln, die sich vor gängigen EDR-Lösungen (Endpoint Detection and Response) versteckt, worauf Tom's Hardware hinweist. Und das, obwohl derartige Sicherheitstools ja eigentlich gerade dazu da sind, bösartige Software zu erkennen und unschädlich zu machen.

Als polymorph wird eine Malware bezeichnet, wenn sie so programmiert ist, dass sie ihr Erscheinungsbild oder ihre Signaturdateien ständig verändert. Es kommt also laufend zu dynamischen Mutationen im Code, was oftmals ebenso in Veränderungen des Dateinamens, der Größe und des Speicherortes der Software resultiert. Ihre ursprüngliche Funktionalität bleibt dabei jedoch vollständig erhalten.

Für herkömmliche Sicherheitstools, die auf einer signaturbasierten Erkennung beruhen, bleibt eine solche Schadsoftware folglich unsichtbar. In dem Moment, in dem eine EDR-Lösung die Signatur der polymorphen Malware kennt, ist diese längst wieder mutiert und verfügt über eine neue Signatur. Bekannte Vertreter dieser Gattung von bösartiger Software sind beispielsweise The Storm Worm, Virlock oder Beebone.

Schutzmaßnahmen seitens ChatGPT sind unzureichend

Dass ChatGPT bei der Entwicklung von Schadsoftware Unterstützung bietet, ist von OpenAI gewiss nicht vorgesehen. Ganz im Gegenteil: Der Entwickler versucht seit jeher, die Erzeugung unangemessener Inhalte durch den Chatbot anhand spezieller Filter zu unterdrücken. Doch wie beispielsweise Sicherheitsforscher von Cyberark schon im Januar dieses Jahres zeigten, lassen sich diese Filter oftmals aushebeln.

Obendrein kann die KI in einigen Fällen auch gar keine zuverlässigen Rückschlüsse auf die Absichten des jeweiligen Anwenders ziehen. Fordert ein Benutzer zum Beispiel den Code für eine Verschlüsselungsfunktion von ChatGPT an, so lässt sich kaum abschätzen, ob er diese für die Entwicklung einer Malware oder einer legitimen Sicherheitssoftware einsetzen will.

Kriminelle mit Entwicklerkenntnissen können dem Chatbot also mit Leichtigkeit einzelne, auf den ersten Blick harmlose Codebausteine entlocken und diese anschließend zu einer vollwertigen Schadsoftware zusammenfügen. Auch dem Sicherheitsexperten Jeff Sims von HYAS Infosec gelang es schon im vergangenen März, einen polymorphen Keylogger namens Blackmamba zu entwickeln. Dabei ließ er die Software dynamisch zur Laufzeit per API neue Funktionen von ChatGPT erzeugen, mit denen er die Tastenanschläge des infizierten Systems erfassen konnte.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


coffee4free 13. Jun 2023

Ich kann da jetzt auf den ersten Blick keinen Widerspruch zum Inhalt des Artikels...

LockenkopfITRanger 12. Jun 2023

ich finde es auch verwunderlich, dass die open Source Modelle vielerorts nicht...

Kehmax 10. Jun 2023

ChatGPT kann auch Code übersetzen so das die Funktion erhalten bleibt. Von Python in Java...

misfit 09. Jun 2023

Wäre das nicht ein gute Ansatz hierfür eine KI einzusetzen ;-)



Aktuell auf der Startseite von Golem.de
Updates für GPT-3 und GPT-4
GPT im Geschwindigkeitsrausch

OpenAIs Updates für GPT-4 und GPT-3 machen die Modelle zuverlässiger, vor allem aber anpassungsfähiger. Die Änderungen und neuen Features im Detail.
Von Fabian Deitelhoff

Updates für GPT-3 und GPT-4: GPT im Geschwindigkeitsrausch
Artikel
  1. Candy Crushed: Royal Match wird profitabelstes Mobile Game
    Candy Crushed
    Royal Match wird profitabelstes Mobile Game

    Die langanhaltende Dominanz von Candy Crush Saga ist vorbei. Das meiste Geld verdient jetzt ein Start-up aus Istanbul mit einem Puzzlespiel.

  2. Datenschutz: ChatGPT-Exploit findet E-Mail-Adressen von Times-Reportern
    Datenschutz
    ChatGPT-Exploit findet E-Mail-Adressen von Times-Reportern

    Eigentlich sollte der Chatbot auf diese Anfrage gar nicht antworten. Tut er es dennoch, lauern womöglich noch viel brisantere Informationen.

  3. Donald E. Knuth: 30 Jahre Weihnachtsvorlesungen frei verfügbar
    Donald E. Knuth
    30 Jahre Weihnachtsvorlesungen frei verfügbar

    Ein bisschen theoretische Informatik, Algorithmen oder Mathematik zu Weihnachten? Wer das mag, kann nun sogar alle Vorlesungen hintereinander ansehen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • TeamGroup Cardea Graphene A440 2 TB mit zwei Kühlkörpern 112,89€ • Logitech G915 TKL LIGHTSYNC RGB 125,11€ • AVM FRITZ!Repeater 3000 AX 129€ • Philips Ambilight 77OLED808 2.599€ • MindStar: Patriot Viper VENOM 64 GB DDR5-6000 159€, XFX RX 7900 XT Speedster MERC 310 Black 789€ [Werbung]
    •  /