Zum Hauptinhalt Zur Navigation

Mallas: KIs für Cyberkriminelle bringen Betreibern viel Geld

Der Markt für manipulierte KI -Modelle, die unter anderem für Cybercrime verwendet werden können, boomt.
/ Tobias Költzsch
1 Kommentare News folgen (öffnet im neuen Fenster)
Künstliche Intelligenz hat zwei Seiten. (Bild: Pixabay)
Künstliche Intelligenz hat zwei Seiten. Bild: Pixabay / Pixabay-Lizenz

Eine Studie hat den Markt für KI-Modelle untersucht, die so bearbeitet wurden, dass sie für kriminelle Aktivitäten verwendet werden können. Die Studie(öffnet im neuen Fenster) von vier Wissenschaftlern der Universität Indiana in Bloomington kommt dabei zum Schluss, dass der Markt für diese sogenannten Mallas momentan Aufwind bekommt und dass die Betreiber der Modelle mitunter gutes Geld verdienen.

Mallas lassen sich in der Regel in zwei Gruppen aufteilen: Die eine besteht aus Modellen, die auf Open-Source-Material basieren und ohne Beschränkungen programmiert wurden. Die andere Gruppe besteht aus kommerziell erhältlichen LLMs (Large Language Model) anderer Unternehmen, die so bearbeitet wurden, dass sie auch Anfragen erledigen, die normalerweise gesperrt sind.

Derartige Mallas werden unter anderem von Cyberkriminellen verwendet, um Phishing-E-Mails zu verfassen, die nicht sofort von Spam-Filtern entdeckt werden, wie die Webseite Fast Company(öffnet im neuen Fenster) schreibt. Außerdem gibt es Mallas, die Code für Malware-Angriffe schreiben können.

Nutzung von KI für kriminelle Aktivitäten "unvermeidlich"

"Es ist fast unvermeidlich, dass Cyberkriminelle KI einsetzen" , sagt einer der Autoren der Studie, Wang Xiaofeng. "Jede Technologie hat immer zwei Seiten" . Der Markt für Mallas dürfte auch deshalb im Aufwind sein, weil die Betreiber der Modelle damit recht gut Geld verdienen.

Das unzensierte LLM DarkGPt beispielsweise kostet Nutzer 0,78 US-Dollar pro 50 gesendete Nachrichten. Das Malla Escape GPT kostet monatlich 65 US-Dollar und kann Code für Malware erstellen. WolfGPT kostet einmalig 150 US-Dollar und erstellt Phishing-E-Mails.

Die Studie ist zum Peer-Review auf dem Vorab-Veröffentlichungsserver der Cornell-Universität veröffentlicht. Wang glaubt, dass auch gezielte Maßnahmen seitens der Politik einen Missbrauch von KI-Technologie nicht verhindern werden. "Wir können nichts tun, um diese Dinge vollständig zu stoppen, weil wir nicht die Mittel dazu haben."


Relevante Themen