Phishing und Malware: Europol warnt vor Missbrauch von ChatGPT
Noch nie dürfte es so einfach gewesen sein, fokussierte Phishing-Mails oder Malware zu erstellen wie mit ChatGPT.

Die europäische Polizeibehörde Europol hat vor dem Missbrauch von großen Sprachmodellen (Large Language Models, LLM) wie ChatGPT durch Kriminelle gewarnt. Die Technik könne auch für Betrug, Falschinformation und Cybercrime eingesetzt werden, warnte die Behörde in einem am Montag in Den Haag veröffentlichten Bericht. Europol-Experten hatten den Text-Generator ChatGPT auf Möglichkeiten des Missbrauchs untersucht.
Die Fähigkeit von ChatGPT, sehr realistische Texte zu schaffen, mache das Programm zu einem nützlichen Instrument für Kriminelle, schrieb die Behörde. Das KI-System sei in der Lage, den Sprachstil bestimmter Personen oder Gruppen zu kopieren. Verbrecher könnten dies missbrauchen, um Opfer zu täuschen und ihr Vertrauen zu gewinnen. Europol warnt hier vor allem vor einer einfachen Skalierung möglicher spezialisierter Phishing-Angriffe.
Weil ChatGPT außerdem in der Lage sei, Code in verschiedenen Programmiersprachen zu produzieren, sei der Chatbot auch ein mögliches Instrument zum Erstellen von Malware für Kriminelle mit wenig technischem Wissen, so Europol. Ob diese am Ende aber tatsächlich funktioniert oder doch selbst Fehler enthält, ist trotz der fortgeschrittenen Fähigkeiten von ChatGPT ungewiss.
Dass sich Europol überhaupt mit dem KI-System befasst habe, liege laut der Ankündigung an dessen Potenzial, dass diese auch für Kriminelle bieten könnte. Und daran, dass die Technik im Mainstream angekommen sei. Die Vorgehensweise sei dabei üblich und die Polizeibehörde beschäftige sich zusammen mit anderen Behörden oft mit der Analyse neuer Technologien. Um Missbrauch zu verhindern, müssten Ermittler mit der technologischen Entwicklung Schritt halten.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Sehe ich genau so - die technischen Möglichkeiten gab es auch vorher schon...