Zum Hauptinhalt Zur Navigation

Im Gegensatz zu festem Programmcode und klassischen Algorithmen lassen sich neuronale Netze als großes Gewirr aus potenziell Billionen von Zahlen jedoch nicht analysieren und damit auch nie hundertprozentig sicher machen.

Anders gesagt: Mit etwas Gaslighting lässt sich selbst das beste Modell mit "PhD-Level Intelligence" dazu überreden, sinnbildlich eine Flasche Kleber auf Ex zu trinken. Oder Pferdeentwurmungsmittel(öffnet im neuen Fenster) gegen Viruserkrankungen einzusetzen.

Und solange die Lösung für diese Sicherheitslücken nur ein weiteres Modell ist, das die Eingabe überprüft, wird sich das nicht groß ändern: Menschen sind zu kreativ und die KI zu dumm, um robust gegen alles an Attacken gewappnet zu sein.

Mit genug Langeweile wird sich jedes Modell auf absehbare Zeit dazu bringen lassen, etwa Drogenrezepte in Kindergeschichten zu verpacken. Das bedeutet allerdings auch: Alles, bei dem Menschen etwas einreichen, aber von Manipulation profitieren könnten, sollte nicht von LLMs automatisiert verarbeitet werden.

Immerhin eignen sich solche Beispiele anschaulich als Material, um etwas zu optimistischen, teilweise unverantwortlich-reißerischen Prognosen zum Thema KI etwas entgegenzusetzen. Denn mit der eingebauten Dummheit müssen wir, und insbesondere die Hersteller, wohl noch eine ganze Zeit rechnen.

Tim Elsner(öffnet im neuen Fenster) wartet gerade auf die Verteidigung seiner Doktorarbeit im Bereich generative Modelle. Er referiert, schult, berät und entwickelt freiberuflich für Firmen im Bereich künstliche Intelligenz.


Relevante Themen