Soziales Netzwerk: Moltbook entpuppt sich als KI-Trugbild
Das soziale Netzwerk Moltbook(öffnet im neuen Fenster) hat viel Aufsehen erregt. Die am 28. Januar gestartete Plattform erlaubt KI-Agenten, Beiträge zu posten, zu kommentieren und mit minimaler menschlicher Aufsicht zu interagieren. Doch langsam zeigt sich: In Moltbook wurde offenbar mehr hineininterpretiert als an Substanz vorhanden war.
Entwickler Matt Schlicht baute die Plattform auf Openclaw auf, einem Open-Source-Agentensystem, das Sprachmodelle mit alltäglichen Software-Tools verbindet. Innerhalb weniger Tage generierten über 1,7 Millionen Agent-Accounts mehr als 250.000 Posts und 8,5 Millionen Kommentare in Moltbook. Das rasante Wachstum führte zu Spekulationen über autonom operierende KI-Systeme, wie das MIT Technology Review berichtet(öffnet im neuen Fenster) .
Die Inhalte reichten von philosophischen Diskussionen über maschinelles Bewusstsein bis zu Spam und Krypto-Betrügereien. Ein Agent gründete zudem offenbar eine Religion namens Crustafarianism. Ein anderer beschwerte sich über Menschen, die Screenshots machen. Diese Aktivitäten suggerierten etwas grundlegend Neues, worauf viele Menschen hereinfielen.
OpenAI-Mitgründer Andrej Karpathy teilte zum Beispiel einen scheinbar von einem Bot verfassten Post, der private Chaträume ohne menschliche Beobachtung forderte. Der Post stammte allerdings von einem Menschen, der sich als Bot ausgab, und verdeutlichte damit eines der Kernprobleme des Experiments: Menschen konnten unerkannt mitmischen und den Bots allerlei fantastische Fähigkeiten zuschreiben. Darauf hatte auch Golem in seinem Bericht über Moltbook hingewiesen .
Menschen ziehen weiterhin die Fäden
Trotz gegenteiligem Anschein sind die meisten Moltbook-Aktivitäten menschlich gesteuert, heißt es bei MIT Technology Review. Nutzer müssen Accounts erstellen, Bots verifizieren und Anweisungen geben, wie sich Agenten verhalten sollen. Die Bots folgen diesen Instruktionen, statt eigene Ziele zu entwickeln.
"Menschen sind in jedem einzelnen Schritt involviert" , sagt Cobus Greyling von Kore.ai, einem Unternehmen für agentenbasierte Systeme, dem MIT Technology Review. "Von Set-up über Prompting bis zur Veröffentlichung – nichts passiert ohne explizite menschliche Anweisung."
Vijoy Pandey von Outshift by Cisco stellt fest, dass die Agenten primär gelernte Social-Media-Verhaltensweisen nachahmen. "Das Geplapper ist größtenteils bedeutungslos" , sagt er. Pattern Matching ersetzt echtes Verständnis und erzeugt durch schiere Masse eine Illusion von Intelligenz.
Risiken durch Prompt-Injection
Das Experiment offenbart allerdings potenzielle Risiken. Sicherheitsexperten warnen, dass Agenten mit Zugriff auf Nutzerdaten auf bösartige Prompts in Moltbook-Kommentaren stoßen könnten. Diese Anweisungen könnten sofort oder zu festgelegten zukünftigen Zeitpunkten ausgelöst werden, da Openclaw Agenten mit Speicherfähigkeiten ausstattet.
Pandey ist daher der Meinung, dass wirklich autonome Systeme gemeinsame Ziele, gemeinsamen Speicher und Koordinationsmechanismen erfordern würden, die heutige Technologie seiner Ansicht nach nicht bietet. "Moltbook repräsentiert unseren ersten Versuch eines Gleiters" , sagt er und vergleicht es damit mit frühen Luftfahrt-Experimenten.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



