Xpeng Iron: Selbst beim Umfallen wirkt der humanoide Roboter menschlich
Der Roboter Xpeng Iron, dessen Präsentation im November 2025 durch ein sehr menschliches Verhalten Aufmerksamkeit erregte, hat sich in einem Einkaufszentrum in der chinesischen Stadt Shenzhen mitten in der Bewegung abgeschaltet. Das zugehörige Video wurde unter anderem von The Humanoid Hub auf X(öffnet im neuen Fenster) veröffentlicht, in dem die gesamte Szene zu sehen ist.
Der aktuell mit knapp 100.000 Euro bepreiste Roboter, der in etwa so groß und auch so schwer wie ein erwachsener Mensch ist, läuft darin roboterhaft, jedoch wesentlich eleganter als die meisten Konkurrenzprodukte. Beim Ausführen einer Geste jedoch überdehnt sich der Iron, stoppt und kippt unwillkürlich auf die Seite. Anschließend wird er weggetragen.
Ambitionierter Zeitplan für die Massenproduktion
He Xiaopeng, der CEO von Xpeng, griff die öffentliche Fehlfunktion anschließend in einer Mitteilung auf Weibo auf, die unter anderem Sina News(öffnet im neuen Fenster) zitierte. Er vergleicht seinen Roboter mit einem Kind, das beim Laufenlernen ebenfalls häufig stürzt. Viel Zeit bleibt aber nicht mehr, denn immerhin soll noch 2026 die Massenproduktion starten.
Einen Vorteil hat der Vorfall, der unter anderem auf Reddit(öffnet im neuen Fenster) zur Sprache kommt: Niemand kann dem Hersteller vorhalten, dass der bewusst sehr menschlich aussehende Roboter, den es in einer weiblichen und einer männlichen Variante gibt, nur ein kostümierter Mensch war. Tatsächlich hätte bei den ersten Schritten durchaus der Eindruck entstehen können.
Euphorie gedämpft
Gleichzeitig fügt sich der Vorfall in eine Reihe von Meldungen ein, in denen der Einsatz großer Sprachmodelle für die Steuerung von Maschinen und vergleichbare Aufgaben kritisch gesehen wird. So musste auch Elon Musk Probleme bei der Weiterentwicklung des Tesla Optimus einräumen.
Bereits 2025 hatte der Robotikexperte Rodney Brooks dargelegt, dass die für humanoide Roboter eingesetzte künstliche Intelligenz ungeeignet sei, um Bewegungsabläufe nachvollziehen zu können.
Ähnlich äußerte sich auch der Neurowissenschaftler Gary Marcus im Interview mit der Süddeutschen Zeitung(öffnet im neuen Fenster) (Paywall). Er beschreibt, dass durch Berechnung der wahrscheinlichsten nächsten Schritte alle unvorhergesehenen Ausnahmen ignoriert werden, was zwangsläufig zu den bekannten Halluzinationen oder bei Robotern zu unkontrollierten Ausfällen führt.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



