Die KI weiß mehr, als die Sensoren sagen
Für das autonome Fahren bedeutet dies einen massiven Sicherheitsgewinn. Fahrzeuge reagieren nicht mehr nur blind auf Sensordaten, sondern interpretieren den Kontext und antizipieren Risiken.
Ein kritischer Punkt bleibt die Übereinstimmung von Denken und Handeln. In der Forschung wurde beobachtet, dass eine KI zwar logisch begründen kann, warum sie bremsen müsste, in der physischen Ausführung aber weiterfährt.
Pavone verglich dies mit einer Fehlkopplung zwischen Gehirn und Körper. Um diese Inkonsistenz zu beheben, nutzt Nvidia einen Post-Training-Schritt, der die Begründung und die tatsächliche Aktion fest aneinanderbindet. Erst durch diese Synchronisation werde die KI zu einem verlässlichen Partner im Straßenverkehr, sagte er.
Damit diese komplexen Fähigkeiten trainiert werden können, bedarf es gigantischer Datenmengen, die in der Realität kaum zu erfassen sind. Sanja Fidler, VP of AI Research bei Nvidia, setzt dabei auf den Wandel hin zur generativen Simulation.
Da es unmöglich sei, die gesamte Welt händisch nachzubauen, kämen sogenannte World Models zum Einsatz. "Man kann nicht die gesamte Welt von Hand modellieren" , erklärte Fidler.
Diese Modelle lernen aus Videodaten, wie sich die Welt verhält, und können in Echtzeit neue Szenarien erschaffen – etwa Schneestürme oder gefährliche Hindernisse, die im echten Straßenverkehr selten vorkommen.
Auch Roboter lernen aus Videos
Wie präzise diese virtuellen Welten inzwischen sind, zeigte die Arbeit von Yashraj Narang. In seinen Simulationen werden tausende physische Interaktionen gleichzeitig berechnet, bis hin zu winzigsten Kontakten zwischen Bauteilen.
"Wir können das tatsächlich für das Training mit Reinforcement Learning nutzen" , sagte Narang. Roboter lernten so hochkomplexe Aufgaben wie das Verlegen von Kabeln oder die Montage von Superchips vollständig in einer virtuellen Umgebung.
Das ermögliche einen nahezu perfekten Transfer in die Realität, bei dem die Maschinen sofort einsatzbereit seien, ohne jemals zuvor ein physisches Objekt berührt zu haben.
Das Panel der GTC 2026 zeigte, dass die Grenzen zwischen Software, Robotik und Fahrzeugtechnik verschwimmen. Sprachmodelle liefern die logischen Strukturen, Simulationen erzeugen die nötigen Erfahrungswerte, und autonome Systeme setzen dieses Wissen in der physischen Welt um.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



