Genesis: Simuliertes Robotertraining in Hochgeschwindigkeit
Roboter können Aufgaben in der neuen Open Source simulierten Realität Genesis(öffnet im neuen Fenster) 430.000-mal schneller üben als in der realen Welt. "Mit einer Stunde Rechenzeit verfügt ein Roboter über zehn Jahre Trainingserfahrung. So war Neo in der Lage, Kampfkünste im Matrix-Dojo in einem Wimpernschlag zu erlernen" , schrieb Jim Fan auf der Social-Media-Plattform X(öffnet im neuen Fenster) .
Die schnelle, genaue Simulation helfe Robotern, komplexe Aufgaben schneller zu erlernen und gleichzeitig den Bedarf an teuren physischen Tests zu reduzieren, erklären die Entwickler. So können etwa Rückwärtssaltos zuerst in der virtuellen Realität erlernt werden, bevor sie in der Realität zum Einsatz kömen .
Die Genesis-Plattform wurde von der Carnegie Mellon University (Pittsburgh, USA) entwickelt. Es werden Grafikkarten verwendet, die denen ähneln, die Videospiele antreiben. Dadurch können bis zu 100.000 Kopien einer Simulation gleichzeitig ausgeführt werden.
"Wenn eine KI 1.000 Roboter steuern kann, um eine Million Fähigkeiten in einer Milliarde verschiedenen Simulationen auszuführen, dann könnte sie in unserer realen Welt 'einfach funktionieren', was einfach ein weiterer Punkt im weiten Raum der möglichen Realitäten ist" , schrieb Fan in seinem X-Post. "Das ist das grundlegende Prinzip, warum Simulation für die Robotik so effektiv funktioniert."
Wie funktioniert Genesis und was kann es?
Ähnlich wie die Eingabeaufforderungen in anderen KI-Modellen verwendet das System Vision-Language-Modelle (VLMs), um vollständige virtuelle Umgebungen aus Textbeschreibungen zu generieren. Durch das Eingabeaufforderungssystem können Forschungsteams durchs Sprechen komplexe Robotertestumgebungen erstellen, ohne sie per Hand zu programmieren. Zur Welterstellung werden die eigenen Simulationsinfrastruktur-APIs von Genesis verwendet.
Mit seiner Engine kann Genesis auch Charakterbewegungen, interaktive 3D-Szenen oder Gesichtsanimationen generieren. Dies könnte zukünftig zu realistischeren KI-generierten Spielen und Videos führen. Die simulierte Welt wird dann in Daten konstruiert, anstatt sie wie bei einem Videosynthese-Diffusionsmodell mit dem statistischen Erscheinungsbild von Pixeln zu erstellen. Laut dem Entwicklerteam soll es mit Genesis dynamische 4D-Welten generieren können, um dort wahrscheinlich bessere 3D-Welten erstellen zu können.
Genesis befindet sich weiterhin in aktiver Entwicklung auf Github(öffnet im neuen Fenster) , wo das Team Beiträge aus der Community entgegennimmt. Die Plattform hebt sich von anderen 3D-Weltsimulatoren für das Robotertraining ab, indem sie Python sowohl für die Benutzeroberfläche als auch für die Kernphysik-Engine verwendet. Andere Engines verwenden C++ oder Cuda für ihre zugrunde liegenden Berechnungen, während sie in Python-APIs verpackt sind. Genesis verfolgt einen Python-First-Ansatz.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.