Mooresches Gesetz gilt nicht
Laut Seltz-Axmacher ging man 2015 noch davon aus, dass sich die Fortschritte beim Maschinellen Lernen am sogenannten Mooreschen Gesetz orientierten. Mit exponentiell steigender Rechenkapazität wären die Systeme in der Lage, die komplexen Anforderungen des autonomen Fahrens zu bewältigen. "Fünf Jahre später versprechen Entwickler autonomer Autos keine künstliche allgemeine Intelligenz mehr mit der nächsten Programmversion. Stattdessen ist man sich einig, dass wir mindestens zehn Jahre von selbstfahrenden Autos entfernt sind", sagt der Starsky-Begründer.
Woher rührt diese Skepsis? Schließlich lässt Waymo doch schon Passagiere mit Testautos durch die Umgebung von Phoenix im US-Bundesstaat Arizona chauffieren, in denen kein Sicherheitsfahrer mehr an Bord ist. Für Seltz-Axmacher liegt die Hauptschwierigkeit für die KI darin, ungewöhnliche Situationen zu beherrschen. Je besser das vorhandene Modell, desto schwieriger sei es, belastbare Datensätze für neue Grenzfälle zu finden. Und je besser das Modell sei, desto genauer müssten die Daten sein, um es zu verbessern.
"Anstatt exponentielle Verbesserungen bei der Qualität der KI-Leistung zu sehen (nach dem Mooreschen Gesetz), sehen wir eine exponentielle Steigerung bei den Kosten, um die KI-Systeme zu verbessern", lautet sein Resümee. Die Fortschritte beim Maschinellen Lernen glichen hingegen eher einer S-Kurve.
Drei Szenarien
Diese S-Kurve sei ein Grund dafür, dass kleine Teams wie bei Comma.ai zum Teil mit großen Teams wie bei Tesla mithalten könnten. Problematisch könne dieser asymptotische Kurvenverlauf jedoch werden, wenn der zu erreichende Grenzwert noch zu weit vom aktuellen Stand entfernt sei. Der Grenzwert ist in diesem Fall die menschliche Fähigkeit zum Autofahren, die auch von den KI-Systemen erreicht werden soll.
Der Starsky-Chef unterscheidet dabei drei Szenarien: Im ersten Fall sind die KI-Systeme schon so gut, dass sie die menschlichen Fähigkeiten bereits erreichen (L1). Dann wären nur noch Verbesserungen bei der Sicherheit erforderlich, um die Technik einzusetzen. "Ich glaube nicht, dass ich irgendjemanden kenne, der dies ernsthaft annimmt, aber es ist eine Möglichkeit." Im zweiten Fall sind die Entwicklerteams nur noch "1 bis 25 Milliarden Dollar" von dieser Linie entfernt (L2). Darauf setzten derzeit die Investoren, wenn sie davon ausgingen, dass nur große Firmen das Problem lösen könnten.
Scheues Risikokapital
Im dritten Fall ist der Abstand noch deutlich größer. Das sei gemeint, wenn behauptet werde, selbstfahrende Autos seien noch etwa zehn Jahre entfernt. In diesem Fall (L3) sei praktisch kein Startup in der Lage, jemals eine solche Technik zu liefern.
Das Scheitern von Starsky Robotics hat laut Seltz-Axmacher auch mit den besonderen Bedingungen des Risikokapitalmarktes zu tun. Die Begeisterung für autonomes Fahren scheint demnach abgeklungen zu sein. Darüber hinaus hätten die Investoren zum einen nicht als Flottenbetreiber auftreten wollen, zum anderen nicht die Investitionen von Starsky in das Thema Sicherheit honoriert.
Doch das war nicht alleine ausschlaggebend.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Starsky Robotics: Woran ein Startup für autonome Lkw gescheitert ist | Höhere Gewinnmargen erhofft |
+ eine gute Zukunft auf dem Arbeitsmarkt? Laut Artikel.
Oh mein Gott, das ist aber ein Traktor! Möglicherweise hat der ein 25er Schild hinten...
Projekten wie Solar Roadways oder Theranos sind die Blaupause für alle Indigogo...
1.000.000.000 / 1500 = 1.000.000 / 1.5 = 1.000.000 * 2/3 Das ist also abzüglich...
2 riesige Textblöcke, und die Antworten darauf sind "machine learning != Intelligenz...