Hier die KI-Religion, dort die Todsünden
Levandowski ist mit seinem Weltbild, in dem Maschinen mit Bewusstsein, Motivation und einem Eigenleben eine logische Folge der Fortschritte im maschinellen Lernen sind, keineswegs allein im Silicon Valley. Doch die meisten ernstzunehmenden Forscher halten es für Quatsch. Einer von ihnen ist der australische Informatiker und Kognitionswissenschaftler Rodney Brooks, der zehn Jahre lang das Computer Science and Artificial Intelligence Laboratory am Massachusetts Institute of Technology (MIT) leitete.
Im September veröffentlichte Brooks einen fulminanten Essay, der allein schon wegen des Titels wie eine Antwort auf die KI-Kirche klingt: Die sieben Todsünden der Prognosen über die Zukunft der KI (hier die deutsche Übersetzung).
Eine dieser Todsünden sei die Verallgemeinerung: "Menschen erfahren, dass irgendein Roboter oder ein KI-System eine bestimmte Aufgabe gemeistert hat. Dann verallgemeinern sie und schließen von dieser konkreten Leistung auf eine generelle Kompetenz, wie sie vermutlich ein Mensch besäße, der in der Lage wäre, dieselbe Aufgabe zu lösen. Und diese Verallgemeinerung übertragen sie auf den Roboter oder das KI-System."
Brooks bezieht sich auf KI-Anwendungen, wie sie derzeit häufig für Schlagzeilen sorgen: Systeme, die komplexe Spiele besser spielen, Bildinhalte zuverlässiger erkennen, Muster in gigantischen Datenmengen schneller erkennen, als jeder Mensch es je könnte. Aber selbst wenn sie etwas "eine Milliarde mal" besser können, macht sie das nicht allmächtig wie ein Gott. Anders gesagt: Nur weil ein Hammer so viel besser geeignet ist, einen Nagel in ein Brett zu schlagen als ein menschlicher Daumen, ist er noch lange kein übermenschliches Wesen. Sondern ein Werkzeug mit eng begrenztem Nutzwert.
Eine zweite Todsünde ist für Brooks die Verkürzung: "Wenn Worte, die im menschlichen Kontext einen Koffer voller Bedeutungen mit sich herumtragen, auf Computer angewendet werden, wecken sie falsche Vorstellungen darüber, wie gut die Maschinen Aufgaben übernehmen können, die bisher Menschen bewältigen."
Beispiele dafür seien Systeme, die "lernen" oder "spielen". Maschinelles Lernen sei nicht mit menschlichem Lernen vergleichbar. Es sei viel störungsanfälliger und erfordere umfangreiche Vorarbeiten durch menschliche Entwickler, nicht zuletzt bei der Auswahl und Aufbereitung der Trainingsdaten. Und spielerisch ist an der Art und Weise, wie zum Beispiel Googles AlphaGo eine Partie des Brettspiels Go absolviert, auch nicht.
Problematische Beschreibungen wie "lernende Maschinen"
"Schlagzeilen verkünden ein bestimmtes, vieldeutiges Wort und erzeugen dadurch in der Öffentlichkeit falsche Vorstellungen über den Forschungsstand der KI und die Schwierigkeit, größere Ziele zu erreichen", kritisiert Brooks sowohl Medien als auch die Pressestellen der KI-Forschungseinrichtungen. Dabei hätten es besonders facettenreiche Worte wie Bewusstsein, Erfahrung oder Denken, die im Zusammenhang mit einer gottgleichen KI zwangsweise fallen müssten, noch gar nicht in die Schlagzeilen geschafft. Denn "bislang hat keines unserer KI-Systeme annähernd ein Niveau erreicht, auf das sich auch nur einzelne Bedeutungsaspekte dieser Worte aus der menschlichen Sphäre anwenden lassen".
Außerdem zerpflückt Brooks noch den Glauben an exponentielle Entwicklungen, wie er zum Beispiel von Ray Kurzweil propagiert wird. Seit Jahren predigt der KI-Visionär und Transhumanist Kurzweil einen exponentiellen informationstechnischen Fortschritt, weshalb die Singularität - also das, was Levandowski den Übergang nennt - in greifbarer Nähe sei. Doch Brooks schreibt, die großen Fortschritte in der KI-Forschung, genauer gesagt beim Deep Learning, seien "ein isoliertes Ereignis" und es gebe kein Gesetz, "das angibt, wie häufig so etwas eintritt. Es gibt keinen physikalischen Prozess, wie das Halbieren der Masse des verwendeten Materials bei Moores Gesetz, der den Innovationsprozess im Bereich der KI vorantreibt."
Brooks ist kein Pessimist und erst recht nicht technophob, sondern ganz im Gegenteil ein begeisterter KI-Forscher. Er begreift das Feld aber nicht als isoliert von soziologischen, kulturellen, politischen und wirtschaftlichen Entwicklungen und hält rein gar nichts von Levandowskis Unvermeidlichkeitsglauben, der Technik praktisch abgekoppelt von allem anderen betrachtet.
Dessen Way of the Future könnte noch aus einem anderen Grund ein kurzer Weg sein: Ab Anfang Dezember muss sich Anthony Levandowski vor Gericht verantworten, weil er Geschäftsgeheimnisse von Waymo an Uber verraten haben soll. Die Höchststrafe dafür beträgt zehn Jahre Haft und ein Bußgeld in dreifacher Höhe des Wertes der gestohlenen Unterlagen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Way of the Future: Man kann Kirche nicht ohne KI schreiben |
- 1
- 2
Kann ich ja nichts für, wenn ihr die Posts auf die ihr antwortet nicht bis zum Ende lest.
Gott ist ein Placebo, das ist korrekt. Ja, Gott ist eine Illusion. Menschen glauben...
Kark (Plattdeutsch)
und es scheint offensichtlich meinungsorientiert zu sein ... was du gewohnt bist...