Original-URL des Artikels: https://www.golem.de/news/machine-learning-forscher-testen-kuenstliche-intelligenzen-auf-intelligenz-1903-139937.html    Veröffentlicht: 12.03.2019 10:39    Kurz-URL: https://glm.io/139937

Machine Learning

Forscher testen künstliche Intelligenzen auf Intelligenz

Etwa die Hälfte der KI-Systeme könnte nicht intelligent handeln. Das wollen Wissenschaftler der TU Berlin und anderer Universitäten herausgefunden haben. Dazu nutzten sie ein eigenes System und den Vergleich zu einem Pferd, das angeblich rechnen konnte.

Forscher der Technischen Universität Berlin, des Heinrich-Hertz-Instituts und der Singapore University of Technology haben eine Technik entwickelt, die neuronale Netzwerke und andere Machine-Learning-Software analysiert und deren Entscheidungen als intelligent oder einfach nur statistisch wahrscheinlich einstuft. Die Layer-Wise Relevance Propagation soll die einzelnen Entscheidungsebenen eines als KI geltenden Algorithmus analysieren. Der Ansatz basiert auf stochastischen Methoden wie Relevanz- und Spektralanalysen.

Dabei will der Wissenschaftler Klaus-Robert Müller sicher sein, dass etwa 50 Prozent der vom Forscherteam untersuchten Systeme keine intelligenten Entscheidungen treffen, sondern nur statistisch überdurchschnittlich gut einordnen können. Er bringt in einem Beitrag der TU Berlin die Analogie zum Pferd Clever Hans, welches anhand der Reaktionen des Halters zu 90 Prozent ihm gestellte Rechenaufgaben lösen konnte. Das wurde allerdings so gedeutet, dass das Tier Mathematik beherrschte und damit sehr intelligent war.

"Es ist durchaus denkbar, dass ungefähr die Hälfte der aktuell eingesetzten KI-Systeme implizit oder explizit solche Clever-Hans-Strategien nutzen", sagt Müller. Betroffen sind beispielsweise Bilderkennungssysteme, die aus Motiven bestimmte Objekte klassifizieren können. Viele dieser Programme erraten aber einfach nur an statistisch wahrscheinlichen Merkmalen den Inhalt eines Bildes - etwa wenn es mit dem Begriff Eisenbahn markiert wird, sobald die Software nur Schienen erkennt.

Es gebe aber auch Beispiele, bei denen ihr Verfahren wirklich intelligentes Vorgehen bewiesen habe. Eine Software, die Spiele wie Pinball von allein versteht und meistert, sei als intelligent anzusehen, solange sie sich das Spiel selbstständig beigebracht hat. Die Methode der Forscher ist bereits seit längerer Zeit in der Entwicklung. Ein wissenschaftliches Dokument dazu steht auf Seiten wie arxiv.org (PDF) frei zur Verfügung. "Wir sehen unsere Arbeit als einen wichtigen ersten Schritt, KI-Systeme in Zukunft robuster, erklärbar und sicher zu machen. Denn das ist die wesentliche Voraussetzung für den Einsatz von KI überhaupt", sagt Müller.

KI-Programme, die Computerspiele lernen, gehen oft auch nach einem Trial-and-Error-Prinzip vor: Sie spielen Spiele in großer Zahl automatisiert gegen sich selbst und testen, welche Aktion welche entsprechende Reaktion hervorruft und speichern die Ergebnisse. Danach gewichten sie ihre Aktion nach dem Erfolg, den sie in bestimmten Situationen verspricht. Auch als intelligent bezeichnete Programme arbeiten nach Wahrscheinlichkeiten. Andererseits tun das Menschen und Tiere in gewisser Weise ebenfalls - haben aber manchmal nur einen Versuch dafür.  (on)


Verwandte Artikel:
MMC-Bericht: 40 Prozent der KI-Startups in Europa entwickeln gar keine KI   
(05.03.2019, https://glm.io/139804 )
Xnor.ai: Solarbetriebene Minikamera erkennt Menschen durch KI   
(20.02.2019, https://glm.io/139507 )
Google: Tensorflow soll einsteigerfreundlicher und mobiler werden   
(07.03.2019, https://glm.io/139847 )
OpenAI Neural MMO: Im Multiplayerspiel zeigen KI-Agenten Verhalten von Tieren   
(05.03.2019, https://glm.io/139797 )
IBM Watson: KI-App plant den nächsten Businesstrip durch die Stadt   
(28.02.2019, https://glm.io/139706 )

© 1997–2019 Golem.de, https://www.golem.de/