Deutsch: sehr gut, Physik: ausreichend
Kann eine Maschine ohne diese Fundamente auskommen und sich ausschließlich auf Text verlassen, um die Welt zu verstehen? Ich bin skeptisch.
Lassen Sie mich ein Beispiel aus einem Dialog mit ChatGPT geben: Ich fragte, ob man ein Auto mit rechteckigen Rädern bauen könne. Die Antwort war im Wesentlichen korrekt im Sinne von "Ja, man kann es tun, aber es ergibt keinen Sinn". Aber sobald ich etwas genauer nachbohrte, wurde offensichtlich, dass das Sprachmodell viele der physikalischen und geometrischen Details durcheinanderbringt.
Es ist beeindruckend, wie ChatGPT "Wissen", das aus Sprache extrahiert werden kann, kombinieren kann. Aber das Beispiel mit dem Auto zeigt, dass das System kein physisches Verständnis der Welt hat.
Das Tool behauptet, kreisförmige Räder hätten eine besonders große Auflagefläche mit der Straße, so dass sich das Gewicht des Autos besser verteilen könne. Tatsächlich hat aber gerade das runde Rad, idealisiert betrachtet, zu jeder Zeit nur einen einzigen Kontaktpunkt – oder eine Linie, wenn wir die Dicke des Rades berücksichtigen – mit dem Boden. Dies ermöglicht es ihm zu rollen.
ChatGPT kombiniert einige relevante Informationen mit einigen irrelevanten, zum Beispiel der Gewichtsverteilung. Aber ich denke, es gibt harte Grenzen, die nicht allein durch das Lernen aus Sprache überwunden werden können.
Versteh mich nicht falsch: Ich bin immer noch beeindruckt davon, dass ChatGPT feststellen kann, dass rechteckige Räder Ecken haben und dass einzelne Kontaktpunkte hohen Druck erzeugen. Dies aus der Sprache zu extrahieren, ist keine triviale Leistung, also ist es tatsächlich toll, was das System kann.
Allerdings verstehen große Sprachmodelle den von ihnen generierten Text nicht wirklich, auch wenn einiges an grundlegenden Schlussfolgerungen und eine beträchtliche Menge an Verallgemeinerung vorhanden zu sein scheinen. Außerdem sollte man darauf hinweisen, dass sie auch nicht wirklich neu sind. Solche Systeme sind viel raffiniertere Versionen der regelbasierten Expertensysteme der 70er und 80er Jahre. Diese verwendeten eine Datenbank von Sätzen, aus der sie neue Sätze auf der Grundlage bestimmter logischer Vorgaben ableiteten.
Was braucht echte KI?
ChatGPT und andere moderne Sprachmodelle verwenden ebenfalls eine Datenbank von Texten, wenn auch eine viel größere, und die Regeln für Schlussfolgerungen sind nicht manuell erstellt, sondern sie werden durch sogenanntes selbstüberwachtes und bestärkendes Lernen gebildet.
Im Wesentlichen sprechen wir jedoch von demselben Ansatz: Es sind Algorithmen zur Sprachverarbeitung oder Spracherzeugung, aber keine Systeme, die die Welt auf eine sinnvolle Art verstehen. Ich stimme zu, sie können beeindruckend und nützlich sein, aber sie sind dennoch begrenzt. Können sie in Richtung AGI skalieren? Ich denke, noch nicht.
Ein System, das die Welt in menschlichem Sinne versteht, sollte meines Erachtens zumindest folgende Eigenschaften haben:
Es sollte einen Körper haben und die Fähigkeit besitzen, Handlungen in der Umgebung auszuführen und die Folgen seiner Handlungen wahrzunehmen.
Es sollte die Fähigkeit haben, ein internes Modell der Welt auf der Grundlage direkter Wechselwirkung mit der Umgebung zu konstruieren.
Es sollte Handlungskompetenz haben, also einen Willen zu gezielten Aktivitäten in seiner bestimmten Umgebung, und dynamisch sein, sich also immer in irgendeiner Art von innerer Transformation befinden.
Um wirkliches Verständnis zu ermöglichen, sollte das interne Modell autonom sein. Das heißt, es sollte auch ohne jegliche externe Eingabe existieren und Effekte hervorbringen. Das Modell ist also nicht einfach eine direkte Darstellung irgendeiner Eingabe, sondern eine sich dynamisch entwickelnde innere Welt.
Zusammenfassend würde ich sagen, dass ein intelligentes System im menschlichen Sinne, das die Welt versteht, notwendigerweise in der Lage sein muss, von der Welt zu träumen. Erst dann werden wir uns dem Aufkommen von AGI nähern. Wie solche Systeme konstruiert werden sollten, wissen wir nicht. Und ich denke, dass wir noch nicht sehr nah dran sind, es herauszufinden.
Linde: Wir stimmen überein, dass noch einige sehr wichtige Elemente fehlen, bevor KI-Modelle das Stadium von AGI erreichen können. Wir scheinen aber noch etwas unterschiedliche Sichtweisen darauf zu haben, ob große Sprachmodelle wie ChatGPT bereits einen Kern "wahrer" Intelligenz enthalten oder nicht.
In jedem Fall dürfen wir auf viele interessante Entwicklungen in naher Zukunft gespannt sein. Es war eine große Freude, diese Fragen mit dir zu diskutieren, Raul. Vielen Dank für deine Zeit!
Helmut Linde leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun in seinem Unternehmen für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Braucht Intelligenz einen Körper? |
Danke für den Link. Hab' mir das Paper gerade durchgelesen. Sehr interessant und...
Grade der letzte Punkt is extrem kritisch zu sehen. Was ist mit einer Person die in...
Eine KI muss nicht träumen können sondern ernsthafte Aufgaben so gut erledigen das es...
Ich denke nicht dass es gut im auswenig lernen ist. Man kann sehr abstrakte Probleme...
Kommentieren