Was es braucht, damit der Funken zündet

Eine der größten Limitationen von GPT-4, wie die Autoren betonen, besteht darin, dass das Modell seine Ausgaben stets Wort für Wort erzeugt. Die Lösung einer Aufgabe muss daher in gewissem Sinne immer in Vorwärtsrichtung erfolgen, wobei das Ende einer Ausgabe zumindest abstrakt schon am Anfang vorgedacht sein muss. Im Gegensatz dazu können Menschen in einer Art innerem Dialog ihre Antwort gedanklich zu Ende bringen und, wenn sie auf einen Widerspruch stoßen, zurück an den Anfang gehen und ihren Gedankenfluss anpassen.

Dass GPT-4 von einer solchen Möglichkeit profitieren würde, zeigt sich manchmal in Dialogen mit dem Sprachmodell. Bei fehlerhaften Ausgaben reicht es oft, das Modell nach mehr Details zu fragen, woraufhin es den Fehler in seiner Logik erkennt und korrigiert.

Ein Beispiel hierfür sind Rechenaufgaben. Wie seine Vorgänger macht auch GPT-4 selbst bei einfachsten Rechenaufgaben auf Grundschulniveau viele Fehler. Die Microsoft-Forscher zeigen jedoch, dass sich die Ergebnisse deutlich verbessern, wenn man GPT-4 bittet, den Rechenweg detailliert zu beschreiben, bevor das Ergebnis genannt wird.

Eine mögliche Verbesserung für die Zukunft könnte also darin bestehen, das Modell um eine innere Feedback-Schleife zu erweitern, so dass es nicht nur linear eine Antwort erzeugen, sondern seinen eigenen Denkprozess überwachen, beurteilen und lenken kann. Dies würde dazu beitragen, die Leistungsfähigkeit des Sprachmodells weiter zu erhöhen und es noch besser an die menschliche Denkweise anzupassen, wodurch es in der Lage wäre, komplexere Probleme effizienter und präziser zu lösen.

Ethische Fragen

Die Autoren der Studie gehen ausführlich auf die ethischen Fragen ein, die im Kontext von Künstlicher Intelligenz seit längerem diskutiert werden. Darunter fallen unter anderem die Auswirkung der Technologie auf Arbeitsplätze, ihr möglicher Einsatz bei Desinformations-Kampagnen oder ihr Einfluss auf die Bildung von Stereotypen und Vorurteilen. Während diese Fragen inhaltlich unverändert bestehen bleiben, unterstreichen die Fortschritte durch GPT-4 doch ihre Dringlichkeit.

Bewertung

In Summe untermauern die vorgestellten Beispiele deutlich die These, dass GPT-4 über einen "Funken" menschenähnlicher Intelligenz verfügt. Damit sich diese wirklich entfalten kann, müssen jedoch noch einige Limitationen überwunden werden.

Zu diesen zählt zum Beispiel, dass auch GPT-4 ähnlich wie seine Vorgänger nicht zuverlässig abschätzen kann, wie sicher seine eigenen Aussagen sind. Insbesondere bei Tatsachenbehauptungen, die sich auf sehr spezialisiertes Wissen beziehen, kommen daher weiterhin gelegentlich sogenannte Halluzinationen vor.

Eine weitere Einschränkung besteht darin, dass das Modell nicht mehr dazulernt, nachdem der Trainingsprozess abgeschlossen ist. Es kann zwar Informationen verwenden, die ihm von Benutzern als Teil der Prompts mitgegeben werden, doch ist dieser "Arbeitsspeicher" mit maximal einigen Tausend Wörtern recht klein. Insbesondere lässt sich das Modell daher noch nicht auf einfache Art an bestimmte Einsatzgebiete anpassen, wie zum Beispiel an Anwendungsfälle in einem Unternehmen, für die spezielle Fachkenntnisse oder Wissen über Mitarbeiter und Kunden notwendig sind.

Um diese Einschränkungen zu überwinden, gibt es verschiedene Ansätze. Teilweise ist dies bereits durch geschicktes Formulieren von Prompts möglich oder durch ihre Anreicherung mit Meta-Informationen (sogenanntes Prompt-Engineering). Eine weitere Möglichkeit besteht wie bereits erwähnt in der Verwendung von Software-Modulen.

Mittelfristig ist es wahrscheinlich, dass die Architektur von Sprachmodellen erweitert wird. Beispielsweise könnten mehrere Modelle auf unterschiedlichen Abstraktionsebenen arbeiten und sich gegenseitig beeinflussen. Zudem könnte eine Rückkopplungsschleife eingebaut werden, die es dem Modell ermöglicht, über seine eigene Ausgabe "nachzudenken", bevor sie finalisiert wird.

Abschließend räumen die Autoren offen ein, dass niemand wirklich versteht, warum diese Modelle so gut funktionieren. Viele Fähigkeiten sind emergente Eigenschaften, die während des Trainings der Modelle entstehen, aber bisher nicht direkt auf die Architektur der Modelle zurückgeführt werden können. Die Autoren betonen die Notwendigkeit, in naher Zukunft weiter in diesem Bereich zu forschen, um ein tieferes Verständnis der zugrundeliegenden Mechanismen zu erlangen.

Helmut Linde leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun in seinem Unternehmen für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Ein bedenkliches Szenario
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5


Cerdo 05. Apr 2023 / Themenstart

GPT-4 wurde nicht programmiert, sondern trainiert. Da laufen keine Algorithmen ab, die...

helbo 04. Apr 2023 / Themenstart

+1 Genau das denke ich auch. Und genau daher wird evtl die im Artikel beschriebene...

janoP 29. Mär 2023 / Themenstart

Habe gerade das hier gelesen https://www.br.de/nachrichten/netzwelt/microsoft-ki-bing...

Joiner 29. Mär 2023 / Themenstart

Hier gibts aber viele naive Kommentare die an eine Debatte in der Oberstufe erinnern. Es...

Kommentieren



Aktuell auf der Startseite von Golem.de
Grace Hopper Superchip
Nvidia zeigt den DGX GH200 AI-Supercomputer

Computex 2023 Die Kombination aus Grace Hopper, Bluefield 3 und NVLink ergibt funktional eine riesige GPU mit der Rechenkapazität eines Supercomputers und 144 TByte Grafikspeicher.

Grace Hopper Superchip: Nvidia zeigt den DGX GH200 AI-Supercomputer
Artikel
  1. Cortex v9 & v5 GPU: Arm setzt für Mobile SOCs voll auf 64-Bit
    Cortex v9 & v5 GPU
    Arm setzt für Mobile SOCs voll auf 64-Bit

    Computex 2023 Handys sollten durch den Wegfall von 32-Bit schneller, sicherer und trotzdem deutlich sparsamer werden.

  2. Reiner Haseloff: Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag
    Reiner Haseloff
    Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag

    Zwei Jahre soll der Rundfunkbeitrag eingefroren werden, die Zukunftskommission derweil Reformideen vorlegen, schlägt Sachsen-Anhalts Ministerpräsident vor.

  3. System Shock Remake angespielt: Die Kult-KI Shodan kämpft frisch entfesselt
    System Shock Remake angespielt
    Die Kult-KI Shodan kämpft frisch entfesselt

    System Shock gilt als wegweisendes Shooter-Rollenspiel. Jetzt ist Golem.de im Remake wieder gegen die Super-KI Shodan angetreten (Windows-PC).
    Von Peter Steinlechner

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Microsoft Xbox Wireless Controller 40,70€ • Lexar Play 1 TB 99,60€ • DAMN!-Deals mit AMD-Bundle-Aktion • MindStar: AMD Ryzen 9 5950X 429€, MSI RTX 3060 Gaming Z Trio 12G 329€, GIGABYTE RTX 3060 Eagle OC 12G 299€, be quiet! Pure Base 500DX 89€ • Logitech bis -46% [Werbung]
    •  /