Eine grobe Interpretation des Sprachmodells

In den ersten Ebenen - also den anfänglichen Iterationen des Aufmerksamkeitsmechanismus - wird der Eingabetext wohl zunächst in abstraktere Konzepte übersetzt. Jedes einzelne Wort wird dabei mit Bedeutungsinhalten aus dem Rest des Satzes aufgeladen. Die Konzepte werden dabei so abstrakt, dass sie sich in den noch unbekannten Teil des Textes extrapolieren lassen. So ist zum Beispiel klar, dass der Satz "Mein Haus wurde gelb ..." irgendetwas mit dem Konzept "umfärben" zu tun hat, auch wenn das konkrete Wort "gestrichen" noch fehlt (siehe Abbildung 5).

In den mittleren Ebenen wird diese Bedeutung gewissermaßen um ein Wort vorwärts verschoben. Aus dem Begriff "gelb" im Kontext von "ein Gebäude umfärben" wird also das Konzept "Umfärben" im Kontext von "ein gelbes Gebäude".

In den letzten Ebenen muss schließlich das Konzept für das nächste Wort wieder in ein konkretes Wort zurückverwandelt werden. Aus dem "Umfärben" und seinem Kontext muss also die Position im semantischen Raum für "gestrichen" werden - ohne Kontext. Der letzte Schritt ist dann die Umkehrung der Einbettung, um tatsächlich das Wort "gestrichen" zu erhalten.

  • Grundprinzip der GPT-Sprachmodelle ist es, zu einem vorgegebenen unvollständigen Text eine Wahrscheinlichkeitsverteilung für das folgende Wort zu ermitteln. (Bild: Helmut Linde)
  • Im semantischen Raum werden Wörter ihrer Bedeutung nach geordnet. Bei den Word2Vec-Verfahren verfügt jedes Wort zusätzlich über einen Kontext-Vektor, welcher die Positionen stark korrelierter Wörter im semantischen Raum beschreibt. (Bild: Helmut Linde)
  • Einbettungen durch Word2Vec können dazu führen, dass Wörter mit ähnlicher Bedeutung im semantischen Raum nah beieinander liegen. Inhaltliche Beziehungen zwischen Wörtern können sich als geometrische Beziehungen in diesem Raum widerspiegeln. (Bild: Helmut Linde)
  • Der Aufmerksamkeitsmechanismus bildet Wörter aus dem semantischen Raum abhängig von ihrem Kontext an unterschiedlichen Positionen in einem neuen Raum ("Kontextraum") ab. Der Einfluss des Kontextes auf das Ergebnis wird dabei von dem Query-Vektor des Wortes und den Key-Vektoren der benachbarten Wörter im Text bestimmt. (Bild: Helmut Linde)
  • GPT ermittelt für jedes Wort eines Eingabetextes eine Prognose für das darauffolgende Wort. Dazu wird der Eingabetext zunächst Wort für Wort in einen semantischen Raum eingebettet. In diesem Raum wird der Aufmerksamkeitsmechanismus wiederholt angewendet. Schließlich wird das Ergebnis aus dem semantischen Raum wieder in konkrete Wörter zurückverwandelt.  (Bild: Helmut Linde)
  • Die Methode des Reinforcement Learning mit menschlicher Rückmeldung ermöglichte die Leistungssteigerung von GPT-3 zu ChatGPT.  (Bild: Helmut Linde)
GPT ermittelt für jedes Wort eines Eingabetextes eine Prognose für das darauffolgende Wort. Dazu wird der Eingabetext zunächst Wort für Wort in einen semantischen Raum eingebettet. In diesem Raum wird der Aufmerksamkeitsmechanismus wiederholt angewendet. Schließlich wird das Ergebnis aus dem semantischen Raum wieder in konkrete Wörter zurückverwandelt. (Bild: Helmut Linde)

GPT-3 plappert

Das bis hierhin beschriebene Konzept entspricht einem Sprachmodell auf dem Stand von GPT-3 aus dem Jahr 2020. Es ist in der Lage, Texte thematisch passend und mit menschenähnlichen Formulierungen fortzusetzen, was auf einer Vorhersage der Folgewörter mit der jeweils höchsten Wahrscheinlichkeit beruht. Allerdings zeigt sich, dass der wahrscheinlichste Text nicht unbedingt auch der nützlichste für Anwender ist.

So kann die wahrscheinlichste Antwort auf eine suggestiv gestellte Frage deren Prämisse aufgreifen und weiterführen. Ist letztere jedoch falsch, dann können absurde Antworten die Folge sein.

Ein amüsantes Beispiel präsentierten die OpenAI-Wissenschaftler in ihrem Fachartikel zu GPT-3 (PDF): Auf die Frage, warum man nach dem Meditieren Socken essen solle, antwortet das Sprachmodell ungerührt, dass man in den Socken die Essenz der Erleuchtung schmecke und dass stinkende Füße das wahre Aroma eines wachen Geistes seien.

Außerdem enthalten die zum Training verwendeten Texte relativ wenige Dialoge mit der Art von Arbeitsanweisungen, die eine Anwenderin einer künstlichen Intelligenz geben würde - zum Beispiel einen Text zu übersetzen, zu korrigieren oder anders zu formulieren. Folglich ist GPT-3 zwar stark darin, Texte fortzusetzen oder Aufgaben anhand von Beispielen zu lösen, aber nicht unbedingt darin, direkten Arbeitsanweisungen Folge zu leisten.

Darüber hinaus ergeben sich verschiedene ethische Probleme durch die Fixierung auf eine möglichst wahrscheinliche Fortsetzung von Texten, ohne ihren Inhalt kritisch zu hinterfragen. Die Trainingsdaten - eine breite Auswahl an online verfügbaren Texten - enthalten unter anderem anstößige oder illegale Aussagen, die vom Sprachmodell nachgeahmt werden können.

Dieses Problem kann zwar durch eine sorgfältige Vorauswahl der Daten abgemildert werden, doch weisen selbst Texte aus seriösen Quellen statistische Korrelationen auf, die als Vorurteile übernommen werden. So werden beispielsweise Assoziationen von ethnischen Gruppen mit Terrorismus oder von Frauen und Männern mit bestimmten Berufsbildern im Modell festgeschrieben. Sie fließen dann ungefiltert in die erzeugten Texte ein und können zu diskriminierenden Aussagen führen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Aufmerksamkeit - wieder und wiederLehrer für die KI: Die größte Hürde überwinden 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7. 6
  8. 7
  9.  


flashplugin 23. Feb 2023 / Themenstart

Ich wollte nur mal anmerken, dass ich die Idee für die Illustration (KI-generiert) super...

Wagyufleischwur... 21. Feb 2023 / Themenstart

Genau, weil die Welt schwarz und weiß ist. Man kann auch ChatGPT verwenden ohne dessen...

ThadMiller 20. Feb 2023 / Themenstart

Doch, versteht und antwortet auch auf Deutsch und anderen Sprachen.

Trollversteher 13. Feb 2023 / Themenstart

Hier auch - guter Artikel, und die "gesunde Mitte" zwischen zu viel fachlicher Tiefer und...

Kommentieren



Aktuell auf der Startseite von Golem.de
Fahrbericht Nikola Tre FCEV
Der Wasserstoff-Lkw mit mobiler Zapfsäule

Neben einem vollelektrischen Lkw schickt das US-Start-up Nikola bald auch einen Wasserstoff-Laster auf die Straße. Wir sind mit dem Prototyp gefahren.
Ein Bericht von Wolfgang Gomoll

Fahrbericht Nikola Tre FCEV: Der Wasserstoff-Lkw mit mobiler Zapfsäule
Artikel
  1. Makeover: Das neue Microsoft Teams wird schneller und effizienter
    Makeover
    Das neue Microsoft Teams wird schneller und effizienter

    Microsoft Teams wird komplett überarbeitet und soll nicht nur schneller starten, weicher scrollen und flotter verbinden, sondern auch weniger Speicher belegen.

  2. Videochat: Zoom führt KI-Funktionen wie Zusammenfassungen ein
    Videochat
    Zoom führt KI-Funktionen wie Zusammenfassungen ein

    Mit künstlicher Intelligenz will Zoom seinen Videochat verbessern. Wer künftig zu spät kommt, kann etwa fragen, was bisher besprochen wurde.

  3. Elektronische Kampfführung: Starlink macht ukrainische Truppen öfter zur Zielscheibe
    Elektronische Kampfführung
    Starlink macht ukrainische Truppen öfter zur Zielscheibe

    Starlink wird von ukrainischen Streitkräften intensiv genutzt, doch die Gegenseite ergreift immer häufiger funktionierende Gegenmaßnahmen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Große Amazon Rabatt-Aktion • MindStar: 6 Grafikkarten günstiger • Monitore bis -50% • Windows Week • Logitech bis -49% • Radeon 7900 XTX 24 GB günstig wie nie • Alexa-Sale bei Amazon • Kingston Fury 16GB DDR4-3600 43,90€ • 3 Spiele kaufen, 2 zahlen • MM-Osterangebote [Werbung]
    •  /