Künstliche Intelligenz: So funktioniert ChatGPT

Das mächtige Sprachmodell ChatGPT erzeugt Texte, die sich kaum von denen menschlicher Autoren unterscheiden lassen. Wir erklären die Technologie hinter dem Hype.

Ein Deep Dive von Helmut Linde veröffentlicht am
Wie sieht eigentlich das Innenleben des ChatGPT-Bots aus?
Wie sieht eigentlich das Innenleben des ChatGPT-Bots aus? (Bild: KI-generiert mit Stable Diffusion)

Seit das US-amerikanische Unternehmen OpenAI Ende November letzten Jahres seine neue künstliche Intelligenz (KI) ChatGPT zum kostenlosen Testen freigegeben hat, teilen Nutzer in den sozialen Medien massenhaft Beispiele dafür, wie der Chatbot Wissensfragen beantwortet, E-Mails formuliert, Gedichte schreibt oder Texte zusammenfasst.

Die Fähigkeit von ChatGPT, souverän mit natürlicher Sprache umzugehen und komplexe Zusammenhänge mit einer hohen Trefferquote zu verstehen, wird von manchen Beobachtern als weiterer Meilenstein auf dem Weg zu starker künstlicher Intelligenz angesehen - also zu Algorithmen, die der menschlichen Denkfähigkeit in jeder Hinsicht ebenbürtig sind. Doch wie funktioniert die Technologie, welche all das ermöglicht?

Sechs Jahre - eine KI-Ewigkeit

Bei ChatGPT handelt es sich um ein Sprachmodell, also um einen Algorithmus des maschinellen Lernens, der auf die Verarbeitung von Texten spezialisiert ist. ChatGPT ist dabei die neueste Generation in einer Reihe von Sprachmodellen, die auf dem 2017 eingeführten sogenannten Transformer-Modell basieren. Die Transformer-Architektur erregte bei ihrer Veröffentlichung in Fachkreisen Aufsehen, da sie spezialisierte Sprachmodelle für die Übersetzung von Texten und andere Aufgaben mit bis dahin nicht erreichter Leistungsfähigkeit ermöglichte.

Bereits im Jahr 2018 wurde von OpenAI der Generative Pretrained Transformer (GPT) als eine Abwandlung des Transformers mit einem vereinfachten Aufbau veröffentlicht (PDF). Eine wesentliche Neuerung bestand dabei in der Idee, das Sprachmodell nicht mehr für eine spezielle Aufgabe wie Übersetzung oder Klassifikation von Texten zu trainieren, für die häufig nur begrenzte Mengen an Beispieldaten zur Verfügung stehen.

Stattdessen wurde das GPT-Modell auf sehr großen Datensätzen generischer Texte vortrainiert, um statistische Eigenschaften von Sprache als solcher unabhängig von der konkreten Aufgabenstellung zu lernen. Das so vorbereitete Modell konnte dann effektiv mit kleineren Sätzen von Beispieldaten für spezielle Aufgabenstellungen angepasst werden.

Die nächste Version GPT-2 erschien 2019 (PDF). Es handelte sich dabei im Wesentlichen um eine hochskalierte Version des Vorgängermodells mit einer deutlich höheren Zahl an Parametern und mit einem Training auf entsprechend größeren Datensätzen. Im Gegensatz zur ursprünglichen Version wurde GPT-2 gar nicht mehr für spezielle Probleme angepasst, sondern konnte viele unterschiedliche Aufgaben wie das Übersetzen von Texten oder das Beantworten von Wissensfragen allein durch das Training mit generischen Texten aus dem Internet lösen.

Die dritte Generation GPT-3 (PDF) war mit 175 Milliarden Parametern noch einmal weitaus umfangreicher als GPT-2 und entsprechend leistungsfähiger. Insbesondere mit seiner Fähigkeit, längere Texte zu schreiben, die kaum von denen menschlicher Autoren zu unterscheiden waren, erregte es auch über die KI-Forschungsgemeinde hinaus Aufsehen.

Allerdings wurden auch die Einschränkungen des Modells sehr deutlich - darunter ethische Probleme mit anstößigen oder von Vorurteilen geprägten Texten sowie die Angewohnheit, völlig falsche Tatsachenbehauptungen in überzeugend klingenden Formulierungen aufzustellen.

Um diese Unzulänglichkeiten zu beheben, erweiterte OpenAI das Trainingskonzept für seine nächsten Sprachmodelle InstructGPT und ChatGPT um eine fundamental neue Dimension: Anstatt ein Modell mit riesigen Textmengen aus dem Internet allein zu lassen, wurde es nun im Nachgang von menschlichen Lehrern darin unterrichtet, konkreten Anweisungen der Nutzer Folge zu leisten und dabei ethisch vertretbare und inhaltlich korrekte Aussagen zu treffen. Um die Effektivität dieses Trainings sicherzustellen, musste auch der algorithmische Ansatz des reinen Transformer-Modells um einen weiteren Schritt - das sogenannte Reinforcement Learning - erweitert werden.

Die beeindruckenden Leistungen von ChatGPT sind also das Ergebnis einer ganzen Reihe unterschiedlicher Algorithmen und Methoden sowie vieler teils sehr kleinteiliger Tricks. In diesem Artikel liegt der Fokus darauf, ein intuitives Grundverständnis der Technologie zu vermitteln, ohne dabei durch zu viele mathematische oder technische Details den roten Faden zu verlieren. Die Links im Text verweisen zu Quellen, welche die Lücken in dieser Darstellung schließen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Genial einfache Grundidee 
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8.  


flashplugin 23. Feb 2023 / Themenstart

Ich wollte nur mal anmerken, dass ich die Idee für die Illustration (KI-generiert) super...

Wagyufleischwur... 21. Feb 2023 / Themenstart

Genau, weil die Welt schwarz und weiß ist. Man kann auch ChatGPT verwenden ohne dessen...

ThadMiller 20. Feb 2023 / Themenstart

Doch, versteht und antwortet auch auf Deutsch und anderen Sprachen.

Trollversteher 13. Feb 2023 / Themenstart

Hier auch - guter Artikel, und die "gesunde Mitte" zwischen zu viel fachlicher Tiefer und...

Kommentieren



Aktuell auf der Startseite von Golem.de
Morris Chang
TSMC-Gründer erklärt Globalisierung im Chipsektor für tot

Der ehemalige CEO des Halbleiterproduzenten TSMC geht davon aus, dass die Preise dadurch steigen werden. Taiwan steht vor einem Dilemma.

Morris Chang: TSMC-Gründer erklärt Globalisierung im Chipsektor für tot
Artikel
  1. Treibstoffe: Die Suche nach dem E-Fuels-Phantom
    Treibstoffe
    Die Suche nach dem E-Fuels-Phantom

    Ein CDU-Politiker denkt, dass in Nachbarländern E-Fuels getankt werden können und ein Öllobbyist glaubt, dass E-Fuels-Fabriken weltweit im Industriemaßstab gebaut werden. Nichts davon stimmt.
    Eine Analyse von Hanno Böck

  2. Codon: Python-Compiler verspricht 10- bis 100-fache Leistung
    Codon
    Python-Compiler verspricht 10- bis 100-fache Leistung

    Eine native Kompilierung von Python soll eine Programmgeschwindigkeit wie bei C und C++ ermöglichen.

  3. Zeichentrick-Serie: Southpark-Folge teilweise mit ChatGPT geschrieben
    Zeichentrick-Serie
    Southpark-Folge teilweise mit ChatGPT geschrieben

    In der neuesten Folge von South Park haben sich die Schöpfer der Serie mit ChatGPT beschäftigt und den Chatbot genutzt, um Teile der Episode zu erstellen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Amazon Coupon-Party • MindStar: MSI RTX 4080 -100€ • Neue RAM-Tiefstpreise • Sandisk MicroSDXC 256GB -69% • Neue Wochendeals bei Media Markt • Bosch Professional-Rabatte • Otto Oster-Angebote • 38-GB-Allnet-Flat 12,99€/Monat • Meta Quest Pro 1.199€ • [Werbung]
    •  /