Textgenerator GPT-3 auf Deutsch getestet: "Genau. Wahrscheinlich. Sie sind wie die Ameisen."

Wir haben uns angesehen, was die Machine-Learning-KI GPT-3 von OpenAI in deutscher Sprache kann.

Artikel von veröffentlicht am
Wenn GPT-3 Science-Fiction schreibt: "Sie sind wie die Ameisen." - "Genau." - "Keine Ahnung, wer wir sind, woher wir kommen, oder was wir wollen. Oder warum oder wozu."
Wenn GPT-3 Science-Fiction schreibt: "Sie sind wie die Ameisen." - "Genau." - "Keine Ahnung, wer wir sind, woher wir kommen, oder was wir wollen. Oder warum oder wozu." (Bild: Pixabay/Montage: Golem.de)

GPT-3 von OpenAI ist ein Machine-Learning-Sprachmodell, das allerlei können soll: Autoren und ihren individuellen Stil täuschend echt nachahmen, Gedichte schreiben, als Chatpartner dienen. Ein Kanadier brachte der KI sogar bei, seine vor acht Jahren verstorbene Freundin zu simulieren; es gibt unzählige Beispiele für den Einsatz des Textgenerators.

Die meisten Beispiele haben aber eines gemeinsam: Sie sind in englischer Sprache. Deshalb haben wir GPT-3 auf Deutsch getestet. Den GPT-3 Playground - OpenAIs Weboberfläche, um die GPT-3-Engines nicht nur über eine API mit Selbstprogrammiertem ausprobieren zu können - hat für uns Vladimir Alexeev, Digital Experience Manager bei DB Schenker und KI-Enthusiast, bedient.

Unsere Frage ist also, wie sich der Texte schreibende Computer auf Deutsch schlägt: Werden die generierten Texte hochklassige Literatur? Können sie mit einem Zeitungsartikel mithalten? Oder ist die Qualität eher vergleichbar mit Google Translate, das zwar so ungefähr den Sinn wiedergibt, sich aber oft sehr umständlich ausdrückt und den einen oder anderen Verständnisfehler macht?

Eine kleine Historie zu GPT-3

Als GPT-3 im Juni letzten Jahres vorgestellt wurde, waren alle begeistert. Mit GPT-3 generierten Computer sinnvolle Texte oder Gedichte, im Stil von Shakespeare oder eines Teeny-Blogposts. Die Resultate waren so gut, dass OpenAI, die Firma hinter der Software und dem Sprachmodell, noch vor dem Start der Beta-Phase verkündete, GPT-3 werde im Gegensatz zu seinem Vorgänger GPT-2 nicht mehr frei verfügbar sein: Die Qualität sei einfach zu hoch und damit die Gefahr zu groß, wenn die Software jedermann kostenlos zur Verfügung stünde..

Stellenmarkt
  1. Zentrale Koordination / Projektleitung (w/m/d) Technik / Information und Kommunikation, Hochschul- ... (m/w/d)
    Hochschule für Polizei Baden-Württemberg, Villingen-Schwenningen
  2. Senior Avionics Foundation Software Engineer (f/m/d)
    Rockwell Collins Deutschland GmbH, a part of Collins Aerospace, Heidelberg
Detailsuche

"Fehlinformationen, Spam, Phishing, Missbrauch rechtlicher und behördlicher Verfahren, betrügerisches Verfassen von akademischen Aufsätzen und Vorlagen für Social Engineering", all das zählten die Forscher als Gefahren auf. Einer der frühen Tester, Arram Sabeti, betitelte seinen Bericht: "GPT-3: Eine KI, die unheimlich gut darin ist, fast alles zu schreiben". Auf Englisch, wohlgemerkt.

Aber das ist nur ein Teil der Leistungsgeschichte des Textgenerators. In den begeisterten Berichten wird im Allgemeinen nicht darauf eingegangen, wie viele Versuche notwendig waren, um dem System die dann zur Veröffentlichung ausgesuchte Antwort zu entlocken.

Denn um gute Ergebnisse zu erhalten, muss man bei GPT-3 wissen, was man tut. Deshalb hatten wir bei unserem Test auch einen Experten dabei. Es geht darum, einige Parameter richtig einzustellen, und vor allem darum, die Aufgabe so zu stellen, dass das System etwas damit anfangen kann: Die Software versucht grundsätzlich, den eingegebenen Text im gleichen Stil fortzusetzen.

Keine Frage, GPT-3 generiert sehr viel bessere Texte als der Vorgänger GPT-2. Ob das System so gut ist, dass es als zu gefährlich für einen freien Zugriff eingestuft werden muss, sei dahingestellt.

Handbuch für Softwareentwickler: Das Standardwerk für professionelles Software Engineering

GPT-3: Vier Modelle als Engine zur Auswahl

Das Kernstück von GPT-3 sind die Modelle, mit denen Text ausgewertet und generiert wird. Nutzern des Playground stehen vier davon zur Verfügung - welches man nutzt, ist eine Frage des Preises und des Einsatzzwecks. Die Modelle Davinci, Curie, Babbage und Ada unterscheiden sich in Umfang und Leistung.

Das größte Modell, Davinci, ist besonders gut darin, die Absicht eines komplexen Textes zu analysieren und zu klassifizieren, Zusammenfassungen zu schreiben und Gefühle in einem Text wiederzugeben. Curie - schneller, aber weniger umfangreich - wird als besonders geeignet für einen Service-Chatbot aufgeführt. Bei Babbage wird als Stärke die semantische Suchklassifikation genannt, während Ada, das kleinste und schnellste Modell, gut im Parsen von Texten und dem Erkennen von Schlagworten sein soll.

Von Davinci und Curie gibt es noch einmal Derivate in einer Beta-Version mit dem Zusatz "Instruct", die im Prinzip das gleiche Modell darstellen, aber etwas anders an die Aufgabenstellung herangehen. Während die Basis-Engines versuchen, den vorgegebenen Text sinnvoll fortzusetzen, schauen die Instruct-Varianten nach Anweisungen in dem vorgegebenen Text und versuchen, diese zu befolgen. Weitere existierende Derivate sind die Codex-Engines, die bei Texten aber keine Rolle spielen; sie sind für die Generierung von Programmcode gedacht.

Auffallend ist, dass OpenAI keines der Modelle als geeignet ansieht, den Text eines talentierten Autors zu simulieren - oder dies zumindest nicht aufführt. Vielleicht ein erster Hinweis darauf, wie unser Experiment laufen wird?

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
GPT-3 arbeitet mit Tokens statt Worten oder Zeichen 
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8.  


Kleba 21. Nov 2021 / Themenstart

Kann mich auch nur anschließen - war unterhaltsam +1 :-)

Kleba 21. Nov 2021 / Themenstart

Es gibt schon entsprechende "Versuche" von Netflix (eher humoristisch zu verstehen...

JE 05. Nov 2021 / Themenstart

Die KI hat hier auffallend häufig etwas von "keine Ahnung" geschrieben und auch häufig...

Komischer_Phreak 04. Nov 2021 / Themenstart

Das wird wie immer in dieser Branche laufen: Dafür wird es das KI-Adblocker geben.

Komischer_Phreak 04. Nov 2021 / Themenstart

Du hast Dich offenbar noch nie mit GPT3 unterhalten. Ich würde schätzen, angesichts der...

Kommentieren



Aktuell auf der Startseite von Golem.de
OneXPlayer 1S im Test
Die Über-Switch

Mit schnellem Prozessor, viel RAM und integrierter Intel-GPU soll der OneXPlayer zum stärksten Spiele-Handheld werden. Das klappt zumindest teilweise.
Ein Test von Martin Wolf

OneXPlayer 1S im Test: Die Über-Switch
Artikel
  1. Edge-Browser: Microsoft will Installation von Chrome verhindern
    Edge-Browser
    Microsoft will Installation von Chrome verhindern

    Microsoft intensiviert sein Vorgehen gegen andere Browser: Vor der Installation von Chrome wird Edge übertrieben gelobt.

  2. Speichertechnik: Microsoft entwickelt Nanochip für DNA-Speicher
    Speichertechnik
    Microsoft entwickelt Nanochip für DNA-Speicher

    Der neue Chip erreicht eine deutlich höhere Speicherdichte als bisher, was auch die Kosten für DNA-Speicher senken soll.

  3. Ikea Åskväder: Modulare Steckdosenleiste startet in Deutschland
    Ikea Åskväder
    Modulare Steckdosenleiste startet in Deutschland

    Die modulare Steckdosenleiste von Ikea ermöglicht viele Anpassungen und wird erstmals auf der Ikea-Webseite gelistet.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Saturn-Advent: Toshiba Canvio 6TB 88€ • KFA2 Geforce RTX 3070 OC 8GB 1.019€ • Netgear günstiger (u. a. 5-Port-Switch 16,89€) • Norton 360 Deluxe 2022 18,99€ • Gaming-Monitore zu Bestpreisen (u. a. Samsung G3 27" FHD 144Hz 219€) • Spiele günstiger (u. a. Hades PS5 15,99€) [Werbung]
    •  /