Was sein könnte und was ist
In den Feuilletons und Philosophie-orientierten Publikationen kapriziert sich die Debatte häufig auf abstrakte Meditationen über die Struktur von Intelligenz und Denken. Also auf die Frage, ob KIs, die einen Intelligenztest mit guten Punktzahlen bestehen, nicht doch auch intelligent sein müssen – ob Searle's Chinese Room-Argument nun trägt oder nicht. Diese Debatten machen sicher Spaß und klingen sehr gewichtig, den Mainstream erreichen diese Fragen allerdings kaum.
Die breite öffentliche Debatte spaltet sich, wie so häufig, entlang der Segen-oder-Fluch-Trennlinie: KI-Anbieter, (Neu-)Experten und Evangelisten sehen eine Welt kommen, wie sie sie aus Science-Fiction-Filmen kennen. Mit KI-Ärzten, die in Sekundenbruchteilen Diagnosen stellen, KI-Assistenten, die für uns die langweiligen Pflichten des Alltags, die diversen kleinen Kommunikationsakte erledigen, die das Funktionieren unseres Lebens ermöglichen.
KI soll unsere Mails schreiben und lesen, wir alle werden quasi CEOs unseres Lebens, nur noch mit strategischen Entscheidungen belastet, All Watched Over by Machines of Loving Grace.
Die andere Seite sieht unser aller Jobs in Gefahr. KIs werden schneller und billiger arbeiten als wir; fehlerfrei, ohne Pause und ohne zu murren werden sie uns ersetzen, um am Ende noch intelligenter zu werden als wir. Interessanterweise werden die maßlosen Potenziale von KI-Systemen genauso beschrieben wie bei den Evangelisten: KIs können alles, nur dass das als Problem für uns beschrieben wird, weil wir plötzlich überflüssig werden.
Beide Perspektiven verkennen allerdings die Realität von KI-Systemen – ein Problem, das auch die unverbindliche Es-gibt-sowohl-Chancen-als-auch-Risiken-Perspektive nicht zu lösen vermag.
Was tun die Systeme?
Statt die Implementierung von KI-Systemen zu betrachten, die Architekturen, mit denen die statistischen Berechnungen miteinander verschaltet werden, ist es sehr viel ergiebiger, den Fokus auf die Wirkungen in der Welt zu legen: Was tun diese Softwaresysteme? Was produzieren sie?
Der Autor Ted Chiang beschrieb ChatGPT vor einigen Wochen als Blurry JPEG of the Internet: Trainiert auf einer Datenbasis aus Texten aus dem Internet nutzt er die Metapher von verlustbehafteter Komprimierung, um zu beschreiben, was ChatGPT (und vergleichbare Systeme) tun: Sie reproduzieren ungefähr das, was sie im Internet gesehen haben.
Strukturen und Muster, die wir auch im Internet finden, finden sich ziemlich direkt auch in den generierten Texten: Fragen nach einer Person generieren Texte, die strukturell an den ersten Abschnitt eines Wikipedia-Artikels erinnern. Schnell wiederholen sich – trotz unterschiedlicher verwendeter Begriffe – textliche Strukturen. Auch bei Bildgeneratoren wie Midjourney finden sich bestimmte dominante Ästhetiken, die sich aus den Formen, die auf populären Bilddatenbanken verbreitet sind, immer wieder, wie der Medienwissenschaftler Roland Meyer kürzlich feststellte.
Genau deshalb sind Textgeneratoren in bestimmten Domänen so leistungsfähig: Das auf OpenAIs Technologien aufsetzende Github Copilot generiert kompletten, funktionierenden Code für nicht-triviale Aufgaben wie: Generiere mir eine Methode, die die Anzahl der Likes eines Youtube Videos liefert.
Ist das Kreativität? Oder lügt ChatGPT?
Copilot profitiert hier – neben unter zweifelhaften rechtlichen Bedingungen ausgewertetem Quellcode freier Software – davon, dass Programmierung auf Floskeln, auf Klischees basiert: Was beim Schreiben eines Buches schlechter Stil wäre, nämlich das formelhafte Anwenden der immer gleichen Sprachfiguren und Formulierungen ist genau das, was robusten Quellcode charakterisiert. Software Patterns sind Klischees für Code. Weil in Code Überraschungen problematisch sind. Ein guter Text hingegen kommt ohne Überraschungen nicht aus.
Die KI-Systeme ahmen eine Form nach, einen Stil. Und das bekannterweise ohne irgendeinen Bezug zur Realität oder Wahrheit: ChatGPT generiert mit großem Selbstbewußtsein nicht existierende Referenzen für seine Ergebnisse, erfindet Produkte und liefert Symptombeschreibungen für nicht existierende Krankheiten. Copilot generiert Code; aber ob die API, die hingeneriert wurde, überhaupt noch existiert oder ob die Art sie abzufragen sicher ist, weiß man nicht. Ist das Kreativität? Oder lügt ChatGPT?
Nein. Lügen setzen ja das Wissen um die Unwahrheit der eigenen Position voraus. Das emulieren einer plausiblen Form komplett losgelöst von jedem Bezug zur Wahrheit ist etwas ganz anderes. In seinem Essay On Bullshit (Über Bullshit) definierte der Philosoph Harry Frankfurt genau diese Kommunikationsform ohne Bezug zur Wahrheit als Bullshit. Für ihn ist Bullshit eine Gefahr für die Zivilisation, denn Bullshitters verschleierten Wahrheiten noch mehr als Lügner.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
ChatGPT, Bard und Co: Bullshit, der (e)skaliert | Das Versprechen der Automatisierung |
Internet-Suchmaschinen liefern auch keine optimalen Ergebnisse, sind sie deshalb...
Ja ist ja nicht für immer
Ja, die paar Ausnahmen. Sicherlich gäbe es auch ohne Max Planck und sein Planck'sches...
Erdnussbutter. Es dauert halt nur eine Weile. Hat aber noch niemand auf Dauer überlebt.
Kommentieren