Was sein könnte und was ist

In den Feuilletons und Philosophie-orientierten Publikationen kapriziert sich die Debatte häufig auf abstrakte Meditationen über die Struktur von Intelligenz und Denken. Also auf die Frage, ob KIs, die einen Intelligenztest mit guten Punktzahlen bestehen, nicht doch auch intelligent sein müssen – ob Searle's Chinese Room-Argument nun trägt oder nicht. Diese Debatten machen sicher Spaß und klingen sehr gewichtig, den Mainstream erreichen diese Fragen allerdings kaum.

Die breite öffentliche Debatte spaltet sich, wie so häufig, entlang der Segen-oder-Fluch-Trennlinie: KI-Anbieter, (Neu-)Experten und Evangelisten sehen eine Welt kommen, wie sie sie aus Science-Fiction-Filmen kennen. Mit KI-Ärzten, die in Sekundenbruchteilen Diagnosen stellen, KI-Assistenten, die für uns die langweiligen Pflichten des Alltags, die diversen kleinen Kommunikationsakte erledigen, die das Funktionieren unseres Lebens ermöglichen.

KI soll unsere Mails schreiben und lesen, wir alle werden quasi CEOs unseres Lebens, nur noch mit strategischen Entscheidungen belastet, All Watched Over by Machines of Loving Grace.

Die andere Seite sieht unser aller Jobs in Gefahr. KIs werden schneller und billiger arbeiten als wir; fehlerfrei, ohne Pause und ohne zu murren werden sie uns ersetzen, um am Ende noch intelligenter zu werden als wir. Interessanterweise werden die maßlosen Potenziale von KI-Systemen genauso beschrieben wie bei den Evangelisten: KIs können alles, nur dass das als Problem für uns beschrieben wird, weil wir plötzlich überflüssig werden.

Beide Perspektiven verkennen allerdings die Realität von KI-Systemen – ein Problem, das auch die unverbindliche Es-gibt-sowohl-Chancen-als-auch-Risiken-Perspektive nicht zu lösen vermag.

Was tun die Systeme?

Statt die Implementierung von KI-Systemen zu betrachten, die Architekturen, mit denen die statistischen Berechnungen miteinander verschaltet werden, ist es sehr viel ergiebiger, den Fokus auf die Wirkungen in der Welt zu legen: Was tun diese Softwaresysteme? Was produzieren sie?

Der Autor Ted Chiang beschrieb ChatGPT vor einigen Wochen als Blurry JPEG of the Internet: Trainiert auf einer Datenbasis aus Texten aus dem Internet nutzt er die Metapher von verlustbehafteter Komprimierung, um zu beschreiben, was ChatGPT (und vergleichbare Systeme) tun: Sie reproduzieren ungefähr das, was sie im Internet gesehen haben.

Strukturen und Muster, die wir auch im Internet finden, finden sich ziemlich direkt auch in den generierten Texten: Fragen nach einer Person generieren Texte, die strukturell an den ersten Abschnitt eines Wikipedia-Artikels erinnern. Schnell wiederholen sich – trotz unterschiedlicher verwendeter Begriffe – textliche Strukturen. Auch bei Bildgeneratoren wie Midjourney finden sich bestimmte dominante Ästhetiken, die sich aus den Formen, die auf populären Bilddatenbanken verbreitet sind, immer wieder, wie der Medienwissenschaftler Roland Meyer kürzlich feststellte.

Genau deshalb sind Textgeneratoren in bestimmten Domänen so leistungsfähig: Das auf OpenAIs Technologien aufsetzende Github Copilot generiert kompletten, funktionierenden Code für nicht-triviale Aufgaben wie: Generiere mir eine Methode, die die Anzahl der Likes eines Youtube Videos liefert.

Ist das Kreativität? Oder lügt ChatGPT?

Copilot profitiert hier – neben unter zweifelhaften rechtlichen Bedingungen ausgewertetem Quellcode freier Software – davon, dass Programmierung auf Floskeln, auf Klischees basiert: Was beim Schreiben eines Buches schlechter Stil wäre, nämlich das formelhafte Anwenden der immer gleichen Sprachfiguren und Formulierungen ist genau das, was robusten Quellcode charakterisiert. Software Patterns sind Klischees für Code. Weil in Code Überraschungen problematisch sind. Ein guter Text hingegen kommt ohne Überraschungen nicht aus.

Die KI-Systeme ahmen eine Form nach, einen Stil. Und das bekannterweise ohne irgendeinen Bezug zur Realität oder Wahrheit: ChatGPT generiert mit großem Selbstbewußtsein nicht existierende Referenzen für seine Ergebnisse, erfindet Produkte und liefert Symptombeschreibungen für nicht existierende Krankheiten. Copilot generiert Code; aber ob die API, die hingeneriert wurde, überhaupt noch existiert oder ob die Art sie abzufragen sicher ist, weiß man nicht. Ist das Kreativität? Oder lügt ChatGPT?

Nein. Lügen setzen ja das Wissen um die Unwahrheit der eigenen Position voraus. Das emulieren einer plausiblen Form komplett losgelöst von jedem Bezug zur Wahrheit ist etwas ganz anderes. In seinem Essay On Bullshit (Über Bullshit) definierte der Philosoph Harry Frankfurt genau diese Kommunikationsform ohne Bezug zur Wahrheit als Bullshit. Für ihn ist Bullshit eine Gefahr für die Zivilisation, denn Bullshitters verschleierten Wahrheiten noch mehr als Lügner.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 ChatGPT, Bard und Co: Bullshit, der (e)skaliertDas Versprechen der Automatisierung 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


lunarix 25. Mär 2023 / Themenstart

Internet-Suchmaschinen liefern auch keine optimalen Ergebnisse, sind sie deshalb...

yinyangkoi 21. Mär 2023 / Themenstart

Ja ist ja nicht für immer

leonardo-nav 20. Mär 2023 / Themenstart

Ja, die paar Ausnahmen. Sicherlich gäbe es auch ohne Max Planck und sein Planck'sches...

gadthrawn 20. Mär 2023 / Themenstart

Erdnussbutter. Es dauert halt nur eine Weile. Hat aber noch niemand auf Dauer überlebt.

Kommentieren



Aktuell auf der Startseite von Golem.de
Nammo
TikTok-Strombedarf bremst Expansion von Munitionshersteller

Der norwegische Rüstungskonzern Nammo kann nicht expandieren, weil ein Tiktok-Rechenzentrum die restliche Stromkapazität der Umgebung benötigt.

Nammo: TikTok-Strombedarf bremst Expansion von Munitionshersteller
Artikel
  1. GPT-4: Funken von allgemeiner künstlicher Intelligenz
    GPT-4
    "Funken von allgemeiner künstlicher Intelligenz"

    Microsoft Research enthüllt eine umfangreiche Sammlung von Fallbeispielen, die mit dem ChatGPT-Nachfolger GPT-4 erzeugt wurden. Die Ergebnisse sind beeindruckend.
    Eine Analyse von Helmut Linde

  2. X-59: Nachfolger von Concorde ermöglicht leisen Überschallknall
    X-59
    Nachfolger von Concorde ermöglicht leisen Überschallknall

    Das raketenbetriebene X-59-Flugzeug soll noch in 2023 starten. Trotz Überschallgeschwindigkeit soll der Concorde-Nachfolger der Nasa leise fliegen.

  3. Jugendschutz: Behörden gehen verstärkt gegen Twitter-Pornografie vor
    Jugendschutz
    Behörden gehen verstärkt gegen Twitter-Pornografie vor

    Mit einem KI-Tool suchen Medienanstalten nach jugendgefährdenden Inhalten. Derzeit erhalten Betreiber ungeschützter Accounts Briefe von der Polizei.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Große Amazon Rabatt-Aktion • Monitore bis -50% • Windows Week • Logitech bis -49% • Radeon 7900 XTX 24 GB günstig wie nie • Alexa-Sale bei Amazon • Kingston Fury 16GB DDR4-3600 43,90€ • MindStar: AMD Ryzen 7 5800X3D 309€ • 3 Spiele kaufen, 2 zahlen • MM-Osterangebote [Werbung]
    •  /