Das Versprechen der Automatisierung
Am Ende geht es bei diesen KI-Narrativen immer um das Versprechen von Automatisierung: KIs sollen langweilige Tätigkeiten automatisieren und uns so produktiver machen. Warum soll ich mir selbst einen Text ausdenken, wenn ChatGPT ihn mir schreiben kann? Warum soll ich selbst programmieren, wenn Copilot mir einen großen Haufen Code einfach generieren kann? Werden wir alle in Zukunft einfach viel weniger arbeiten müssen, um unsere Aufgaben zu erledigen?
1985 schrieb Ruth Schwartz Cowan über die Effekte von Automatisierungen im Haushalt. Wasch- und Spülmaschinen, Staubsauger und Mikrowellen waren mit dem Versprechen beworben worden, die lästigen Tätigkeiten im Haushalt einfacher zu machen. Doch in More Work for Mother zeigte Schwartz Cowan nicht nur, dass die Maschinen bestehende strukturelle Diskriminierungen verstärkten und die Hausarbeit noch einseitiger auf Frauen verschoben, sondern auch, dass die Menge der Arbeit keineswegs geringer wurde. Im Gegenteil: Die Möglichkeiten der Automatisierung steigerten die Anforderungen an die Qualität so sehr, dass Frauen oft noch mehr Zeit in den Haushalt stecken mussten als vorher.
KIs sollen aber nicht nur uns durch die Effizienzgewinne produktiver machen, sondern werden auch immer wieder herangezogen, um politische und soziale Probleme (zum Beispiel die Coronapandemie) zu lösen: KIs finden Lösungen für die Klimakrise, KIs organisieren und strukturieren die Pflege in Altenheimen, KIs unterrichten Kinder, KIs erkennen Desinformation (die vorher durch KIs generiert wurde). Sind das realistische Erwartungen?
Die Behauptung, KIs, deren Betrieb CO2-Bilanzen hat, wie wir sie sonst nur vom Bitcoin Mining kennen, würden irgendwie beim Handling der Klimakrise helfen, ist nicht nur auf den ersten Blick absurd. Es ist eine in Technikoffenheit gekleidete Form von Climate Change Denial.
Die andere Frage ist: Können KIs soziale Funktionen übernehmen? Der Dienst Koko, ein gemeinnütziges "emotional support Tool", an das man sich in Krisen wenden kann, hatte die Antworten, die die Betreuer im Gespräch mit Hilfesuchenden gaben, durch GPT-3 vorschreiben lassen.
Das Ergebnis überrascht niemanden, der schon mal mit Menschen zu tun hatte: Sobald den Menschen gesagt wurde, dass die Antworten aus einer Maschine kamen, hatten sie keine Wirkung mehr; menschliche Kommunikation ist mehr als die Übermittlung von Fakten und wer Empathie sucht, möchte sie nicht aus einem Bullshit-Generator.
Schließlich stellt sich auch die Frage nach dem Automation Paradox. Es besagt, dass, je mehr ein System automatisiert ist, desto komplexer und wichtiger die noch nötigen menschlichen Eingriffe sind. Aber greifen Menschen bei den vollautomatischen KI-Systemen wie ChatGPT überhaupt ein?
Unsichtbare Kräfte
Das Versprechen von KI ist, dass wir menschliche Arbeit durch maschinelle ersetzen können. Dabei hat der Begriff "ersetzen" vor allem eine verschleiernde Funktion, er erzeugt ein Unsichtbarkeitsfeld. Denn er versteckt all die menschliche Arbeit, die in den Betrieb dieser Systeme fließt. Und ich spreche hier nicht von hochbezahlten KI-Experten in Tech-Unternehmen.
Als Microsoft 2016 seinen Chatbot Tay auf Twitter live schaltete, dauerte es weniger als 24 Stunden, bis dieser gelernt hatte, rassistisch und antisemitisch zu sein. Dass wir ähnliche Geschichten bisher viel weniger von OpenAI's ChatGPT gehört haben, liegt allerdings nicht daran, dass ihr trainiertes neuronales Netzwerk solche Inhalte nicht generiert.
OpenAI nahm sich Tausende und Abertausende Beispiele toxischer Textschnipsel voller Rassismus, Antisemitismus, Beschreibungen sexueller Gewalt auch gegen Minderjährige vor und bezahlte Menschen in Kenia Hungerlöhne, um die unerwünschten Inhalte zu taggen und damit als Leitplanken an das große ChatGPT System anzuschrauben.
ChatGPT generiert weiterhin intern problematische Inhalte, die kenianischen Arbeiter haben aber die Filter gefüttert, die es dem System erlauben, Problematisches nicht auszugeben, außer man trickst sie mit einfachsten Methoden aus.
Und wer hat all die Trainingsdaten erzeugt? Wer hat all den Text geschrieben, den OpenAI und andere jetzt verlustbehaftet komprimieren und monetarisieren? Wir alle, die ins Internet schreiben und keineswegs die Einwilligung gegeben haben, unsere Gedanken durch den Wolf zu drehen. Generatoren werden gerne als demokratisierend verkauft, weil plötzlich alle hübsche Bilder und lange Texte mittelmäßiger Qualität generieren können. Allerdings sind sie dazu nur in der Lage, indem sie die Arbeit von Menschen imitieren, die ihren Lebensunterhalt damit verdienen.
Bullshit ist an vielen Stellen gut genug
ChatGPT und andere Systeme generieren keine perfekten Ergebnisse, mit Leitplanken oder ohne, aber der Bullshit ist an vielen Stellen gut genug. Selbstverständlich verbreiten auch Menschen Bullshit, aber sie können grundsätzlich bessere Texte und weniger fehlerbehaftete Bilder erzeugen und tun das in der Realität auch. Aber die kosten auch mehr.
Dan McQuillan von der University of London schrieb dazu in seinem vielbeachteten Essay Wir kommen, um ChatGPT zu begraben, nicht um es zu lobpreisen: "Für diese Akteure [die Entwickler von KI-Systemen] besteht die verführerische Vision nicht in echter KI (was auch immer das sein mag), sondern in Technologien, die gut genug sind, um menschliche Arbeitskräfte zu ersetzen oder, was noch wichtiger ist, sie zu prekarisieren und zu untergraben." Es gehe nicht um echte KI mit brillanten Ergebnissen, es reichten passable Ergebnisse, um große Mengen von Menschen ökonomisch unter Druck zu setzen.
Schon heute ist es so, dass durch die Existenz von KI, selbst in Fällen, in denen sie niemals brauchbare Ergebnisse liefern könnte, ein extremer Preisdruck erzeugt wird. Die Existenz des Narrativs KI reicht für ein ökonomisches Race to the Bottom.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Was sein könnte und was ist | Die Zukunft |
Internet-Suchmaschinen liefern auch keine optimalen Ergebnisse, sind sie deshalb...
Ja ist ja nicht für immer
Ja, die paar Ausnahmen. Sicherlich gäbe es auch ohne Max Planck und sein Planck'sches...
Erdnussbutter. Es dauert halt nur eine Weile. Hat aber noch niemand auf Dauer überlebt.
Kommentieren