Die Zukunft
Gerade hat OpenAI seinen neuen Generator GPT-4 veröffentlicht. Mehr Parameter, mehr Daten, mehr Anwendungsbereiche, alles größer (inklusive des Trainingsaufwands und CO2-Impacts). Microsoft hat GPT-4 direkt in seine Suchmaschine integriert. Strukturell hat sich allerdings nichts geändert: GPT-4 produziert immer noch, nach eigenen Angaben von Microsoft, Bullshit.
Man wird es auch wieder dazu bringen können, rassistisch und sexistisch zu argumentieren und so weiter. Unterbezahlte Menschen werden wieder Leitplanken gebaut haben, aber es sind nie genug. Vielleicht hat Microsoft deshalb gerade sein lästiges Ethics-and-Society-Team gefeuert.
Die breite Verfügbarkeit dieser Netze wird die Menge von Spam auf jeder Ebene erhöhen. E-Mails, Artikel, Videos: Alles wird mit oft zweifelhafter Qualität aus den Generator-Netzwerken herausfallen und auf die Öffentlichkeit losgelassen. Die Lösung für all den KI-Spam werden die großen Plattformanbieter selbst anbieten: KI zur KI-Spam-Erkennung. Ein zirkuläres Geschäftsmodell, bei der man ein Problem für Profit erzeugt und dann die angebliche Lösung gleich mit anbietet.
Während viele heute selbst mit KIs experimentieren, wird es eine weitere Zentralisierung der Infrastrukturen geben: Die nötige Hardware ist teuer und skaliert erst ab einer gewissen Größe, außerdem werden die Erwartungen der Menschen natürlich auch immer anhand der Marketing-Materialen der großen Player wie OpenAI/Microsoft, Google und Meta wachsen. Außerdem wird es ein Zeichen der Technikkompetenz sein, als Firma den Sticker "Built with GPT-6" auf das eigene Produkt packen zu können. Es ist immerhin die neueste und größte und beste Version bisher!
Journalistische Plattformen werden zunehmend Textformen automatisieren und es wird dort eine noch höhere Texthomogenität entstehen: Berichte über den Aktienmarkt oder Sportberichte lassen sich schon lange recht erfolgreich generieren, wir werden dort Ausweitungen sehen. Die Texte werden dabei strukturell immer ähnlicher und austauschbarer werden, faktisch sind diese Texte nur zur einfacheren Lesbarkeit aufgeblähte JSON-Dateien – was bei einigen Textformen ja auch völlig ausreicht.
In der Kreativindustrie werden die Werkzeuge mit großer Intensität eingesetzt werden, weil sie teure, manuelle Tätigkeiten halbwegs passabel ersetzen können. Wir werden Werbekampagnen sehen, die komplett aus Generatoren kommen mit den visuellen und qualitativen Warzen, die das mit sich bringt: Models in großen Kampagnen werden sechs Finger haben und Ähnliches, und man wird sich damit abfinden als das neue Normal.
Offensichtlich nicht generierte Kampagnen werden sich vor allem im Premium-Sektor finden. Marginalisierte Menschen und Communities werden zunehmend mit automatisierten Systemen interagieren müssen, um ihre Anfragen zu stellen und Rechte zu verteidigen, anstatt sich an Menschen, die ihre Bedürfnisse zumindest im Grundsatz umfassender verstehen könnten, wenden zu dürfen. Wie viel Spaß das macht, haben wir alle schon mal erfahren, wenn wir auf einer Website mit einem Support-Chatbot interagieren mussten.
All das wird die Produktivität in einigen Branchen erhöhen, KI wird in mehr Domänen wandern und zur Normalität werden; alles auf Basis einer Technologie, die mit massiven Energieverbräuchen verbunden ist. Wir verbrennen Kohle für Bullshit im engsten Sinne.
Segen oder Fluch oder ?
Ich könnte diesen Essay jetzt einfach mit einer klassischen Mittelposition beenden. Wollte ich Technikkompetenz ausstrahlen, würde ich zum Beispiel sagen: "Ja, KIs haben Probleme mit problematischen Trainingsdaten, aber als Generatoren von Code oder zur Erzeugung visueller Inspirationen haben sie unglaubliche Potenziale." Wollte ich bedacht-kritisch wirken, würde ich vielleicht sagen: "Ja, KIs haben tolle Einsatzzwecke, aber sie sind unerklärbare Black-Boxes deren Betrieb unglaubliche Mengen von Strom verbraucht und Elektroschrott erzeugt." Ich halte beides nur für beschränkt nützlich. Ähnlich wie bei einem Chatbot wiederholt sich in diesen Klischees eine Form entkoppelt von materieller Realität.
KIs haben – wie andere Hype-Technologien auch – den Raum der Möglichkeiten verengt: Lösungen für diverse Problemfelder werden zunehmend standardmäßig in KIs und den Effizienzgewinnen, die sie versprechen gesucht. Wir stellen zum Beispiel fest, dass wir zu wenig Personal in der Pflege haben und werfen viel Geld darauf, durch KI mit den wenigen Personen – oder noch weniger Personen – das System am Laufen zu halten. Der Gedanke, dass Menschen vielleicht einfach ein Recht auf soziale Betreuung und nicht nur maschinengestützte Verwaltung haben, wird aus dem Raum des Denkbaren gedrängt.
Beide oben beschriebenen Formen, die affirmative wie die kritische, akzeptieren KI als gegeben, als alternativlos. Unsere möglichen Zukunftsvisionen müssen sich der Technologie unterordnen, wir müssen lernen, mit ChatGPT zu leben. Wir müssen uns, unsere Arbeitsweisen, unsere Wahrnehmung der Welt anpassen.
"KI geht nicht mehr weg" ist oft so oder ähnlich zu lesen. Aber es ist auch möglich, auf den Einsatz von KI zu verzichten. Aus moralischen Gründen, aus Gründen der Sicherstellung der Transparenz politischer Entscheidungen oder aus Gründen des Ressourcenverbrauchs. KIs mögen Convenience oder Effizienz bieten, aber das alleine ist keine Begründung. An der Supermarktkasse nicht zu bezahlen wäre auch bequemer als das Gegenteil, wir haben trotzdem entschieden, dass wir das nicht so handhaben wollen.
Auch Menschen machen Fehler – aber ist allen bewusst
Google selbst sagt, dass die gerade von Bing eingeführten KI-Suchen die Kosten für jede Suche um den Faktor 10 erhöhen würden. Die Suche würde damit wirtschaftlich unattraktiv oder müsste mit noch mehr Werbung zugepflastert werden. Selbstfahrende Autos sind seit 20 Jahren immer nur drei Jahre in der Zukunft, fahren aber eher wie jemand mit 4 Promille Alkohol im Blut. Github Copilot generiert dir deinen Code, aber verstehst du ihn gut genug, um sicher zu sein, dass er nicht voller Sicherheitslücken ist?
Natürlich gibt es diverse Einsatzszenarien für KI-Systeme. So lange Fehler irrelevant sind oder man händisch alle Ergebnisse prüfen kann, ist der Einsatz auch durchaus denkbar, als Unterstützungssystem für Fachleute zum Beispiel oder zur Unterhaltung. Wenn jedoch Entscheidungen getroffen werden, die echten Impact haben, wenn darüber entschieden wird, welche Menschen welche Leistungen bekommen, wenn essenzielle Informationen geliefert werden müssen, sind solche Systeme allerdings kaum vertretbar: Auch Menschen mögen Fehler machen, das ist allerdings allen bewusst.
KIs als Computerprogramme basieren auf echten Daten, kommen jedoch mit dem Nimbus von Objektivität und Wahrheitsanspruch daher. Dass man die Ergebnisse nicht erklären kann, stützt diese Aura nur: Die KI "findet die Wahrheiten in den Daten, die uns Menschen gar nicht zugänglich ist". Der hier schon zitierte Dan McQuillan nennt diesen Glauben an das Finden der Wahrheit hinter den Daten durch Statistik ''maschinellen Neoplatonismus''.
Effzienz an sich ist kein Wert
Die Abarbeitung an stochastischen Papageien und der Frage, ob sie nicht doch Intelligenz haben, hat vor allem die Funktion, ihren Einsatz als Entscheider zu legitimieren, ihnen Agency zuzusprechen, zu etablieren, dass KIs am Ende eben doch entscheiden dürfen. Dass intransparente automatisierte Prozesse und ihre Entwickler das Recht haben zu entscheiden, wie alles in unserer Welt abläuft ohne unsere politische Mitbestimmung.
Wir verlieren bei all diesen Debatten zu leicht den Zweck aus dem Blick, beschäftigen uns damit zu sehen, ob wir nicht doch scheinbar vorurteilsfrei KIs darüber entscheiden lassen können, wer jetzt eine bestimmte Leistung bekommt. Es wäre doch so effizient. Aber Effizienz an sich ist kein Wert.
Die kulturelle Logik der reinen Prozessoptimierung führt am Ende nicht zu freien Menschen, sondern richtet sich mehr oder weniger bewusst gegen die Grundlagen menschlichen Lebens und der Realität, presst eine komplexe, widersprüchliche, diverse, faszinierende Welt in Excel Sheets und Statistik. Wenn Technologie ein befreiender, bereichernder Aspekt unseres Lebens sein soll, müssen wir Menschen und Gesellschaften mit unseren Zielen und Werten im Zentrum stehen.
Der Raum unserer möglichen Zukunftsvisionen ist größer als die Zwangsjacke, die der Glaube an KI uns vorgibt. Die Erzählung der Alternativlosigkeit von KI soll uns einsperren in die geschlossenen, kostenpflichtigen Infrastrukturen großer Technologiekonzerne. Und ich bin sicher, dass uns da mehr einfällt. Jenseits des Bullshits.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Das Versprechen der Automatisierung |
"Sasha Lobo bei Lanz" - Ja wie kann da denn bitte etwas anderes als lupenreines...
Internet-Suchmaschinen liefern auch keine optimalen Ergebnisse, sind sie deshalb...
Ja ist ja nicht für immer
Ja, die paar Ausnahmen. Sicherlich gäbe es auch ohne Max Planck und sein Planck'sches...
Kommentieren