ChatGPT, Bard und Co: Bullshit, der (e)skaliert

ChatGPT und andere populäre KI-Systeme werden uns weder alle arbeitslos machen noch das Denken und Handeln abnehmen. Sie werden aber unsere Gesellschaft verändern – nicht zum Guten.

Ein Essay von Jürgen Geuter veröffentlicht am
Mehr Bullshit durch KI?
Mehr Bullshit durch KI? (Bild: Pixabay)

"KI" ist gerade wieder auf der Spitze eines Hype Cycles. Das heißt, die Versprechen (oder Bedrohungen) dieser Systeme, insbesondere der sogenannten Large Language Models (LLMs) dominieren nicht nur die Seiten klassischer Tech-Publikationen, sondern beschäftigen vom Feuilleton bis zu den Wirtschaftsteilen nahezu alle größeren Zeitungen und Magazine.

Inhalt:
  1. ChatGPT, Bard und Co: Bullshit, der (e)skaliert
  2. Was sein könnte und was ist
  3. Das Versprechen der Automatisierung
  4. Die Zukunft

Werden diese Systeme uns alle arbeitslos machen? Sind sie die Vorstufe zu starker KI, also Computersystemen, die wirklich eigenständig denken und handeln können? Werden sie zu Umwälzungen in unseren Gesellschaften und Wirtschaften führen? Die Antworten sind nein, nein und ja – aber vielleicht nicht aus den Gründen, die offensichtlich sind.

Anmerkung: KI ist nicht so sehr ein technisches Thema als ein Narrativ, daher setze ich KI sonst immer in Anführungszeichen. Zur einfacheren Lesbarkeit des Textes wird darauf im Folgenden verzichtet.

Rasende technische Innovation?

2017 veröffentlichte ein Forscherteam von Google Brain (dem Teil von Google Research, der sich mit maschineller Intelligenz beschäftigt) unter dem Titel Attention Is All You Need ein Paper, dessen Relevanz sich für den Mainstream erst in den letzten Jahren, wenn nicht gar Monaten herausgestellt hat.

Die Wissenschaftlerinnen und Wissenschaftler stellten mit den sogenannten Transformern eine neue Architektur für Machine Learning Modelle vor, die die Basis der meisten heute populären KI-Systeme ist: ChatGPT, Stable Diffusion und andere lassen sich mehr oder weniger direkt auf dieses Paper zurückführen.

Die Entwicklung neuer Language Models geht mit großer Geschwindigkeit voran: ChatGPT, also OpenAIs älteres GTP-3 Modell mit einigen Erweiterungen, ist nun schon einige Monate alt, Google verkündete vor einigen Wochen sein neues Modell namens Bard. Meta kündigte vor wenigen Tagen ein eigenes Mammut-Modell Llama an – und musste direkt zuschauen, wie es komplett geleakt und von ambitionierten Entwicklerinnen und Entwicklern adaptiert und integriert wurde.

Heute, wenige Tage nach dem Leak, haben Menschen Llama auf Raspberry Pis und Smartphones ans Laufen gebracht.

Die offenen Innovationen sehen wir dabei maßgeblich im Bereich der Inferenz, das heißt der Anwendung der trainierten Modelle: Durch cleveres Re-Encoden oder die Kombination bestehender Architekturen werden ursprünglich für massive Infrastrukturen oder zumindest spezialisierte Hardware geplante Netze auf recht erschwinglicher Hardware auch für Normaluser nutzbar. Durch einfache UIs und fertige Installer können sie die Systeme leicht ausprobieren, ohne dafür einen Anbieter wie OpenAI bezahlen zu müssen.

Die wissenschaftlichen Innovationen sind noch begrenzt

Doch der schnellen Bewegung auf der Inferenzseite steht immer noch eine gewisse Trägheit auf der Trainingsseite gegenüber: Um die heute etablierten Modelle mit Milliarden von Parametern trainieren zu können, ist neben dem Zugang zu einer immensen Menge Trainingsdaten und geeigneter Hardware auch ein immenser Energieaufwand nötig.

Das Training ist daher vor allem großen Anbietern wie Google, OpenAI, Microsoft (deren Infrastruktur OpenAI nutzt), Meta oder auch Baidu vorbehalten. Daneben gibt es einige wenige aus dem universitären Kontext entstandene offene Initiativen wie EleutherAI, die über Forschungsinfrastrukturen genug Computing Power aufbringen können.

Der Markt scheint sich mit unglaublicher Geschwindigkeit zu bewegen, die wissenschaftlichen Innovationen hingegen sind noch begrenzt: Wir sehen eher eine iterative Verbesserung eines bestehenden Ansatzes mit kleineren Adaptionen zur Anwendung auf neue Bereiche (zum Beispiel die Nachahmung der Stimme einer Person) und einer optimierten Usability.

Die Marktdominanz der großen Anbieter entspringt also gar nicht unbedingt ihrer besonderen Kompetenz und Forschung. Eher fungieren die Infrastrukturkosten und die nötigen Datenmengen, um ernstzunehmende, leistungsfähige Modelle zu trainieren, als Ausschlusskriterium: Ein Sprachmodell zu entwickeln, ist sehr einfach, nur haben sehr wenige die Mittel, die auf zwischen 4,5 und 12 Millionen US-Dollar geschätzten, benötigten Kosten für die Trainingsprozesse aufzubringen.

Plötzlich KI-Firma

Die geringe technische Hürde zeigt sich auch daran, wie schnell diverse Firmen jenseits von Google/Alphabet sich binnen Tagen zu KI-Firmen umgelabelt haben: Neben Microsoft, das durch die schon länger existierende Kooperation mit beziehungsweise der Investition in OpenAI eine gewisse Glaubwürdigkeit besitzt, führte Meta vor wenigen Tagen eine Top-level Product Group Focused on Generative AI ein.

Das Chat-Werkzeug Discord führte – zum Missfallen eines Großteils der Nutzerschaft – diverse KI-Tools ein. KI ist so einfach zu mieten, selbst zu betreiben und weiterzuentwickeln, dass sich gefühlt jedes Unternehmen am Markt als KI-Unternehmen präsentiert, mit wachsenden Feature- und Kompetenzversprechen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Was sein könnte und was ist 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


yinyangkoi 21. Mär 2023 / Themenstart

Ja ist ja nicht für immer

leonardo-nav 20. Mär 2023 / Themenstart

Ja, die paar Ausnahmen. Sicherlich gäbe es auch ohne Max Planck und sein Planck'sches...

gadthrawn 20. Mär 2023 / Themenstart

Erdnussbutter. Es dauert halt nur eine Weile. Hat aber noch niemand auf Dauer überlebt.

gadthrawn 20. Mär 2023 / Themenstart

Lustigerweise wird es gerade da schon lange und häufig verwendet. Um z.B. Sprache...

Kommentieren



Aktuell auf der Startseite von Golem.de
Entlassungen bei Techfirmen
Weniger Manager sind besser

Entlassungen sind schlimm, aber die Begründungen dafür etwa von Meta kann ich zum Teil verstehen. Auch die Forderungen nach Rückkehr ins Büro finde ich richtig.
Ein IMHO von Brandur Leach

Entlassungen bei Techfirmen: Weniger Manager sind besser
Artikel
  1. Reddit: Stundenlanger Ausfall, weil niemand mehr den Code kennt
    Reddit
    Stundenlanger Ausfall, weil niemand mehr den Code kennt

    Die Analyse eines schwerwiegenden Ausfalls bei Reddit zeigt, wie kritisch institutionelles Wissen sein kann.

  2. Neue Fire TV mit Alexa von Amazon mit bis zu 250 Euro Rabatt
     
    Neue Fire TV mit Alexa von Amazon mit bis zu 250 Euro Rabatt

    Amazon hat gestern seine neuen Modelle des Fire TV mit Alexa vorgestellt. Zum Vorverkauf gibt es die verschiedenen Geräte mit hohen Rabatten.
    Ausgewählte Angebote des E-Commerce-Teams

  3. Smartwatch: Huawei will mit Watch Ultimate ins Premiumsegment
    Smartwatch
    Huawei will mit Watch Ultimate ins Premiumsegment

    Huaweis Watch Ultimate ist aus einer sehr widerstandsfähigen Legierung gefertigt und unterstützt technisches Tauchen sowie Satellitenkommunikation.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Ryzen 9 7900X3D 619€ • Crucial SSD 2TB (PS5) 158€ • Neu: Amazon Smart TVs ab 189€ • Nur bis 24.03.: 38GB Allnet-Flat 12,99€ • MindStar: Ryzen 9 5900X 319€ • Nintendo Switch inkl. Spiel & Goodie 288€ • NBB Black Weeks: Rabatte bis 60% • PS5 + Spiel 569€ • LG OLED TV -57% [Werbung]
    •  /