CO2-Ausstoß von ChatGPT und Co: Klimakiller künstliche Intelligenz?

Mit ChatGPT oder Midjourney hat KI den Normalnutzer erreicht. Was kaum jemanden interessiert: der ökologische Fußabdruck. Golem.de hat nachgerechnet und bei drei Forschern nachgefragt.

Artikel von Florian Zandt veröffentlicht am
Technik und ihre Auswirkungen auf die Umwelt - auch bei KIs ist das ein Thema.
Technik und ihre Auswirkungen auf die Umwelt - auch bei KIs ist das ein Thema. (Bild: Pixabay)

Lange Zeit liefen Natural Language Processing und andere Machine-Learning-Prozesse eher unbemerkt als Unterbau für komplexere Programme mit, waren in Chatbots oder Whatsapp-Antwortvorschlägen versteckt oder wurden in der Forschung genutzt. Seit dem kometenhaften Aufstieg von ChatGPT und Co. versuchen sich täglich Millionen reguläre Nutzer selbst an der KI-gestützten Erstellung von Texten und Grafiken.

Inhalt:
  1. CO2-Ausstoß von ChatGPT und Co: Klimakiller künstliche Intelligenz?
  2. Menschliche Leistung vs. KI-Generierung

Einschätzungen zu den finanziellen Potenzialen, den rechtlichen Fallstricken und den technologischen Kapazitäten der KI-gesteuerten Content-Generatoren gibt es genug. Dabei spielen in das Trainieren der Modelle und das gleichzeitige Ausführen hunderttausender Prompts noch zwei andere, in Zeiten des Klimawandels wichtige Faktoren hinein: der Stromverbrauch und der CO₂-Ausstoß. Ist die Nutzung von zur Massentauglichkeit hochskalierten KI-Anwendungen in einer Post- CO₂-Welt überhaupt noch sinnvoll?

Spielzeuge gegen das Klima

"Momentan sind diese Anwendungen wie Spielzeuge, die zu einem erhöhten CO₂-Ausstoß ohne allzu großen Mehrwert beitragen", erklärt Jeremiah Milbauer. Milbauer forscht mit seinen Kollegen Jared Fernandez und Clara Na an der Carnegie-Mellon-Universität in Pittsburgh zum Thema Demokratisierung von Natural Language Processing und Machine Learning.

"Groß angelegte KI-Tools könnten in Zukunft allerdings beispielsweise Fortschritte in Sachen Energiespeicherung unterstützen und für die Gesellschaft vorteilhaft eingesetzt werden, etwa wenn die Energieproduktion den Bedarf übersteigt." Andererseits besteht laut Milbauer auch die Gefahr, dass das Ausmaß der nötigen Infrastruktur und Rechenleistung dafür sorgt, dass nur noch große, monetarisierbare Märkte versorgt werden und benachteiligte Gruppen von den Fortschritten ausgeschlossen werden.

Tatsächlich befinden sich die meisten Rechenzentren, mit deren Hilfe beliebte Modelle wie Stable Diffusion und GPT-3 trainiert wurden, in den USA. Sie laufen je nach Umgebungstemperatur mal mehr, mal weniger effizient und nutzen mal mehr, mal weniger Strom aus erneuerbaren Energien.

Laut der Open-Source-KI-Dokumentationsseite Hugging Face wurde das Modell Stable Diffusion v2 beispielsweise 200.000 Stunden über ein Rechenzentrum von Amazon Web Services an der US-Ostküste trainiert und erzeugte dabei 15 Tonnen CO₂-Äquivalent. 2017 liefen die AWS-Serverfarmen laut einer Greenpeace-Studie insgesamt zu 17 Prozent mit grünem Strom.

ChatGPT, die große Unbekannte

"Es ist schwer, den Stromverbrauch und die Umweltbelastung von Anwendungen wie Codex, ChatGPT oder Dall-E 2 zu ermitteln, weil die entsprechenden Details nicht öffentlich gemacht wurden", erklärt Jared Fernandez. "Für ein einmaliges, vollständiges GPT-3-Training wird allerdings von einer CO₂-Belastung von 552 Tonnen ausgegangen."

Zum Vergleich: Ein Macbook Pro mit 14 Zoll schlüge von der Herstellung über die Nutzung bis zur Entsorgung mit 271 Kilogramm CO₂-Äquivalent zu Buche, ein Fluggast von New York nach San Francisco und zurück je nach Airline zwischen 500 Kilogramm und einer Tonne. Die Durchschnittsemissionen aller 2022 in Deutschland angemeldeten Pkw betrugen bei 10.000 Kilometer Fahrleistung pro Jahr und Fahrzeug etwa 1,1 Tonnen.

Na ergänzt ein weiteres Beispiel: "Um diese Zahlen zu veranschaulichen: Ein einziges, komplettes Training von Stable Diffusion verbraucht so viel wie zwei US-Haushalte pro Jahr." Da im Vorfeld des finalen Trainings jedes einzelnen Modells vermutlich weitere Probetrainings stattgefunden hätten, liege der tatsächliche Ausstoß allerdings voraussichtlich deutlich höher.

"Das Trainieren von Modellen stellt normalerweise einen einmaligen, relativen hohen Kostenpunkt dar. Gegen die kombinierte Ausführung, genannt Inference, über die gesamte Laufzeit eines Modells ist das allerdings gar nichts", sagt Na. Laut der Arbeitsgruppe würde die verbrauchte Arbeitsleistung im Bereich KI bei Meta zu 70 Prozent auf tatsächliche Ausführung von fertig trainierten Modellen fallen, bei Google seien es 60 Prozent. Im gesamten Cloud-Betrieb sei Inference Schätzungen zufolge für 90 Prozent des Rechenaufwands von Machine-Learning-Anwendungen verantwortlich.

Potenzielle Ungenauigkeit bei Schätzungen hin, mangelnde Detaildatenlage her: KI-Anwendungen wie Midjourney, ChatGPT oder Dall-E 2 haben während ihrer gesamten Lebensdauer einen erheblichen Einfluss auf die Umwelt. Primär liegt das daran, dass sie darauf ausgerichtet sind, möglichst vielen Menschen Zugriff auf ihre Dienste zu bieten. Aber wie macht sich das im konkreten Alltag bemerkbar? Und sind Stromverbrauch und CO₂-Ausstoß mit denen konventioneller Arbeit von Grafikdesignern, Textern oder Programmierern vergleichbar?

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Menschliche Leistung vs. KI-Generierung 
  1. 1
  2. 2
  3.  


yinyangkoi 22. Feb 2023 / Themenstart

Krypto wäre besser für das Klima statt den Servern in den Banken. Strom muss verbraucht...

altuser 22. Feb 2023 / Themenstart

Und was treibt Dich her? Dein Kommentar zementiert doch nur ein weiteres Stück die...

altuser 22. Feb 2023 / Themenstart

Es gibt Taschenbücher, die Werbung enthalten (bezahlte, nicht nur Eigenwerbung des...

Gormenghast 22. Feb 2023 / Themenstart

Basierend auf den Galaxus-Kompensationszahlen ist das KI-Training im Vergleich ein Witz...

Kommentieren



Aktuell auf der Startseite von Golem.de
X-59
Nachfolger von Concorde ermöglicht leisen Überschallknall

Das raketenbetriebene X-59-Flugzeug soll noch in 2023 starten. Trotz Überschallgeschwindigkeit soll der Concorde-Nachfolger der Nasa leise fliegen.

X-59: Nachfolger von Concorde ermöglicht leisen Überschallknall
Artikel
  1. WaveOne: Apple erwirbt KI-Startup für Videokomprimierung
    WaveOne
    Apple erwirbt KI-Startup für Videokomprimierung

    Apple hat WaveOne übernommen. Das US-Unternehmen nutzt KI-Algorithmen für die Videokompression und könnte für Apple TV+ nützlich sein.

  2. GPT-4: Funken von allgemeiner künstlicher Intelligenz
    GPT-4
    "Funken von allgemeiner künstlicher Intelligenz"

    Microsoft Research enthüllt eine umfangreiche Sammlung von Fallbeispielen, die mit dem ChatGPT-Nachfolger GPT-4 erzeugt wurden. Die Ergebnisse sind beeindruckend.
    Eine Analyse von Helmut Linde

  3. Elektroauto: Fisker Ocean Extreme kommt auf über 700 Kilometer Reichweite
    Elektroauto
    Fisker Ocean Extreme kommt auf über 700 Kilometer Reichweite

    Das Topmodell des Elektroautos Fisker Ocean erzielt eine WLTP-Reichweite von 707 Kilometern und ist damit das reichweitenstärkste SUV auf dem deutschen Markt.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Große Amazon Rabatt-Aktion • Radeon 7900 XTX 24 GB günstig wie nie • Alexa-Sale bei Amazon • Kingston Fury 16GB DDR4-3600 43,90€ • MindStar: AMD Ryzen 7 5800X3D 309€ • Nur noch heute: Cyberport Jubiläums-Deals • 3 Spiele kaufen, 2 zahlen • MediaMarkt-Osterangebote [Werbung]
    •  /