Klima: Künstliche Intelligenz boomt - CO2-Fußabdruck ebenfalls
Die Entwicklungen in der KI-Forschung benötigen jede Menge Strom. Doch für wie viel CO2-Ausstoß sie verantwortlich sind, ist unklar.

Die Entwicklung jedes neuen Chatbots und Bildgenerators erfordert eine Menge Strom. Ergo ist die Technologie für eine große und wachsende Menge an Kohlenstoffemissionen verantwortlich. Denn künstliche Intelligenz verbraucht mehr Energie als andere Formen der Datenverarbeitung.
Die Forscherin Sasha Luccioni hat sich in ihrem Paper Estimating the Carbon Footprint of Bloom, a 176B Parameter Language Model (Schätzung des Kohlenstoff-Fußabdrucks von Bloom, einem Sprachmodell mit 176B-Parametern) die Kohlenstoffauswirkungen von Bloom, einem Konkurrenten von OpenAIs autoregressiven Sprachmodell GPT-3, genauer angeschaut. Dasselbe hat sie für ChatGTP versucht, wobei ihr hier die nötigen Daten fehlten.
Mehr Transparenz gefordert
Das Anliegen von Luccioni ist, dass Unternehmen wie Google, Microsoft und OpenAI mehr Transparenz über den Stromverbrauch und damit einhergehenden Emissionen von ihren KI-Anwendungen liefern sollen.
Das Training von GPT-3 (GPT-4 soll nächste Woche bereits erscheinen) verbrauchte laut einem 2021 veröffentlichten Forschungspapier 1,287 Gigawattstunden – dem Stromverbrauch von 120 US-Haushalten in einem Jahr. Das sind 502 Tonnen Kohlenstoffemissionen, also etwa so viel wie 110 US-amerikanische Autos pro Jahr ausstoßen. Wobei die Art des Stroms, das ein Unternehmen bezieht, ebenfalls relevant für die Höhe der Emission relevant ist.
KI muss ständig neu trainiert werden
"Wenn man sein Modell nicht neu trainiert, hat man ein Modell, das nichts über Covid-19 weiß", sagte Emma Strubell, Professorin an der Carnegie Mellon University, die zu den ersten Forscherinnen gehörte, die sich mit dem Energieproblem der KI befassten.
Im Falle von Google verbraucht die künstliche Intelligenz 10 bis 15 Prozent des gesamten Stromverbrauchs des Unternehmens. Das entspreche für 2021 einem Verbrauch von circa 2,3 Terawattstunden, dem jährlichen Stromverbrauch aller Haushalte einer Stadt von der Größe Atlantas. Die großen Techfirmen versprechen zwar, die Klimaneutralität zu erreichen, benötigten aber auch künstliche Intelligenz, um diese umsetzen zu können.
Große Rechenprozesse
Das Training von KI läuft über Cloudanwendungen, die über viele Rechenzentren verteilt sind. Die meisten Rechenzentren verwenden Grafikprozessoren oder GPUs, um KI-Modelle zu trainieren, und diese Komponenten gehören zu den stromhungrigsten, die die Chipindustrie herstellt. Große Modelle benötigen Zehntausende von GPUs, wobei das Trainingsprogramm Wochen bis Monate dauern kann.
Eines der größten Rätsel der KI ist laut Luccioni der gesamte Kohlenstoffausstoß, der mit den GPUs verbunden ist. Nvidia, der größte Hersteller von Grafikprozessoren, sagte, dass sie bei KI-Aufgaben die Aufgabe schneller erledigen können, was sie insgesamt effizienter macht. Zwar hat Nvidia seine direkten und indirekten Emissionen im Zusammenhang mit Energie offengelegt, jedoch nicht alle Emissionen preisgegeben, für die es indirekt verantwortlich ist.
Falls Nvidia diese Informationen herausgibt, wird sich laut Luccioni herausstellen, dass GPUs so viel verbrauchen wie die gesamten Emissionen eines kleinen Landes: "Das wird der Wahnsinn."
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
"Nvidia, der größte Hersteller von Grafikprozessoren, sagte, dass sie bei KI-Aufgaben die...
Da wird sich um den theoretischen CO 2 Ausstoss von 120 US Autos im Jahr aufgeregt wobei...
Ganz ehrlich Google hat jetzt schon sehr hohe Nachhaltigkeit in ihren Rechenzentren und...
Kommentieren