Zum Hauptinhalt Zur Navigation

ChatGPT und Bard: KI könnte Google-Suchen um das Zehnfache teurer machen

Die gestiegene Rechenleistung für KI-gestützte Suchanfragen sind ein ernstes Problem für die Wirtschaftlichkeit von Google .
/ Oliver Nickel
18 Kommentare News folgen (öffnet im neuen Fenster)
Google Bard wird sicher ein teures Unterfangen. (Bild: Pixabay.com)
Google Bard wird sicher ein teures Unterfangen. Bild: Pixabay.com / Pixabay License

Google hat nach der Vorstellung von Bard etwa 100 Milliarden US-Dollar an Aktienwert verloren. Aktuell stehen der Konzern und auch sein Hauptkonkurrent Microsoft vor einem neuen Problem: KI wie ChatGPT in Bing oder Google Bard läuft auf leistungsstärkeren Cloud-Servern und ist entsprechend teuer . Tatsächlich werden die Kosten für eine Suchanfrage mittels KI-Unterstützung wohl um das Zehnfacher höher sein als bisher.

Das schätzt zumindest der Alphabet-Vorstandsvorsitzende John Hennessy in einem Gespräch mit Reuters(öffnet im neuen Fenster) so ein. Der zusätzliche Aufwand könnte für Google, das für einen Großteil des Suchtraffics weltweit verantwortlich ist, mehrere Milliarden US-Dollar kosten. Schätzungen gehen von 6 Milliarden US-Dollar aus, was zehn Prozent des jährlichen Nettogewinns von 60 Milliarden US-Dollar entspräche.

Kosten für Inferencing senken

Laut dem Analystenteam von Morgan Stanley kostet eine traditionelle Suchanfrage bei Google etwa 0,2 US-Cent. Das Unternehmen bearbeitete im Jahr 2022 schätzungsweise 3,3 Billionen Suchanfragen. Eine Preiserhöhung für einzelne Suchen hat hier also besonders viel Einfluss. Die gestiegenen Kosten ergeben sich dabei nicht nur aus dem Energiebedarf für Cloud-Server, sondern auch aus deren Anschaffungskosten.

Golem.de probiert ChatGPT in Bing aus
Golem.de probiert ChatGPT in Bing aus (06:39)

Neue Hardware muss über mehrere Jahre lang als Investition gesehen werden, was auf den Preis für Suchanfragen aufgeschlagen wird. Ein ähnliches Problem wird auch Microsoft mit KI in Bing haben, solange Machine Learning noch so rechenintensiv bleibt, wie es aktuell ist. Ziel ist es also, die Kosten für das Inferencing zu senken, durch das ein KI-Modell aus seinen vielen trainierten Parametern Ausgaben erstellt. Laut Hennessy wird das auf Jahre lang noch ein Problem bleiben.


Relevante Themen