Die Botschaft, die dieser Tage aus dem Hause OpenAI in die Welt strömt: Eine Anfrage beim populären KI-Chatbot ChatGPT verbraucht so viel Strom wie gut eine Sekunde Backofen-Betrieb. Darüber hinaus liege der Wasserverbrauch pro Prompt, also Eingabe in die Chatbot-Maske, bei einem Fünfzehntel eines Teelöffels. So schrieb es jedenfalls OpenAI-Chef Sam Altman in einem Blogeintrag.

Konkret verbraucht dem OpenAI-Zampano zufolge eine durchschnittliche ChatGPT-Anfrage 0,34 Watt-Stunden. Den Wasserverbrauch bezifferte er auf 0.000085 Gallonen (0,00032176 Liter). Zur Basis für diese Berechnungen verliert Altman freilich keine Worte.

Die Ära der KI-Gigafabriken

Dabei wäre genau das spannend. Denn klar ist: Mit dem immensen Wachstum von Anwendungen, die auf Künstlicher Intelligenz aufbauen, steigt prinzipiell auch der Energieverbrauch heftig. Wir erinnern uns nur kurz, dass ChatGPT nach der breitenwirksamen Veröffentlichung im November 2022 gerade einmal fünf Tage benötigte, um die Marke von einer Million Nutzerinnen und Nutzer zu überspringen.

Je mehr Rechenleistung die immer komplexer werdenden Sprachmodelle von OpenAI & Co nun benötigen, egal ob in Form von CPUs (zentrale Prozessoren) oder GPUs (spezielle Grafikprozessoren), desto mehr Energie benötigen sie grundsätzlich. Einerseits beim Lernen, andererseits in der späteren Anwendung.

Deshalb übertreffen sich große KI-Firmen wie OpenAI, Google oder Microsoft zurzeit mit milliardenschweren Ankündigungen für den Bau neuer Infrastruktur, also Rechenzentren. Aber auch in der Europäischen Union ist der Bau von vier sogenannten KI-Gigafabriken geplant – Anlagen mit jeweils rund 100.000 KI-Chips der neuesten Generation. Diese sollen ausreichend Rechenleistung für Training und Betrieb von KI-Modellen bieten.

Wie viel Strom frisst Google?

Besonders interessant am Posting Sam Altmans ist, dass jene 0,3 Wattstunden pro Anfrage, die der OpenAI-Chef nun plötzlich anführt, just jene Zahl ist, die auch Google gerne nennt, wenn die Frage nach dem Energiehunger der hauseigenen Suchmaschine auftaucht. Bisher sah man sich bei Google damit in nahezu nachhaltigem Gefilde, gingen Schätzungen in Sachen ChatGPT – der größte Konkurrent – doch meist zumindest vom zehnfachen Wert pro Anfrage aus.

Eine Betrachtung der nicht fernen Vergangenheit setzte etwa 2,9 Wattstunden als Basis für eine ChatGPT-Anfrage an und rechnete so den Energiebedarf von 195 Millionen täglichen Anfragen hoch. In solch einem Szenario wird schnell ein Wert von 564.000 Kilowattstunden erreicht, was wiederum dem Tagesbedarf von 66.000 durchschnittlichen österreichischen Haushalten entsprechen würde. Erzielt, wohlgemerkt, von einer einzelnen KI-Anwendung.

xLSTM und neuromorphe Chips

Der Blick nach vorne ist nicht ganz so einfach. Denn während die KI-Anwendungen von immer mehr Anwendern genutzt werden, steigt natürlich auch ihre Effizienz. In der Vergangenheit war stets zu beobachten, dass der Energieappetit von Rechenzentren nicht im selben Ausmaß wuchs wie der Bedarf an derlei Zentren.

Bei den KI-Modellen ist eine ähnliche Entwicklung zu beobachten. Parallel zu den großen, allwissenden Flaggschiff-Modellen wächst das Segment der abgegrenzten, schlanken und bedarfsgerechten Lösungen. Der in Österreich forschende KI-Pionier Sepp Hochreiter etwa will mit vergleichsweise effizienter xLSTM-Technologie genau an dieser Stelle punkten.

Nicht zuletzt ist auch auf Hardware-Seite vieles in Bewegung. So erreichen etwa sogenannte neuromorphe Mikrochips in Tests bereits Werte, die um den Faktor zehn bis 100 weniger Energie brauchen als aktuelle Hardware.