Künstliche Intelligenz ist bekanntermassen mit Energieverbrauch verbunden. So wollen verschiedene Anbieter von KI-Diensten deren Energiehunger künftig mit neuen Kernkraftwerken abdecken. Amin Vahdat, VP/GM für Machine Learning, Systems, and Cloud AI bei
Google Cloud und Jeff Dean, Chief Scientist bei Google DeepMind und Google Research, haben die Energie- und Umweltauswirkungen von KI-Inferenz "mal durchgerechnet", wie sie ihre Arbeit im entsprechenden Paper bezeichnen. Die Effizienz der KI-Verarbeitung werde immer wichtiger, weil immer mehr Nutzer KI-Systeme verwendeten.
Das technische Dokument beschreibt die Messung der Auswirkungen von Gemini-Prompts auf Energieverbrauch, Emissionen und Wasserverbrauch. Die Autoren kommen zum Schluss, dass ein Textprompt für Gemini-Apps im Median 0,24 Wattstunden Energie verbraucht, 0,03 Gramm CO2-Äquivalent ausstösst und 0,26 Milliliter Wasser verbraucht, was etwa fünf Tropfen entspreche. Diese Werte seien deutlich niedriger als viele öffentliche Schätzungen – der Energieverbrauch pro Prompt entspreche weniger als neun Sekunden Fernsehen.
Weiter führen die Autoren an, Googles KI-Systeme würden durch innovative Forschung und Effizienzsteigerungen bei Software und Hardware immer effizienter. In den letzten 12 Monaten sei der Energieverbrauch und der gesamte CO2-Fussabdruck eines durchschnittlichen Textprompts um das 33- beziehungsweise 44-Fache gesunken. Man sei bei Google stolz auf die Innovationen, die zu diesen Effizienzsteigerungen geführt hätten, während sich gleichzeitig die Qualität der Antworten verbessert habe.
(ubi)