- Eine durchschnittliche Anfrage an ChatGPT verbraucht etwa 0,34 Wattstunden Energie. Der Energieverbrauch von KI-Modellen wirft Fragen der Transparenz und Umweltverantwortung auf. Viele KI-Modelle geben keine Umweltinformationen an, was die Wahl umweltfreundlicher Optionen erschwert. Eine Analyse zeigt, dass komplexere Modelle mehr Energie bei Anfragen verbrauchen. Maximilian Dauner schlägt vor, einfache Anfragen an weniger energieintensive Modelle zu leiten.
Häufig fragen sich Menschen, wie viel Energie eine Anfrage an ChatGPT eigentlich verbraucht. Laut dem Unternehmenschef verbraucht eine durchschnittliche Anfrage etwa 0,34 Wattstunden Energie. Das entspräche dem Energieverbrauch eines Backofens in etwas mehr als einer Sekunde oder dem, was eine energiesparende Glühbirne in wenigen Minuten verbrauchen würde. Angesichts von 800 Millionen wöchentlich aktiven Nutzern wird die Frage nach dem Energieverbrauch solcher Anfragen immer relevanter. Experten bemängeln jedoch, dass diese Zahl wenig aussagekräftig ist, ohne weitere Einblicke von OpenAI darüber, wie diese Berechnung zustande kam.
Die Herausforderung der Transparenz im Energieverbrauch
Die Wichtigkeit von Umwelttransparenz in der KI-Nutzung wird durch eine neue Analyse von Sasha Luccioni und Kollegen betont. Bei einer Untersuchung fand man heraus, dass 84 Prozent der Modelle im Mai 2025 keinerlei Umweltinformationen freigaben. Das bedeutet, dass Nutzer überwiegend Modelle wählen, deren Umweltauswirkungen völlig unbekannt sind. Luccioni kritisiert, dass es unfassbar sei, dass wir alltäglich KI-Werkzeuge nutzen, ohne jegliche Effizienz- oder Emissionsmetriken zu kennen. Vor dem Hintergrund der Klimakrise sollte eine solche Klarheit für Regulierer höchste Priorität haben.
Daten und Emissionen: Die fehlende Offenlegung
Anhand einer jüngsten Untersuchung in der Fachzeitschrift wurde festgestellt, dass einige Modelle bis zu 50 Prozent mehr Energie verbrauchen als andere bei der Verarbeitung von Anfragen. Diese spannende Analyse nutzte 1.000 Beispielfragen, um herauszufinden, welche Modelle energieintensiver arbeiten. Insbesondere komplexere Modelle, die mehr „Denktokens“ generierten, zeigten einen höheren Energieverbrauch. Dennoch stellt sich die Frage: Wie kann die KI-Nutzung effizienter gestaltet werden? Maximilian Dauner, ein Forscher dieser Studie, sieht Potenzial darin, einfachere Fragen an weniger energieintensive Modelle zu leiten.
Zwar gibt es bereits Unternehmen, die solche Verfahren einsetzen, doch im Allgemeinen haben Modellanbieter wenig getan, um Nutzer in Richtung energieärmerer Nutzung zu lenken. Trotz der zahlreichen Variablen, die in die Berechnung des Energiebedarfs einfließen, bleibt ein entscheidender Faktor unklar: Wie stark belastet die Infrastruktur selbst, etwa die notwendigen Kühlsysteme oder die Anbindung an fossile oder erneuerbare Energien, die Gesamtbilanz? Auch die Unterschiede in den verwendeten Hardwaretypen und -standorten spielen eine bedeutende Rolle bei der Bestimmung der CO2-Bilanz.
Kooperation und Offenheit als Schlüssel
Noch herausfordernder ist die Tatsache, dass viele der aktuellen AI-Modelle wie die von OpenAI geheim gehalten werden. Ohne die Offenlegung von Trainings- und Wartungsenergie bleibt den Nutzern ein umfassendes Verständnis der Umweltfolgen verschlossen. Luccioni fordert daher eine obligatorische Offenlegung der Kohlenstoffemissionen von KI-Systemen, um wirklich nachvollziehen zu können, welchen Einfluss diese Technologien auf unseren Planeten haben. Diese erhöhte Transparenz könnte ein entscheidender Schritt sein, um die ökologischen Auswirkungen der fortschreitenden KI-Nutzung besser zu verstehen und zu steuern.