Wie viel Energie verbraucht AI wirklich? Die Zahlen hinter dem Hype

· Converter Fun
ai energie umwelt co2 nachhaltigkeit

Der Elefant im Serverraum

AI transformiert Branchen, aber das kommt mit einer Energierechnung. Schlagzeilen warnen vor dem wachsenden Stromverbrauch von AI, wobei Rechenzentren bereits etwa 1-2 % des weltweiten Stroms verbrauchen. Aber wie sehen die tatsächlichen Zahlen aus? Ist eine einzelne ChatGPT-Anfrage wirklich so energieintensiv, wie Kritiker behaupten?

Schauen wir uns die echten Zahlen an — von einzelnen Anfragen bis zum Training im Weltmaßstab.

Die Energie einer einzelnen Anfrage

Eine typische AI-Inferenz — eine Frage an ein großes Sprachmodell — verbraucht ungefähr 0,001 bis 0,01 kWh Energie, abhängig von Modellgröße, Antwortlänge und Hardware-Effizienz.

Um 0,01 kWh einzuordnen:

  • Eine Google-Suche verbraucht etwa 0,0003 kWh (30x weniger)
  • Eine Tasse Wasser zu kochen verbraucht etwa 0,1 kWh (10x mehr)
  • Ein Smartphone aufzuladen verbraucht etwa 0,008 kWh (ungefähr gleich)
  • Eine 60W-Glühbirne eine Stunde laufen zu lassen verbraucht 0,06 kWh (6x mehr)

Eine einzelne AI-Anfrage verbraucht also ungefähr so viel Energie wie das Laden des Handys — im großen Maßstab relevant, aber pro Interaktion bescheiden.

Skalierung ändert alles

Die Zahlen werden beeindruckender, wenn man sie mit dem Nutzungsvolumen multipliziert. Allein ChatGPT verarbeitet Berichten zufolge über 100 Millionen Anfragen pro Tag. Bei 0,01 kWh pro Anfrage:

  • Täglich: 1.000.000 kWh = 1 GWh
  • Monatlich: ~30 GWh
  • Jährlich: ~365 GWh

Zum Vergleich: 365 GWh pro Jahr entsprechen ungefähr dem jährlichen Stromverbrauch von 100.000 europäischen Haushalten oder einer Kleinstadt. Und das ist nur ein Dienst von einem Unternehmen.

Training vs. Inferenz

Es gibt einen wichtigen Unterschied zwischen Training (ein Modell lehren) und Inferenz (es benutzen):

Das Training von GPT-4 hat schätzungsweise etwa 50-100 GWh Energie verbraucht — das entspricht dem Jahresverbrauch von etwa 15.000-30.000 Haushalten. Das sind einmalige Kosten, verteilt auf die Milliarden von Anfragen, die das Modell letztendlich bedienen wird.

Inferenz sind die laufenden Kosten. Einmal trainiert, verbraucht jede Anfrage Energie. Mit wachsender Nutzung übertrifft die Inferenz schnell das Training im Gesamtenergieverbrauch. Bei beliebten Modellen übersteigt die Inferenzenergie die Trainingsenergie innerhalb von Monaten nach Bereitstellung.

Der CO₂-Fußabdruck

Energieverbrauch entspricht nicht direkt CO₂-Emissionen — es hängt von der Stromquelle ab. Eine Anfrage, die in einem Rechenzentrum mit 100 % erneuerbarer Energie verarbeitet wird, hat nahezu null CO₂-Emissionen, während dieselbe Anfrage in einer kohlebetriebenen Region erhebliche Auswirkungen hat.

Mit dem globalen Durchschnitt von 0,4 kg CO₂ pro kWh:

AktivitätCO₂-Äquivalent
1 AI-Anfrage~4 g CO₂
100 Anfragen/Tag für ein Jahr~146 kg CO₂
Training von GPT-4~30.000 Tonnen CO₂

Zum Vergleich: Der durchschnittliche Mensch produziert weltweit etwa 4,7 Tonnen CO₂ pro Jahr. Ein intensiver AI-Nutzer mit 100 Anfragen pro Tag fügt seinem jährlichen Fußabdruck ungefähr 3 % hinzu.

AI vs. Mensch: Das Effizienz-Argument

Hier wird es interessant. AI erledigt oft Aufgaben, die sonst von Menschen gemacht würden — und Menschen verbrauchen auch Energie.

Ein menschliches Gehirn verbraucht etwa 20 Watt. Bei Wissensarbeit:

  • 1.000 Wörter zu schreiben dauert einen Menschen ungefähr 2 Stunden = 0,04 kWh (nur Gehirn) oder etwa 0,1 kWh (einschließlich Computer, Beleuchtung, Heizung)
  • Eine AI generiert 1.000 Wörter in etwa 30 Sekunden mit ungefähr 0,005 kWh

Für diese spezifische Aufgabe verbraucht AI ungefähr 20-mal weniger Energie als ein Mensch. Allerdings hat dieser Vergleich Grenzen:

  • Menschen müssen nicht erst mit Milliarden von Datenpunkten “trainiert” werden
  • Menschliche Energie kommt aus Nahrung (erneuerbar), nicht immer aus sauberem Strom
  • AI ermöglicht Aufgaben in einem Umfang, den Menschen nie versuchen würden — sie schafft neue Nachfrage, statt bestehende Arbeit zu ersetzen

Was Big Tech unternimmt

Große AI-Unternehmen sind sich des Energieproblems bewusst und ergreifen Maßnahmen:

Microsoft hat sich verpflichtet, bis 2030 CO₂-negativ zu sein, und investiert über Partnerschaften mit Kernenergie-Startups in Atomkraft.

Google gibt an, 100 % seines Energieverbrauchs durch Einkäufe erneuerbarer Energie auszugleichen, wobei Kritiker anmerken, dass dies auf jährlicher, nicht stündlicher Basis geschieht.

Anthropic und OpenAI platzieren beide Rechenzentren in Regionen mit hohem Anteil erneuerbarer Energie.

Hardware-Effizienz verbessert sich rapide. Jede neue GPU-Generation (wie NVIDIAs Blackwell nach Hopper) liefert ungefähr 2-3x mehr Inferenz pro Watt. Das bedeutet: Die gleiche Anfrage wird nächstes Jahr weniger Energie verbrauchen als heute.

Das große Bild

Der Energieverbrauch von AI ist real und wachsend, sollte aber im Kontext betrachtet werden. Globale Rechenzentren (einschließlich AI, Cloud Computing, Streaming etc.) verbrauchen etwa 1-2 % des weltweiten Stroms. AI speziell ist ein Bruchteil davon — vielleicht derzeit 0,1-0,3 %, allerdings schnell wachsend.

Die wichtigere Frage ist vielleicht nicht “Wie viel Energie verbraucht AI?” sondern “Welche Energie spart AI?” Wenn AI Stromnetze optimiert, Gebäudeeffizienz verbessert, saubere Energieforschung beschleunigt und unnötige Reisen durch Remote-Work-Tools reduziert, könnte der Nettoeffekt positiv sein.

Berechne deinen AI-Energie-Fußabdruck

Neugierig auf deinen persönlichen AI-Energieverbrauch? Nutze unseren Inferenz-Energierechner, um zu sehen, wie sich deine tägliche AI-Nutzung in kWh und CO₂ übersetzt. AI und menschliche Energie für bestimmte Aufgaben vergleichen? Probiere das AI vs Mensch Energie-Vergleichstool. Und um zu verstehen, was dein AI-CO₂-Fußabdruck in greifbaren Begriffen bedeutet, rechnet der CO₂-Kompensationsrechner Emissionen in Bäume, Auto-Kilometer und Flugstunden um.


Fun Fact: Das menschliche Gehirn, das mit etwa 20 Watt läuft, führt geschätzte 10^16 Operationen pro Sekunde durch. Die leistungsstärksten AI-Training-Cluster verwenden etwa 10 Megawatt, um eine vergleichbare Rohrechenleistung zu erzielen — 500.000 Mal mehr Leistung. Die Evolution hatte einen 3,5-Milliarden-Jahre-Vorsprung bei der Energieeffizienz.