Eine Untersuchung von Bestbrokers zeigt, dass OpenAI
mit ChatGPT jährliche Stromkosten von 140 Millionen US-Dollar
pro Jahr hat. Chefredakteur des Portals, Paul Hoffman, schreibt:
"Allein das Beantworten von Fragen verursacht einen jährlichen
Stromverbrauch von über einer Terawattstunde". Kosten,
die beim KI-Training entstehen, sind dabei noch nicht eingerechet.
ChatGPT verfügt momentan über etwa 300 Millionen Nutzer
pro Woche, wovon 11 Millionen für ein Abonnement zahlen, schätzen
die Forscher. Die
Autoren der Untersuchung berechnen die Kosten auf Grundlage
der Nutzungszahlen des Chatbots, da OpenAI keine offiziellen Daten
zum Stromverbrauch herausgibt.
Auf X gab OpenAI im Dezember 2024 bekannt, dass ChatGPT täglich
eine Milliarde Anfragen verarbeite. Eine vorherige Untersuchung
des Electric Power Research Institute (EPRI) hatte gezeigt, dass
eine ChatGPT-Anfrage 2,9 Wattstunden verbraucht (zehnmal so viel
wie eine Google-Suche). Die Autoren der Studie ziehen für die
Berechnung mit 0,132 US-Dollar pro Kilowattstunde den durchschnittlichen
Strompreis für Unternehmen heran. Mit diesen Zahlen kommen
sie auf tägliche Stromkosten von 382.800 US-Dollar pro Tag.
139,7 Millionen US-Dollar sind es auf ein Jahr hochgerechnet.
(ts, hannover)
(siehe auch: Heise-News-Ticker)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|