KI-Chatbots verbrauchen enorme Mengen Strom und sorgen für Nachhaltigkeitsbedenken
KI-Chatbots erfreuen sich immer größerer Beliebtheit, doch trotz der praktischen Nutzung verbirgt sich hinter ihnen ein enormer Stromverbrauch, der eine große Herausforderung für die Umwelt und die Nachhaltigkeit darstellt.
Báo Khoa học và Đời sống•23/09/2025
ChatGPT hat derzeit fast 200 Millionen Benutzer mit über 1 Milliarde Anfragen pro Tag. Jede Frage- und Antwortrunde scheint einfach, verbraucht aber eine enorme Menge Strom.
Bis 2023 werden KI-Rechenzentren 4,4 % des US-Strombedarfs und 1,5 % weltweit decken. Das Training von GPT-4 verbrauchte 50 Gigawattstunden, genug, um San Francisco drei Tage lang mit Strom zu versorgen.
Laut Mosharraf Chowdhury, Professor für Informatik an der University of Michigan, sind Training und Inferenz die beiden Phasen mit dem höchsten Stromverbrauch. Ein einzelner Nvidia DGX A100-Server verbraucht bis zu 6,5 Kilowatt, was multipliziert mit Tausenden von Maschinen eine enorme Zahl ist. Sogar die Inferenz verbraucht viel Strom, da es allein von ChatGPT 2,5 Milliarden Anfragen pro Tag gibt.
Experten fordern Transparenz bei den Daten zum Energieverbrauch, um den Übergang zu einer nachhaltigeren KI zu ermöglichen. Liebe Leser, bitte schauen Sie sich weitere Videos an: AI Trash Cleaning | Hanoi 18:00
Kommentar (0)