Følg oss her

AI

Hvor mye strøm bruker egentlig AI? Ingen vil svare

Bruken av kunstig intelligens eksploderer, men energikostnaden er fortsatt en mørklagt hemmelighet.

Publisert

d.

Foto: Getty Images

OpenAI-sjef Sam Altman hevder at ett enkelt søk i ChatGPT bruker rundt 0,34 wattimer – omtrent som en lyspære i to minutter, eller en ovn i ett sekund. Det høres lite ut. Men forskere er skeptiske til regnestykket.

"Han kunne like gjerne ha trukket det tallet rett ut av hatten", sier Sasha Luccioni, klimaforsker i Hugging Face.

OpenAI har ikke gitt innsyn i hvordan tallet er regnet ut. Uten detaljer som hva slags søk det gjelder, om bildegenerering er inkludert, eller om strøm til kjøling og opplæring av modellene er regnet med, er påstanden lite verdt, mener ekspertene.

Les også: Bilmodeller som forsvinner innen 2030: er din blant dem

84 prosent av modellene skjuler miljøpåvirkningen sin

En fersk analyse fra Luccioni og kolleger, levert til fagfellevurdering, viser at hele 84 prosent av bruken av store språkmodeller (LLM) i mai 2025 kom fra aktører som ikke oppgir noe som helst om energibruken sin.

"Det er absurd at man må oppgi drivstofforbruk på en bil, men ingen krever noe tilsvarende for AI-verktøy", sier Luccioni.

Villedende tall dominerer debatten

Et eksempel på hvordan tall spinner ut av kontroll, er den utbredte påstanden om at ett ChatGPT-søk bruker ti ganger mer energi enn et Google-søk. Påstanden stammer fra Google-styreleder John Hennessy – som ikke har noen innsikt i hvordan OpenAI opererer.

"Når det ikke finnes offisielle tall, får slike tilfeldige utsagn leve videre som "fakta"", sier Luccioni.

Åpen kildekode gir innsyn – og overraskelser

En studie publisert i Frontiers of Communication sammenlignet 14 åpne språkmodeller. Forskerne fant at noen modeller brukte opptil 50 prosent mer energi enn andre, avhengig av spørsmålenes kompleksitet og svarenes lengde.

De mest avanserte modellene genererte flere såkalte «tenketokener» og ga mer presise svar – men til en høyere energikostnad.

Kan vi sende enkle spørsmål til mindre modeller?

Studieleder Maximilian Dauner ved universitetet i München mener det er på tide å bruke riktige modeller til riktige oppgaver.

"Enkle spørsmål kan fint besvares av små modeller med langt lavere strømforbruk", sier han.

Google og Microsoft har allerede begynt å bruke slike løsninger, men brukerne får sjelden vite hvor mye energi som går med til et enkelt søk.

Maskinvare, kjøling og lokasjon teller også

Strømforbruket påvirkes også av hva slags maskinvare som brukes, og hvor serverne befinner seg. Nyere brikker som Nvidias H100 er ekstremt kraftige – og strømkrevende.

I tillegg må man regne med energien som går til kjøling, nettverk, og selve datasentrene. Og hvilke strømkilder som brukes – kullkraft eller fornybar energi – har stor betydning for de faktiske utslippene.

Hva med treningen? Den virkelige klimakostnaden er skjult

Selv om man får estimater på strømforbruket for ett enkelt svar, er det fortsatt store sorte hull: Opplæringen av modellene, oppdateringer og vedlikehold er ekstremt energikrevende – og holdes hemmelig.

"Det er som å måle drivstofforbruket ved å løfte en bil, spinne hjulet, og ignorere at det skal frakte en hel bil med passasjerer", sier Noman Bashir ved MIT.

Forskernes klare budskap: På tide med åpenhet

Luccioni sier det rett ut:

"Hvis jeg hadde en tryllestav, ville jeg gjort det lovpålagt for alle som utvikler AI å oppgi karbonavtrykk. Uten tall, famler vi i blinde."

Les mer: Mekanikere avslører: Disse bilmerkene går nesten aldri i stykker

Annonse