Forskning: Vi kan skære 70 procent af strømforbruget fra kunstig intelligens
Forskning viser, at størstedelen af strømmen til kunstig intelligens kan spares væk, hvis tech-giganterne blot skruer 1 procent ned for ambitionerne. ”Det svarer til at sige, at en bil er effektiv, fordi den får dig hurtigt frem, men ignorerer den mængde brændstof, den bruger.”
At det koster kolossale mængder energi, når vi googler, taler med Siri, spørger ChatGPT om noget eller på andre måder bruger AI, er efterhånden blevet almen viden.
Et studie anslår, at AI-servere i 2027 vil have et lige så stort elforbrug som Argentina eller Sverige. Og en enkelt forespørgsel til ChatGPT er anslået til i gennemsnit at sluge lige så meget energi som 40 opladninger af en mobiltelefon.
Men på forskningsfeltet og i branchen har man stadig ikke fokus på at udvikle AI-modeller, som bruger mindre strøm og derfor har et mindre CO2-aftryk, påpeger forskere fra Københavns Universitet.
Læs også: Googles CO2-udledning eksploderer
“Udviklerne har i dag et snævert fokus på at bygge AI-modeller, der er effektive i form af, hvor præcist et resultat, de kan opnå. Det svarer til at sige, at en bil er effektiv, fordi den får dig hurtigt frem, men ignorerer den mængde brændstof, den bruger. Og det har resulteret i AI-modeller, som ofte er ineffektive i form af energiforbrug,” siger adjunkt Raghavendra Selvan fra Datalogisk Institut, som forsker i mulighederne for at sænke CO2e-aftrykket fra AI.
Men det nye studie, som han og datalog-studerende Pedram Bakhtiarifard er to af forfatterne bag, viser, at man sagtens kan spare masser af CO2 uden at gå på kompromis med AI-modellens præcision.
Læs også: Adjunkt: AI's stigende CO2-aftryk er en udfordring. Her er, hvad vi kan gøre ved det
Studiet viser, at man enten ved at vælge andre slags modeller eller justere på modellerne kan spare 70-80 procent energi i trænings- og implementeringsfasen og kun gå 1 procent eller mindre ned i ydeevne.
”Man kan se vores resultater som en opskriftsbog, som AI-fagkyndige kan slå op i. Opskriftsbogen fortæller ikke bare, hvor godt de forskellige algoritmer yder, men også hvor energieffektive de er. Og at man ved at skifte en ingrediens ud med en anden i opbygningen af modellen, ofte kan opnå samme resultat. Så nu kan fagfolk vælge den model, de ønsker ud fra både ydeevne og energiforbrug og uden at skulle træne hver enkelt model først,” siger Pedram Bakhtiarifard.
– HCL