Arm bezorgd om ‘onverzadigbare dorst’ naar energie van AI

ai dorst naar energie

Grote LLM’s slorpen veel elektriciteit op. Volgens Arm zullen datacenters tegen 2030 goed zijn voor een kwart van het totale energieverbruik van de Verenigde Staten.

Het hoge energieverbruik van AI maakt experten binnen en buiten de techindustrie al langere tijd zorgen. De volgende die aan de alarmbel trekt, is Rene Haas, CEO van Arm. In Wall Street Journal spreekt Haas over ‘de onverzadigbare dorst’ van AI, en dan met name van LLM’s.

lees ook

De ecologische voetafdruk van AI: een tikkende tijdbom?

Onverzadigbare dorst

Volgens Haas zijn AI-datacenters vandaag goed voor vier procent van het totale energieverbruik van de Verenigde Staten. Tegen 2030 zou dat volgens de CEO kunnen toenemen tot 20 à 25 procent. Het trainen van generatieve AI-modellen is een zeer energie-intensief proces, maar het is vooral het dagelijkse gebruik (ook de inferentie) genoemd, dat energie vreet in datacenters. De ‘dorst’ van AI mag je ook letterlijk nemen, want naast veel elektriciteit is er ook veel water nodig om AI-systemen de klok rond actief te houden.

Haas is niet alleen in zijn pessimistische voorspellingen. Het internationale energie-agentschap IEA schat dat het energieverbruik van datacenters met een tienvoud is toegenomen sinds 2022 door de boom van AI-toepassingen. LLM’s zoals GPT verbruiken tot tien keer meer energie dan klassieke algoritmen zoals in Google Search. In ‘kleinere’ landen, waarbij Ierland als referentie wordt genomen, zouden datacenters tot een derde van de totale energievoorziening kunnen opeisen.

Sleutel in het datacenter

Om aan de stijgende digitale noden van bedrijven en consumenten te voldoen, zal het aantal datacenters in de komende jaren alleen maar toenemen. De sleutel tot duurzame AI lijkt meer dan ooit in het datacenter te liggen. Datacenteroperators zullen naar manieren moeten zoeken om efficiënter met energie om te springen, en zich zoveel mogelijk tot duurzame energiebronnen toewenden.

lees ook

Emigreren onze datacenters binnenkort naar het Hoge Noorden?

Maar ook ontwikkelaars van AI-systemen hebben mee de sleutel in handen. Het wordt stilaan duidelijk dat het niet meer houdbaar is dat LLM’s alsmaar groter worden en meer parameters moeten tellen. Een shift naar kleinere, efficiëntere modellen dringt zich op.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.