Nieuwe AI-toepassingen zullen een grote impact hebben op ons dagelijkse leven, maar eveneens op de planeet. Hoe zorgen we ervoor dat technologische vooruitgang niet gepaard gaat met ecologische teloorgang? In dit dossier kijken we naar de ecologische voetafdruk van generatieve AI en initiatieven om die in te perken.
Als er één technologische trend het nieuws gedomineerd heeft in 2023, dan is het wel generatieve AI. De gekte begon al in december 2022 toen OpenAI een chatbot genaamd ChatGPT lanceerde. De rest is geschiedenis. Alle grote technologiereuzen, met Microsoft en Google voorop, zijn mee op de kar gesprongen en vandaag is er elke dag wel een aankondiging rond een of andere nieuwe AI-toepassing.
Het debat rond AI gaat vaak over de impact die de technologie zal hebben op de mens. Daar zijn zowel positieve stemmen te horen die verwachten dat AI ons leven gemakkelijker zal maken, als sceptische stemmen die in de technologie vooral een verspreider van desinformatie zien. Wat wel eens onder de radar blijft, is de impact van AI op onze planeet. Om ChatGPT te laten draaien, is een arsenaal aan servers nodig die kostbare grondstoffen verbruiken. Nu de AI-modellen alsmaar groter en beter moeten worden, hebben ze steeds krachtigere servers nodig die op hun beurt ook meer van die grondstoffen opslorpen. De AI-boom dreigt zo een tikkende ecologische tijdbom te worden.
Achter de schermen van ChatGPT
Niet iedereen hoeft een expert te zijn, maar om de ecologische impact van AI te begrijpen, is enige basiskennis over de technologie wel handig. Achter ChatGPT zit veel meer dan je op het eerste zicht kan zien. De chatbot zelf is niet meer dan een interface die OpenAI heeft gebouwd bovenop zijn large language model (LLM) GPT-4. GPT staat op zijn beurt dan weer voor generative pre-trained transformer, waarbij elk woord iets zegt over het model. ‘Transformer’ is een type model dat gespecialiseerd is in het begrijpen van natuurlijke taal, ‘pre-trained’ wil zeggen dat OpenAI het model getraind heeft dat te doen en ‘generative’ verwijst naar de capaciteiten om content te creëren.
De AI-boom dreigt een ecologische tijdbom te worden.
Het ‘brein’ van een LLM is het neurale netwerk. Tot zekere hoogte werkt zo’n neuraal netwerk ook zoals het menselijke brein. Net zoals onze hersenen iedere zintuigelijke prikkel (input) automatisch omzetten naar een lichamelijke actie (output), zorgt het neurale netwerk dat je prompts (input) een passend antwoord krijgen (output). Daarvoor kijkt het neurale netwerk naar zijn interne database die tijdens de trainingsfase wordt aangelegd en linkt het op autonome basis de input aan de volgens het systeem juiste output. Dit proces heet deep learning in vakjargon. Iedere mogelijke combinatie tussen input en output in een netwerk, wordt een parameter genoemd.
De vuistregel om te bepalen hoe slim een AI-model is, is eigenlijk verrassend simpel: hoe meer parameters, hoe beter. GPT-4 telt maar liefst een biljoen parameters, terwijl de voorloper GPT-3 er 175 miljard telde. De volgende generatie GPT-5 kan daar nog eens een veelvoud bijdoen.
lees ook
ChatGPT kan analyseren, schilderen en surfen in één gesprek: de nieuwe capaciteit getest
Aan de stroom
Dat alles gebeurt niet in het luchtledige. AI-modellen ‘leven’ in datacenters van de grote hyperscalers, in het geval van ChatGPT is dat Microsoft. Dat datacenters grote verbruikers zijn van energie, is inmiddels geen geheim meer. In grote datacenters staan duizenden servers die de klok rond van energie moeten worden voorzien om aangesloten internetdiensten 24/7 online te houden.
Het trainen van generatieve AI-modellen is een zeer energie-intensief proces. De meest krachtige chips zijn nodig om grote hoeveelheden gigabytes aan data te lezen en te verwerken, en servercapaciteit in de datacenters om die data een plek te geven. Maar na de training is het niet afgelopen. Het dagelijkse gebruik van het systeem (inferentie) vergt eveneens energie. Chipmaker Nvidia zegt dat negentig procent van het energieverbruik van zijn AI-chips naar inferentie gaat.
Hoeveel ChatGPT nu precies verbruikt, is eerder een mysterie. OpenAI is heel zuinig met informatie hierover. Academici hebben dit dan maar zelf proberen uit te rekenen en kwamen uit op 1.287 gigawatt voor het trainen van ChatGPT. Dat komt ongeveer overeen met het jaarlijkse energiegebruik van 120 gemiddelde huishoudens. Iedere vraag aan ChatGPT zou ongeveer 0,001-0,01 kWh kosten, een pak meer dan een zoekopdracht in Google (0,0003 kWh). Op jaarbasis zou ChatGPT verantwoordelijk zijn voor een CO2-uitstoot van 8,4 ton, volgens schattingen van Towards Data Science: het dubbele van een gemiddeld individu. Dit zijn allemaal schattingen en geen exacte data.
Niet alleen de absolute hoeveelheid elektriciteit is van belang, ook hoe efficiënt die gebruikt wordt. Hier zijn positieve tekenen, want clouddatacenters blijken efficiënter te zijn. Google claimt in zijn datacenters een PUE (power usage effectiveness) van 1,10 te halen, Microsoft 1,12. In traditionele, lokale datacenters ligt dit cijfer vaak tegen 2 of hoger. Een PUE-waarde van 1 betekent dat er niet meer energie wordt verbruikt dan nodig is voor computing. Hoewel de globale computingcapaciteit sinds 2010 met 550 procent is toegenomen, steeg het energieverbruik in datacenters slechts met zes procent, lezen we in een artikel in Science Magazine dat dateert van 2020. Drie jaar geleden zag men de toenemende vraag naar AI ook al als een ecologische uitdaging voor de toekomst.
Als eindgebruiker heb je je tot nu toe niet al te veel hoeven te bekommeren om het energieverbruik van IT, maar daar komt verandering in. De Europese wetgeving rond duurzaamheidsrapporteringen neemt ook de emissies van externe partijen mee in rekening. Dit zal bedrijven bewuster maken van het verbruik van externe diensten en de druk op OpenAI en co verhogen om transparante cijfers te delen.
Hoewel de globale computingcapaciteit sinds 2010 met 550 procent is toegenomen, steeg het energieverbruik in datacenters slechts met zes procent.
Dorstige servers
Naast elektriciteit verbruiken datacenters ook de meest kostbare grondstof van onze planeet: water. Zware processen doen de temperatuur in datacenters snel oplopen. Water wordt dan verdampt om de servers af te koelen. Indirect zorgt AI ook voor waterverbruik via elektriciteitsopwekking en productie van servers en chips. Net zoals het energieverbruik zijn technologiebedrijven eerder terughoudend om absolute hoeveelheden te delen, maar bij grote cloudbedrijven zoals Microsoft en Google loopt de jaarlijkse waterconsumptie al snel op tot enkele miljarden liters per jaar, waarvan veel drinkbaar water.
lees ook
Google wil datacenter in Saint-Ghislain verder (water)verduurzamen
Amerikaanse onderzoekers hebben proberen berekenen hoeveel water ChatGPT ‘drinkt’. Volgens die schattingen blijkt de chatbot een onverzadigbare dorst te hebben. Het trainen van ChatGPT zou minstens 700.000 liter water hebben gekost. Na een gesprek van slechts vijf vragen heeft ChatGPT al een flesje van een halve liter leeggedronken. Microsoft zag het waterverbruik hierdoor in zijn datacenters stijgen met 34 procent. Aan dit huidige tempo en rekening houdend met de snelle stijging in het aantal gebruikers, zou het waterverbruik van ChatGPT tegen 2027 kunnen oplopen tot zes miljard kubieke liter. Dat is vier tot zes keer zoveel als het totale waterverbruik van Denemarken.
Waar in datacenters de laatste jaren grote stappen zijn gezet om efficiënter om te springen met energie, is er met waterverbruik nog veel winst te boeken. Microsoft rapporteert een globale WUE (water usage effectiveness) van 0,49, wat inhoudt dat het totale aantal liter water dat gebruikt wordt om servers koel te houden ongeveer de helft is van het totale aantal kWh stroom om die draaiende te houden. Idealiter ligt dit cijfer zo dicht mogelijk tegen 0. Het WUE-cijfer verschilt sterk van regio tot regio. Google, Microsoft en AWS beloven tegen 2030 waterneutreaal te zijn, maar er is dus nog werk aan de winkel.
Nieuwe technieken moeten voor minder en efficiënter gebruik van water zorgen. Immersiekoeling vindt stilaan zijn weg naar datacenters. In plaats van servers met waterdamp te besproeien, worden ze in een bad met vloeistof gedompeld om ze langer koel te houden. Het Taiwanese serverbedrijf Gigabyte is één van de voortrekkers in deze technologie.
Groene AI
Hoe AI-modellen duurzamer maken, zal in 2024 een even belangrijke technologievraag worden als hoe nog betere modellen te ontwikkelen. Er zijn verschillende zaken waar techneuten rekening mee moeten houden. De sleutel tot duurzame AI lijkt meer dan ooit in het datacenter te liggen. Nog meer dan de technieken die binnen de muren ingezet worden, lijkt de locatie van datacenters de bepalende factor.
Eerst en vooral is de nabijheid van duurzame energiebronnen een noodzaak. Windmolens en zonnepanelen zullen de komende jaren geen luxe, maar een basisvereiste zijn voor datacenters. Ook het klimaat en de nabijheid van voldoende water lijken evidente criteria. Het is bij toenemende droogte wereldwijd niet te verantwoorden om een datacenter in het midden van de woestijn te plaatsen waar amper voldoende drinkwater voor de bevolking is, ook al heb je daar misschien meer zonne-energie.
Google kreeg afgelopen zomer nog de woede van de Uruguayaanse bevolking over zich toen het plannen aankondigde voor een nieuw datacenter in het Zuid-Amerikaanse land, dat zijn ergste droogte in meer dan zeventig jaar meemaakte. In warme, tropische klimaten zal je altijd meer water moeten verbruiken om je servers koel te houden dan in een gematigd klimaat. Tel alle klimatologische factoren op en Noord-Europa lijkt het beloofde land voor datacenters. Zweden en Noorwegen wrijven zich in de handen om de grote technologiebedrijven te ontvangen.
Na slechts vijf vragen heeft ChatGPT al een flesje van een halve liter water leeggedronken.
Maar ook de technologie zelf zal een rol spelen, te beginnen bij de chips die in de datacenters worden gestopt. Nieuwe processors en AI-chips worden met steeds efficiëntere technologie gefabriceerd, zodat ze jaar na jaar minder energie verbruiken voor dezelfde prestaties. Ook de optimalisatie van de chips voor AI-werk zorgt voor een daling in het stroomverbruik. Chipmakers zoals Nvidia, Intel, AMD en Arm dragen dus een grote verantwoordelijkheid.
Als derde schakel zijn er de algoritmen. Het is niet langer meer houdbaar dat AI-systemen alsmaar groter worden. Dat lijken de bedrijven die de modellen bouwen stilaan ook in te zien. OpenAI-stichter Sam Altman pleit voor zo’n ‘groeistop’ en roept op om in plaats van in het oneindige parameters te blijven toevoegen, het onderzoek te focussen op hoe met minder parameters dezelfde prestatiewinsten kunnen geboekt worden.
lees ook
Drijft AI ons steeds verder richting de edge?
Tenslotte heb je ook als gebruiker een rol te spelen. Hou er rekening mee dat elke vraag die je aan ChatGPT stelt, hoe praktisch of banaal die ook mag zijn, energie en water kost. We zullen ons moeten aanleren om op een bewuste manier met deze wonderlijke technologie om te gaan. Duurzame AI kan enkel een realiteit worden wanneer alle schakels in de technologische keten op dezelfde golflengte zitten.