De afgelopen paar jaar hebben we een ongekende verschuiving gezien in de toepassing van digitale technologieën, van het bekende High Performance Computing (HPC) en Big Data-analyse naar kunstmatige intelligentie (AI) en machine learning (ML). Een historische academische vraag om het tempo van wetenschappelijke ontwikkelingen te versnellen valt inmiddels samen met druk om zowel nieuwe productontwerpen als de beslissingstijd te versnellen op de commerciële markt.
Supercomputers, ook wel computationele of parallelle clusters genoemd, verwerken complexe simulaties door rekenproblemen op te splitsen in kleinere taken die simultaan worden uitgevoerd op meerdere server nodes, onderling verbonden door één snel netwerk. De prijs-prestatieverhouding van dergelijke systemen wordt steeds beter, wat ertoe bijdraagt dat HPC betaalbaarder wordt. Een computerprobleem dat twintig jaar geleden weken verwerkingstijd zou kosten op een systeem van miljoenen euro’s kan tegenwoordig in slechts enkele uren worden uitgevoerd op één enkele server, uitgerust met compute GPU’s.
HPC was vroeger alleen beschikbaar voor onderwijsinstellingen en grote bedrijven, maar is in recente jaren toegankelijker geworden omdat publieke clouds en gemeenschappelijke datacenters kleinere organisaties in staat stellen op verzoek rekencapaciteit op afstand te boeken, waarbij zij alleen betalen voor de geboekte uren en aanverwante diensten.
Met HPC kunnen commerciële organisaties een breed spectrum van complexe problemen oplossen, zoals productoptimalisatie en digitaal ontwerp, kredietanalyse en fraudedetectie, ontdekking van geneesmiddelen en menselijke studies, olie- en gasexploratie, klimaatonderzoek en weersvoorspelling, rendering en pre- en postproductie voor films, enzovoort.
De hardwarearchitectuur met meervoudige computationele GPU’s die tegenwoordig in de HPC-markt wordt gebruikt vertoont veel gelijkenissen met AI- en ML-implementaties, en de kruising van deze technologieën maakt ook meer geavanceerde AI-oplossingen mainstream, waarbij HPC mogelijk modellen kan trainen op steeds grotere datasets om het gebruik van compute-clusters te optimaliseren.
Met HPC kunnen commerciële organisaties een breed spectrum van complexe problemen oplossen.
Net zoals enterprise cloud computing nieuwe manieren creëerde voor bedrijven om klanten aan zich te binden en over te stappen op nieuwe manieren van werken, zal de volgende generatie supercomputers nieuwe mogelijkheden openen voor innovatie door de snelheid van O&O en de productontwikkeling met enkele ordes van grootte te versnellen.
Een nieuw tijdperk van supercomputing
Van 2002 tot 2009 verdubbelden de prestaties van supercomputers bijna elke 12 maanden. Van 2009 tot 2019 daalde dit tempo echter tot een verdubbeling in 28 maanden, wat wordt toegeschreven aan verschillende factoren zoals de vertraging van de Wet van Moore en technische beperkingen zoals Dennard-schaling1.
De industrie heeft nu innovatieve manieren gevonden om deze beperkingen te overwinnen en zo het zogeheten exascale-tijdperk voor computers in te luiden. Een exascale-systeem is een systeem dat een quintiljoen floating-point operaties per seconde (FLOPS) kan uitvoeren. Dat is een miljard miljard – of 1.000.000.000.000.000 – wat betekent dat exascale-machines berekeningen vijf keer sneller kunnen uitvoeren dan de beste supercomputers van vandaag, en ook complexere modellen met hogere precisie kunnen verwerken.
Om deze prestaties te bereiken kiezen de ingenieurs voor een heterogene aanpak, bestaande uit geïntegreerde CPU’s en GPU’s en iteratieve optimalisatie van zowel hardware als software, om hogere prestatie- en efficiëntieniveaus te bereiken tegen lagere kosten per FLOPS.
Nergens wordt dit beter aangetoond dan met de Frontier-supercomputer die wordt ontwikkeld in de Oak Ridge Leadership Computing Facility in de Verenigde Staten, en die geschiedenis zal schrijven als ’s werelds eerste operationele exascale-supercomputer wanneer hij later dit jaar wordt ingeschakeld. De machine wordt aangedreven door derde-generatie AMD EPYC-CPU’s en Radeon Instinct-GPU’s en zal meer dan 1,5 exaflops aan piekverwerkingskracht leveren. Er is een nog krachtiger AMD-gebaseerd exascale-systeem aangekondigd, El Capitan genaamd, dat naar verwachting in 2023 bij Lawrence Livermore National Labs in de Verenigde Staten zal worden gebouwd.
Japan heeft inmiddels zijn eigen FUGAKU supercomputer met 1,42 exaflops piekprestaties en China heeft naar verluidt een minder bekend Sunway “Oceanlite” systeem met 1,32 exaflops piekprestaties in gebruik. Dus waar staat Europa in deze race?
Europa’s exascale-missie
Europa staat erom bekend in bijna elk segment zijn eigen weg te gaan en op gebied van supercomputing is dit niet anders. Terwijl China en de VS ernaar streven leiders te worden in de wereld van supercomputing, kiest Europa voor een meer op samenwerking gerichte aanpak met een door de overheid gefinancierde Europese Gemeenschappelijke Onderneming voor High-Performance Computing (EuroHPC), die is opgezet en wordt beheerd door het Partnership for Advanced Computing in Europe (PRACE). In het kader van dit initiatief worden middelen gebundeld om een geïntegreerde Europese HPC- en data-infrastructuur van wereldklasse te financieren en een innovatief ecosysteem voor supercomputing te ondersteunen.
De inspanningen van het continent op het gebied van supercomputing worden ook ondersteund door Horizon Europe, een zevenjarig kader voor wetenschappelijk onderzoek van de Europese Unie waarin bijna 80 miljard euro wordt geïnvesteerd om ontdekkingen en wereldprimeurs te stimuleren, met inbegrip van de ontwikkeling van in de EU gebaseerde exascale-machines.
Europa staat erom bekend in bijna elk segment zijn eigen weg te gaan en op gebied van supercomputing is dit niet anders.
Deze unieke aanpak heeft geleid tot een aantal doorbraken op de Europese supercomputermarkt, waardoor onderzoekers in het hele continent uitdagingen kunnen aanpakken die vroeger onbereikbaar werden geacht.
Hawk
Neem de Hawk supercomputer, momenteel het 24e systeem in de TOP500-lijst van ’s werelds snelste supercomputers, geïnstalleerd aan de Universiteit van Stuttgart (HLRS). Deze machine – een HPE Apollo 9000 systeem met 5.632 nodes verspreid over 44 kasten, waarbij elke node AMD EPYC-CPU’s bevat – levert ongeveer 26 petaflops piekprestaties en heeft onderwijsinstellingen en klanten in staat gesteld geavanceerd academisch en industrieel onderzoek uit te voeren in een breed scala van contexten. HLRS stelt bijvoorbeeld klanten in de automobielsector in staat om structurele analyses en vloeistofdynamische simulaties uit te voeren.
Lumi
Er is ook Lumi, een pre-exascale-machine in het IT Centre for Science (CSC) in Kajaani, Finland, die de kracht van dit nieuwe supercomputertijdperk demonstreert. Lumi, die gebruik maakt van vergelijkbare technologie als Frontier met zijn aangepaste AMD EPYC “Trento” CPU en vier AMD Instinct MI250X GPU-versnellers per node, zal meer dan 375 petaflops of meer dan 375 miljoen miljard berekeningen per seconde kunnen uitvoeren, met een theoretische piekprestatie van meer dan 550 petaflops per seconde.
Wat pre- en exascale-machines bijzonder interessant maakt, is geheugencoherentie. Deze technologie, die nog niet beschikbaar is voor de algemene markt, houdt in dat er één enkele kopie is van gegevens die zowel door de CPU als door de GPU’s worden geraadpleegd, zonder dat het nodig is afzonderlijke kopieën voor elk te bewaren. Dit vermindert op zijn beurt de programmeeroverhead, verbetert de prestaties en houdt systeembronnen vrij, waardoor geavanceerde systemen zoals Lumi efficiënter kunnen draaien.
Lumi beschikt ook over innovatieve ‘gratis koeltechnologie’, waarmee afvalwarmte kan worden gebruikt in het stadsverwarmingsnetwerk van Kajaani, waardoor de kosten verder dalen en de CO2-voetafdruk kleiner wordt. Verwacht wordt dat deze technologie de jaarlijkse CO2-voetafdruk van de hele stad met 13.500 ton zal verminderen, een hoeveelheid die gelijk staat aan de output van 4000 personenauto’s2.
Dankzij deze enorme rekencapaciteit stelt de machine – die nu al tot de beste supercomputers ter wereld behoort – Europese onderzoekers in staat problemen op verschillende gebieden op te lossen, van weersvoorspellingen en cyberveiligheid tot de ontdekking van geneesmiddelen en gepersonaliseerde geneeskunde. Het zorgt ook voor doorbraken op het gebied van klimaatverandering; de AMD-aangedreven Lumi stelt klimaatwetenschappers in staat klimaatmodellen met een hoge resolutie uit te voeren, wat betere inzichten kan opleveren voor studies naar de gevolgen van klimaatverandering.
Blijvende focus en investeringen
Op weg naar exascale beseft Europa nu al welke nieuwe mogelijkheden dit ongeëvenaarde prestatieniveau kan bieden; deze systemen zullen helpen de meest complexe wetenschappelijke onderzoeksvragen op te lossen, wetenschappers in staat stellen realistischer modellen voor het aardsysteem en het klimaat te maken, en zullen nieuwe studies van het heelal aanjagen, van deeltjesfysica tot de vorming van sterren.
Op weg naar exascale beseft Europa nu al welke nieuwe mogelijkheden dit ongeëvenaarde prestatieniveau kan bieden.
Het continent wil nu hardware die de prestaties van Fugaku, ’s werelds snelste supercomputer, overtreft. Het is een ambitieus en complex project dat tijd zal vergen en daarom is de huidige democratisering van HPC zo belangrijk. Met toegang tot technologie die wordt ontwikkeld door AMD en x86-leveranciers en die nu al wordt gebruikt in enkele van ’s werelds snelste machines, alsmede toegang tot off-the-shelf open-source software tools om supercomputing-workloads te optimaliseren en te schalen, is Europa reeds in staat complexe oplossingen op te lossen en de voordelen van exascale computing te realiseren.
Toch zou het een blijvende focus en investeringen van meerdere Europese landen vergen om hardware, tools en schaalbare software van eigen bodem te ontwikkelen indien Europa serieus zijn eigen, unieke exascale-klasse systemen wil exploiteren.
Dit is een aangeleverde bijdrage van AMD. Voor meer informatie over hun oplossingen kan je hier terecht.