Snelste supercomputer ter wereld breekt AI-records

IBM Summit supercomputer

IBM Summit, ’s werelds snelste supercomputer, heeft de strafste AI-berekening in de geschiedenis uitgevoerd. Nvidia, IBM en Google hebben de krachten gebundeld om  nieuwe records te breken. De focus van het onderzoek is de evolutie van het klimaat.

Allereerst een bloemlezing over de IBM Summit. Het systeem bestaat uit 4.608 servers die elk onderdak bieden aan twee IBM Power9 cpu’s met telkens 22 rekenkernen. De supercomputer heeft in totaal meer dan 200.000 processorkernen en 10 petabytes aan RAM ter beschikking.

Elke server bevat ook zes Tesla V100 gpu’s van Nvidia, of 27.648 in totaal. De Tesla V100 is gebaseerd op de Volta-architectuur en bedoeld voor datacenters. Deze chip is dankzij Tensor Core uitermate geschikt voor machine learning. Volgens Nvidia zijn de gpu’s verantwoordelijk voor 95 procent van de rekenkracht van Summit.

Deep learning

“Deep learning werd nog nooit met zo’n krachtige prestaties gecombineerd”, zegt Prabhat aan Wired. Prabhat (hij heeft maar één naam) is hoofd van de onderzoeksgroep aan de National Energy Research Scientific Computing Center bij Lawrence Berkeley National Lab.

’s Werelds krachtigste supercomputer werd belast met een AI-taak rond de klimaatverandering. Er werden weerpatronen gedetecteerd zoals cyclonen voor klimaatsimulaties. De dataset bestaat uit 100 jaar aan drie uursvoorspellingen over de atmosfeer van de aarde.

Het Summit-experiment is cruciaal voor de toekomst van AI en klimaatwetenschap. Het project demonstreert het wetenschappelijk potentieel van deep learning met supercomputers. Die werden voorheen eerder gebruikt om traditionele fysische en chemische processen te simuleren. Denk hierbij aan nucleaire explosies, zwarte gaten of nieuwe materialen.

TensorFlow

“We wisten niet wat er mogelijk zou zijn op deze schaal”, zegt Rajat Monga, Engineering Director bij Google. Hij heeft met zijn team geholpen om de openbron TensorFlow machine learningsoftware aan te passen op de gigantische schaal waarop Summit opereert.

Een klassieke architectuur voor deep learning gebruikt datacenters waar servers samenwerken. Problemen worden opgesplitst omdat ze relatief los aan elkaar gekoppeld zijn. Dat is niet het geval bij supercomputers zoals Summit. Die verschillen grondig van architectuur door middel van supersnelle verbindingen die duizenden processors linken in één enkel systeem.

Engineers van Nvidia hebben ook een handje moeten toesteken om de tienduizenden grafische chips vlot met elkaar te laten werken.

“Deep learning op supercomputers toepassen is een nieuw idee dat op een goed moment komt voor klimaatonderzoekers”, zegt Michael Pritchard, professor aan de University of California aan Wired. “De trage evolutie van verbeteringen binnen klassieke processors zorgt ervoor dat supercomputers steeds meer grafische chips omarmen. We zijn op een punt gekomen dat de klassieke groei niet meer haalbaar is. Met gpu’s maken we opnieuw grote sprongen voorwaarts.”

 

Gerelateerd: IBM onthult snelste supercomputer ter wereld

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.