Amazon Web Services heeft de algemene beschikbaarheid aangekondigd van nieuwe Elastic Compute Cloud G4 (EC2 G4)-instances. Die worden aangedreven door Nvidia Tesla T4-gpu’s en zijn geoptimaliseerd voor machine learning en grafisch intensieve workloads.
De EC2 G4-instances werden afgelopen maart reeds in preview door AWS gepresenteerd, in samenwerking met Nvidia. In een persbericht maakt Amazon nu de algemene beschikbaarheid bekend.
De G4-familie is de opvolger van de G3-reeks die in 2017 werd geïntroduceerd en verdubbelt de prestaties. De instances zijn geoptimaliseerd voor machine learning, dankzij de Tesla T4-gpu van Nvidia. Die beschikt over 3.000 rekenkernen, waarvan 320 specifieke Tensor Cores, speciaal ontwikkeld zodat AI-modellen sneller data kunnen verwerken.
De Tesla T4-gpu biedt een kostenefficiënt platform voor allerlei ML-workloads enerzijds (objectdetectie, aanbevelingssystemen, automatische spraakherkenning…) en grafisch intensieve workloads anderzijds (remote grafische workstations, video-transcodering, fotorealistisch design…).
Configuraties
De instances zijn beschikbaar in verschillende configuraties met tot maximaal 64 vCPU’s (2e gen Intel Xeon Scalable Cascade Lake), 4 Nivida Tesla T4-gpu’s, 256 GB geheugen, 900 GB NVMe-opslag en 50 Gbps netwerkdoorvoer. Binnenkort lanceert AWS ook nog een bare metal instance die tot 96 vCPU’s, 8 Nvidia-gpu’s, 348 GB geheugen, 1,8 TB NVMe-opslag en 100 Gbps netwerkdoorvoer biedt.
AWS voegt in de komende weken ook nog ondersteuning toe voor Amazon Elastic Inference. Daarmee kunnen ontwikkelaars de kosten verder drukken door provisioning van gpu-rekenkracht precies af te stemmen op hun workloads.
De G4-instances worden aangeboden in volgende regio’s: US East, US West, Europe (Frankfurt, Ierland, Londen) en Asia Pacific. Nieuwe regio’s zullen in de komende maanden worden toegevoegd.