Wie graag AI-berekeningen on-premise wil draaien, moet dikwijls investeren in flink wat hardware. Pure Storage heeft met de AIRI Mini een compacte oplossing klaar, gebaseerd op zijn eigen FlashBlade en Nvidia’s DGX-1
De kans is groot wanneer je met AI-toepassingen voor je bedrijf wil experimenteren, dat je richting een van de grote cloudplatformen kijkt en een server huurt. Wanneer de experimentele fase voorbij is, kan on-premise hardware op termijn interessanter zijn. Pure Storage heeft met de AIRI Mini een compacte AI-oplossing die je lokaal kan uitrollen.
AI-ontwikkelingen
De AI-infrastructuur maakt gebruik van twee Nvidia DGX-1-servers. Dat aantal kan later dynamisch schalen wanneer AI-ontwikkelingen de huidige capaciteit overstijgen. “De grote meerderheid van de businessleiders ziet de enorme kansen die AI biedt. Maar door de complexiteit rond de implementatie komen hun AI-initiatieven vaak niet echt van de grondâ€, meldt Matt Burr, General Manager van FlashBlade bij Pure Storage.
“AIRI biedt een eenvoudige AI-infrastructuur voor projecten van iedere omvang. Het neemt de barrià¨res weg die de inzet van AI nu vaak tegenhouden en maakt de weg vrij voor toekomstige uitbreidingen.â€
2 petaFLOPS
AIRI Mini draait op à©à©n Pure Storage FlashBlade dat bestaat uit zeven 17 TB-blades en 1,5 miljoen IOPS levert. Elke Nvidia DGX-1 wordt geconfigureerd met 8 Tesla V100-GPU’s. Eà©n AIRI Mini levert 2 petaFLOPS aan AI-capaciteit. Het systeem wordt standaard geleverd met 100 GbE-switches die GPUDirect RDMA ondersteunen. Wie wil, kan ook kiezen voor de Nexus9000 100 Gb ethernet-switches van Cisco.
Wie meer wil, kijkt beter uit naar de gewone AIRI met vier Nvidia DGX-1-servers en 4 petaFLOPS aan rekenkracht. De AIRI Mini is direct leverbaar, net als de AIRI. Beide worden geleverd met de Nvidia GPU Cloud Deep Learning Stack en AIRI Scaling Toolkit.