Nutanix lanceert een nieuwe versie van zijn Enterprise AI-oplossing. Die biedt vooral diepere integratie met de Nvidia AI Enterprise-suite.
Op zijn .Next-conferentie in Washington D.C. kondigt Nutanix de algemene beschikbaarheid aan van de nieuwste versie van Nutanix Enterprise AI (NAI). Deze nieuwe release van wat vroeger nog GPT-in-a-Box heette, bevat een uitgebreide integratie met Nvidia AI Enterprise, waaronder de microservices Nvidia NIM en het Nvidia NeMo-framework.
Met de integratie wil Nutanix de implementatie van agentische AI-toepassingen in de bedrijfsomgeving faciliteren. NAI heeft als doel om de adoptie van generatieve AI in ondernemingen te versnellen door klanten te helpen bij het bouwen, uitvoeren en veilig beheren van AI-modellen en inferentieservices, allemaal binnen de Nutanix-omgeving.
Net als de rest van het Nutanix-platform is ook NAI locatie-agnostisch. De oplossing werkt zowel aan de rand van netwerken, in datacenters en in publieke cloudomgevingen. Kubernetes is de hoeksteen van het systeem.
AI en het autonome datacenter
De nieuwste versie maakt het volgens Nutanix eenvoudiger om AI-workloads te implementeren en zo de dagelijkse operaties te vereenvoudigen. Agenten zullen actie kunnen ondernemen op anomalieën in het datacenter, klinkt het op het podium. Nutanix luidt daarmee het tijdperk van het autonome datacenter in.
NAI stroomlijnt de middelen en modellen die nodig zijn om verschillende toepassingen over verschillende afdelingen te implementeren. Dit gebeurt met een veilige, gemeenschappelijke set van embed- en herrangschikkingsmodellen, die zorgen voor de functionaliteit van AI-agents. De oplossing bevat ook een gecentraliseerd LLM-modelrepositorium, waarmee klanten eenvoudig en privaat generatieve AI-toepassingen kunnen verbinden.
Efficiëntie
De nieuwe versie van NAI ondersteunt de implementatie van agentische AI-toepassingen met gedeelde LLM-eindpunten. Dit maakt hergebruik van model-eindpunten mogelijk voor meerdere toepassingen, waardoor het gebruik van kritieke infrastructuurcomponenten zoals GPUs, CPUs, geheugen en opslag wordt verminderd.
NAI biedt verder ondersteuning voor Nvidia-modellen, zoals de Llama Nemotron open reasoning-modellen en NeMo Guardrails, die helpen om veilige en betrouwbare AI-oplossingen te ontwikkelen.
Daarnaast biedt de NAI-oplossing mogelijkheden voor generatieve AI-beveiliging, zodat bedrijven AI-toepassingen kunnen implementeren in overeenstemming met hun eigen beleidsmaatregelen. NeMo Guardrails helpen bij het filteren van ongewenste inhoud en het verbeteren van de betrouwbaarheid van codegeneratie.
Samen met Nvidia
Geen van die zaken is op zichzelf echt revolutionair. In feite koppelt Nutanix gewoon de recenste toevoegingen van het Nvidia Enterprise AI-ecosysteem aan zijn eigen AI-oplossing. Dat is relevant voor Nutanix-klanten, en past in een brede trend. Wat AI-innovatie betreft, zwaait Nvidia de plak. Het is dan aan derden om Nvidia’s AI-capaciteiten te koppelen aan het eigen platform, om zo dat brede ecosysteem te combineren met de voordelen van de eigen omgeving.
“Vorig jaar zijn we de samenwerking met Nvidia gestart”, zegt CEO Rajiv Ramaswami nog op het podium. “Alle oplossingen van Nvidia zitten verwerkt in onze oplossing. We brengen alles samen, maken het sumpel en geven je voorspelbare kosten, zowel on-premises als in de cloud.”