De AI-hypetrein doet met GreenLake een nieuw station aan. HPE integreert LLM’s in zijn cloud-achtige aanbod. Die zijn kant en klaar, zodat organisaties meteen toegang krijgen tot specifieke AI-functionaliteit.
HPE overgiet zijn GreenLake-aanbod met een AI-sausje. Dat sausje heet HPE GreenLake for Large Language Models (LLM’s). GreenLake-klanten krijgen toegang tot dergelijke LLM’s, die HPE via de cloud aanbiedt. De oplossing werd ontwikkeld samen met de Duitse AI-startup Aleph Alpha.
Klaar voor gebruik maar aanpasbaar
De modellen in kwestie zijn klaar voor gebruik en dienen voor verwerking en analyse van zowel beelden als tekst. Het eerste model heet Luminous. Gebruikers kunnen het verder trainen voor hun organisatie-specifieke noden. Het is de bedoeling dat de capaciteiten van het LLM binnen zakelijke workflows worden geïntegreerd. HPE’s Machine Learning Development Environment en Machine Learning Data Management-tools helpen daarmee.
HPE wil op termijn via GreenLake een breed aanbod uitbouwen van AI met sectorspecifieke training. Onder andere gezondheidszorg, klimaatonderzoek, de financiële sector en productie en transport staan op het programma. Om GreenLake voor LLM’s van extra functionaliteit te voorzien, kijkt HPE ook naar extra partners.
Cray-supercomputers
De LLM’s in kwestie zijn enkel via de cloud beschikbaar waar ze draaien op HPE Cray XD-supercomputers. Die draaien op hernieuwbare energie en zouden een architectuur hebben die uitermate geschikt is voor AI-workloads. GreenLake voor LLM’s is een dienst waarvoor je de functionaliteit betaalt, niet de onderliggende hardware.
HPE GreenLake voor LLM’s zal op aanvraag beschikbaar zijn en dat in eerste instantie in de VS. In Europa kan je vanaf begin 2024 intekenen op de AI-capaciteiten.