Dell opent een portaal op het opensourceplatform Hugging Face om bedrijven van de nodige middelen te voorzien om generatieve AI-modellen op on-prem servers te draaien.
Wie vandaag met generatieve AI aan de slag wilt, is vaak gedwongen om met een hyperscaler in zee te gaan. Om generatieve AI on-prem te draaien, heb je eerst al de technische kennis nodig om een model te ontwikkelen, maar ook nog eens de servercapaciteit om de modellen te huisvesten. Dell wil van on-prem generatieve AI een volwaardig alternatief maken en ziet in Hugging Face de geschikte partner.
Hugging Face is een opensourceplatform voor applicatieontwikkeling. Het bedrijf zet sterk in op het communitygevoel onder zijn leden. Iedereen kan er machine learning-modellen en datasets om AI te trainen met elkaar delen. In de samenwerking zal Dell zich als gulle weldoener positioneren.
lees ook
Drijft AI ons steeds verder richting de edge?
Containers op maat
Dell biedt via Hugging Face containers en scripts om de opensourcemodellen te implementeren. Die containers en scripts zijn wel op maat van de eigen infrastructuur, dus het helpt als je toevallig al een Dell-server hebt staan. In de loop van de tijd zal Dell de containers verder optimaliseren. “”De GenAI-mogelijkheden van Dell, in combinatie met de verzameling datasets en bibliotheken van Hugging Face, bieden gebruikers de vrijheid van open-source GenAI-modellen met de gemoedsrust van on-premises databeveiliging en betrouwbaarheid”, zegt Jeff Boudreau, chief AI officer, Dell Technologies.
Dell is niet de enige partij die generatieve AI uit de klauwen van de hyperscalers probeert te krijgen. Voormalige dochter VMware kondigde een week geleden tijdens zijn Explore-evenement samenwerkingen met Intel en IBM rond ‘private AI’. Dat is een andere beschrijving voor AI-modellen die niet in de datacenters van een externe cloudprovider leven, maar op intern beheerde infrastructuur.