Cloudflare introduceert een nieuwe functie waardoor ontwikkelaars AI-toepassingen wereldwijd kunnen inzetten met één klik, via een integratie met Hugging Face.
Cloudflare heeft aangekondigd dat ontwikkelaars nu direct vanuit Hugging Face, een open platform voor AI-ontwikkelaars, AI-toepassingen kunnen implementeren op haar wereldwijde netwerk. Deze mogelijkheid wordt geboden door Workers AI, waarmee Cloudflare zich profileert als de eerste serverloze inferentiepartner binnen de Hugging Face Hub.
Dit initiatief vereenvoudigt de wereldwijde implementatie van AI-toepassingen, door het wegnemen van de noodzaak voor ontwikkelaars om infrastructuur te beheren of extra te betalen voor ongebruikte rekencapaciteit.
De samenwerking tussen Cloudflare en Hugging Face komt tegemoet aan de behoefte van bedrijven om snel en betaalbaar te experimenteren met en itereren van AI-toepassingen. Met Workers AI, nu beschikbaar met ondersteuning voor GPU’s in meer dan 150 steden wereldwijd, kunnen ontwikkelaars efficiënt AI-modellen opschalen en inzetten. Dit ondersteunt de ontwikkeling van gespecialiseerde, domeinspecifieke toepassingen en verbetert de wereldwijde toegang tot AI-inferentie met lage latentie.
Door de integratie van Hugging Face met Cloudflare’s Workers AI, kunnen ontwikkelaars kiezen uit een verscheidenheid aan populaire open-source modellen en deze met één klik implementeren. Dit proces vergemakkelijkt niet alleen de toegang tot en het gebruik van AI-modellen, maar ondersteunt ook de snelle en wereldwijde schaalvergroting van AI-toepassingen.
Eerder deze week kondigde Cloudflare nog drie nieuwe tools aan om de full-stack ontwikkeling te vereenvoudigen. D1, Hyperdrive en Workers Analytics Engine