Red Hat introduceert Red Hat AI 3: schaalbare AI-inferentie in productie

Red Hat introduceert Red Hat AI 3: schaalbare AI-inferentie in productie

Red Hat zet Red Hat AI 3 in de markt. Dat platform combineert AI-versies van onder andere RHEL en OpenShift tot een geheel dat de uitrol van AI in productie moet vereenvoudige.

Red Hat lanceert Red Hat AI 3. Met die een update van zijn AI-platform wil de opensource-softwarespecialist bedrijven helpen om AI-inferentie op schaal succesvol in productie te brengen, in hybride omgevingen.

Het platform is gebouwd op AI-smaakjes van gekende technologie. Het combineert de technologieën van Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) en Red Hat OpenShift AI. Het samenspel van de AI-varianten van vertrouwde opensource-oplossingen van Red Hat moeten zo AI-workloads sneller van proof-of-concept naar productie kunnen brengen.

MaaS, Hub en Studio

Red Hat stipt vier belangrijke vernieuwingen aan met de lancering van Red Hat AI 3:

  • Model as a Service (of MaaS): Hiermee maakt Red Hat het mogelijk om AI-modellen centraal te beheren en op aanvraag beschikbaar te stellen binnen de organisatie, zowel voor ontwikkelaars als toepassingen. Zo behouden bedrijven controle over hun data en infrastructuur.
  • AI Hub: Met de AI Hub krijgen gebruikers toegang tot een gecureerde catalogus van modellen en tools om de volledige levenscyclus van modellen te beheren. De hub bevat ook een omgeving om de uitrol van modellen via OpenShift AI de beheren.
  • Gen AI Studio: de Gen AI Studio is gericht op ontwikkelaars. De studio biedt een plek waar ze kunnen experimenteren met modellen en toepassingen bouwen op basis van large language models en technieken zoals retrieval-augmented generation (RAG).
  • Nieuwe modellen: Red Hat voegt ook geoptimaliseerde LLM’s toe, waaronder gpt-oss van OpenAI, DeepSeek-R1 en spraakmodellen zoals Whisper en Voxtral Mini.

OpenShift AI

Binnen Red Hat AI 3 is er een belangrijke rol weggelegd voor Red Hat OpenShift AI 3.0. OpenShift AI 3.0 ondersteunt nu ook agent-gebaseerde AI-toepassingen. Red Hat introduceert daarvoor een Unified API gebaseerd op de Llama Stack en adopteert het Model Context Protocol (MCP). Dat protocol helpt bij de communicatie tussen modellen enerzijds en externe tools en data anderzijds. Het wint de laatste maanden aan populariteit en wordt ondersteund door belangrijke spelers zoals Snowflake en Salesforce.

lees ook

Red Hat Summit Brussels: van open source-waarden naar concrete AI-enabler

Daarnaast bevat Red Hat AI 3 een toolkit voor modelaanpassing, gebouwd op de InstructLab-technologie. Hiermee kunnen ontwikkelaars eigen data verwerken, synthetische data genereren en modellen trainen en evalueren.

Van idee naar efficiënte toepassing

Voor Red Hat AI 3 legt Red Hat de nadruk op inferentie. Met de opname van llm-d, een uitbreiding op het vLLM-project, ondersteunt het platform nu ook gedistribueerde inferentie op Kubernetes. Dit moet leiden tot lagere kosten, snellere responstijden en een efficiëntere inzet van acceleratoren zoals GPU’s van Nvidia en AMD.

Red Hat erkent dat het complex is om AI-projecten succesvol in productie te brengen. Met Red Hat AI 3 hoopt het bedrijf een platform aan te bieden dat hordes wegneemt. Red Hat hoopt dat de combinatie van tools en integraties, gebouwd bovenop een gekende en vertrouwde Linux-fundering, volstaat voor grote bedrijven om hun AI-concepten wel om te zetten in toepassingen die een meerwaarde bieden in productie en uiteindelijk ook geld opbrengen.

De lancering van het platform past binnen de bredere ambitie van Red Hat. Het bedrijf wil zich steeds meer postioneren als AI-specialist en niet alleen als belangrijke open source-speler.