Red Hat neemt Chatterbox Labs over voor AI-beveiliging

red hat logo

Red Hat kondigt de overname aan van Chatterbox Labs en wil daarmee AI-beveiliging en guardrails toevoegen aan het Red Hat AI-portfolio.

Red Hat heeft de overname bekendgemaakt van Chatterbox Labs, een bedrijf dat zich richt op model-agnostische AI-beveiliging en guardrails voor generatieve AI. De technologie moet organisaties helpen om AI-modellen aantoonbaar veiliger en betrouwbaarder naar productie te brengen in hybride cloudomgevingen.

AI-beveiliging

Organisaties staan vandaag voor de uitdaging om niet alleen modellen uit te rollen die krachtig zijn, maar ook betrouwbaar en veilig. Veiligheids‑ en guardrail‑functionaliteit wordt daarmee een basisvoorwaarde voor moderne machine learning operations (MLOps).

Chatterbox Labs levert geautomatiseerde, op maat gemaakte AI‑beveiligings‑ en veiligheidstesten met de feitelijke risicostatistieken die besluitvormers nodig hebben om AI‑toepassingen goed te keuren voor productie. De technologie biedt een model‑agnostische aanpak om data en modellen te valideren via:

  • AIMI for gen AI, dat onafhankelijke, kwantitatieve risicometrics levert voor large language models (LLM’s);
  • AIMI for predictive AI, dat elke AI‑architectuur toetst aan de hand van belangrijke pijlers zoals robuustheid, eerlijkheid en uitlegbaarheid;
  • Guardrailsdie onveilige of bevooroordeelde prompts identificeren en mitigeren voordat modellen in productie worden genomen.

Agentische AI en MCP

Red Hat koppelt de overname aan de groei van agentic AI en ondersteuning voor Model Context Protocol (MCP). Het bedrijf wijst erop dat AI-agenten autonomer worden en zo meer impact kunnen hebben op kritieke systemen. Chatterbox Labs deed volgens Red Hat onderzoek naar beveiliging van agenten, waaronder monitoring van antwoorden en het detecteren van acties op MCP-servers die door agenten worden getriggerd.

lees ook

Red Hat injecteert meer AI en beveiliging in Red Hat Enterprise Linux

Red Hat wil de guardrails en tests combineren met zijn MLOps-capaciteiten. Het doel is om organisaties meer controle te geven over AI-risico’s bij implementaties met verschillende modellen, accelerators en omgevingen, zonder afhankelijk te zijn van één specifiek modeltype.