Microsoft kondigt nieuwe Azure AI-hulpprogramma’s aan voor betere kwaliteit en veiligheid LLM 

Microsoft

Microsoft lanceert vijf nieuwe Azure AI-hulpprogramma’s voor het verbeteren van de veiligheid en kwaliteit van LLM’s.  

Microsoft stelde in een recente blog zijn nieuwste Azure AI-hulpprogramma’s voor die gebruikers helpen om veiligere en betrouwbaardere generatieve AI-toepassingen te bouwen. Hiervoor rolde Microsoft vijf nieuwe AI-hulpprogramma’s uit waaronder Prompt Shields, Groundedness detection, veiligheidssysteem-berichten, veiligheidsevaluaties en risico en veiligheidsbewaking. Deze functies zijn gericht op het verbeteren van de veiligheid en kwaliteit van LLM’s. De meeste nieuwe hulpprogramma’s zijn momenteel in preview-versie beschikbaar en binnenkort algemeen beschikbaar.

Nieuwe AI-hulpprogramma’s

Naast de grote uitdaging van prompt injectie-aanvallen, heerst er bij bedrijven ook een vrees omtrent de veiligheid en betrouwbaarheid van hun LLM’s. Microsoft wil die veiligheidsrisico’s wegnemen en lanceert hiervoor vijf nieuwe Azure AI hulpprogramma’s. Deze nieuwe programma’s omvatten: 

  • Prompt Shields: Prompt injectie-aanvallen omzeilen de veiligheidsmaatregelen van een AI-systeem zodat indringers toegang krijgen tot gevoelige informatie. Hiervoor introduceerde Microsoft Prompt Shields, die verdachte invoer in realtime detecteren en blokkeren voordat ze het basismodel bereiken. Deze functie is nu beschikbaar als preview-versie in Azure AI Content Safety en binnenkort algemeen beschikbaar.  
  • Groundedness detection: Hallucinaties in generatieve AI wijzen op foutieve output van het AI-model, variërend van kleine onnauwkeurigheden tot valse output. De nieuwe Groundedness detection identificeert op tekst gebaseerde hallucinaties om de kwaliteit van de output te ondersteunen.
  • Berichten van het veiligheidssysteem: Met deze berichten kan het gedrag van jouw model in de richting van veilige, verantwoorde output worden gestuurd. Microsoft biedt binnenkort standaardsjablonen aan voor dergelijke veiligheidssysteemberichten in de Azure AI Studio- en Azure OpenAI Service-playgrounds.  
  • Veiligheidsevaluaties: Met deze evaluaties wordt de kwetsbaarheid van toepassingen voor jailbreak-aanvallen en het genereren van inhoudsrisico’s beoordeeld. Deze functie is beschikbaar als preview-versie.
  • Risico- en veiligheidsbewaking: Hiermee wordt de gevoeligheid van applicaties gemeten op bijvoorbeeld jailbreak-pogingen. Deze functie biedt ook verklaringen voor evaluatieresultaten en geeft hiervoor passende oplossingen. Deze functie is nu beschikbaar als preview-versie in Azure OpenAI Service en binnenkort algemeen beschikbaar.  

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home