Agentic AI, de hype voorbij: hoe baanbrekend zijn AI-agents nu echt?

SAS Veronique Van Vlasselaer

Sinds de komst van ChatGPT is de evolutie van GenAI razendsnel gegaan. Voor bedrijven is het dan ook uitdagend om de snelle ontwikkelingen te volgen. Agentic AI kondigt de volgende revolutie aan die organisaties niet mogen missen. Er is zelfs sprake van een heuse digitale workforce die naast je menselijke personeel opereert. Maar gaat het echt zo’n vaart lopen? En waar ligt de grens met betrekking tot de autonomie die we AI-agents geven?

Om die vragen te beantwoorden, moeten we eerst nagaan wat Enterprise AI-agents precies doen. Eigenlijk bestaat de basis uit dezelfde enterprise data en AI assets die we al jaren gebruiken. Agents gaan echter een stapje verder dan chatbotapplicaties ontwikkeld met Large Language Models (LLM’s) die al snel tegen hun limieten botsen. Een LLM heeft immers geen toegang tot tools en het ontbreekt ook aan connectie met data, analytische rapporten of AI-modellen.

Als we een LLM bijvoorbeeld vragen waarom een bepaalde klant het bedrijf wil verlaten, dan zal het model geen antwoord kunnen geven. Enterprise AI-agents kunnen in hun communicatie wel gebruik maken van informatie over de klant. Een AI-agent is immers een systeem dat verschillende intelligente modules aan elkaar koppelt en gebruikt om je zo goed mogelijk te assisteren.

Belangrijke componenten

Waarneming

In de eerste plaats moet een agent ervaren wat de situatie inhoudt. Alles begint daarom bij het verzamelen van informatie uit verschillende bronnen. Dit brengt ons terug naar de basis die voor iedere vorm van AI belangrijk is: de data. Zonder kwalitatieve data kan geen enkel AI-systeem goede output opleveren. Een AI agent is geen uitzondering.

Interpretatie

In een volgende fase moet de AI-agent betekenis geven aan de vraag. De agent moet de vraag interpreteren en bepalen welke informatie nodig is om tot een correct antwoord te komen. Hier botsen traditionele LLM’s tegen hun grenzen: ze begrijpen de vraag vaak wel, maar missen de domein-specifieke kennis of context om een accuraat antwoord te formuleren. Daarvoor zijn enterprise assets zoals bedrijfsdata, kennisbanken en bestaande AI-modellen essentieel.

Beslissing

De derde component is het besluitvormingsproces. Op basis van de inzichten uit de vorige stap neemt de enterprise AI agent een beslissing over de beste strategie of handeling.

Actie

Wat agents echt onderscheidt, is de vierde component: de beslissing omzetten in een actie. Een agent doet dit autonomer dan we gewend zijn en heeft beperkte menselijke begeleiding nodig.

Vijfde component: governance

Om de betrouwbaarheid van AI-agents te garanderen, voegen we er nog een vijfde laag aan toe. Governance is belangrijk als we de autonomie van agents wil vergroten. Enterprise AI-agents zijn in de eerste plaats productiviteitsversnellers voor medewerkers. In de praktijk zorgen mensen dus nog steeds voor de lijm tussen wat de AI-agent produceert en wat er gecommuniceerd of beslist wordt. Door data te verzamelen over de prestaties kan je een agent beter en accurater maken. Agentic AI vereist een groeiproces waarbij je agents steeds zelfstandiger laat werken. Baken de autonomie van een agent eerst goed af en bouw dan stelselmatig op.

Fraudedetectie

Vanuit het perspectief van productiviteitsverhoging en als assistent van de mens bestaan AI-agents eigenlijk al geruime tijd. Wat tot voor kort ontbrak, was de integratie met Large Language Models (LLM’s). In de financiële wereld gebruiken banken bijvoorbeeld al decennialang systemen voor fraudedetectie – een taak die manueel vrijwel onmogelijk is en zich uitstekend leent voor automatisering met AI, en dus met AI-agents.

Een AI-model moet hiervoor de nodige gegevens verzamelen, zoals informatie over de plaats, het tijdstip en het bedrag van een transactie. Daarnaast heeft het systeem ook toegang tot de transactiegeschiedenis van een klant. Met die data zoekt AI naar patronen en discrepanties, zodat het systeem kan beslissen of een kredietkaart al dan niet moet worden geblokkeerd.

Twintig tot dertig jaar geleden noemden we dit een data mining-oplossing, tien jaar geleden spraken we van machine learning, en vijf jaar geleden van AI. Nu noemen we het een AI-agent die net zoals een menselijke collega screent of je kredietkaarttransacties te vertrouwen zijn. Voor het detecteren van fraude is een LLM niet noodzakelijk. Toch kan een bank in bepaalde toepassingen wel profiteren van integratie met zo’n LLM. Voor de National Bank of Greece is het bijvoorbeeld nuttig dat een model de vertaalslag maakt naar het Grieks waardoor agents in de moedertaal van klanten kunnen communiceren en analyseren.

Hoe maken we een AI-agent betrouwbaar?

In wezen verschillen Enterprise AI-agents dus niet veel van de modellen die we al jaren gebruiken. Maar zeker als deze systemen meer autonomie krijgen en verrijkt worden met LLM-toepassingen, moeten we voldoende aandacht besteden aan governance. Daarom zijn dit vier goede regels bij het opzetten van een agent:

  • Bepaal hoe autonoom je agent moet zijn. Niet alle agents hebben volledige autonomie nodig. Daarom is het belangrijk dat je de mogelijkheden vastlegt en de agent goed beheert. Stel jezelf ook altijd de vraag of het nodig is om een agent aan een LLM te koppelen. Uiteindelijk verbruiken deze tools veel energie en kosten ze ook geld, waardoor je er best zuinig mee omspringt. In principe is een LLM enkel noodzakelijk als er menselijke communicatie in natuurlijke taal bij komt kijken.
  • Bouw vangrails in die het gedrag van AI-agents sturen. Net zoals menselijke collega’s heeft ook AI bepaalde regels nodig waarbinnen het systeem mag functioneren. Governance is nodig om de grenzen van die omgeving vast te leggen. Wat mag een AI-agent doen? En vooral, wat mag hij niet doen? Voorzie ook fallback-mechanismen die ongewenst gedrag detecteren. Bij LLM’s zijn de mogelijke antwoorden eindeloos. Daarbij gaat een model ook antwoorden zoeken buiten de toegelaten omgeving. Een fallback-mechanisme zal het model afremmen en laten weten dat het op een bepaalde vraag niet mag antwoorden.
  • Zorg ervoor dat de redenering van een AI-agent traceerbaar is. Als je weet hoe een antwoord tot stand is gekomen, kan je de agent blijven trainen en verbeteren. Zo vergroot je stap na stap de autonomie van de tool en bepaal je welke beslissingen je aan de AI-agent kunt overlaten en wanneer een menselijke collega moet overnemen.
  • Kies voor een low/no-code aanpak bij het bouwen van agents. Als je geen codeerskills nodig hebt, is het gemakkelijker om de AI-agent te onderhouden. En als je op een visuele manier kunt zien hoe een beslissing is genomen, kan je de tool ook meteen verbeteren.

Veel organisaties zijn sinds de opmars van GenAI op een meer volwassen manier naar AI beginnen kijken. Experimenten rond AI en GenAI groeien en organisaties beginnen de waarde van agentic AI als productiviteitsversneller voor medewerkers te zien. Tegelijkertijd is het belangrijk in de evolutie van AI en AI-agents om de voordelen en risico’s zorgvuldig tegenover elkaar afwegen. Als we dat goed doen, zullen Enterprise AI-agents wel degelijk een grote impact op de business genereren.


Dit is een ingezonden bijdrage van Véronique Van Vlasselaer, Analytics & AI Lead, South West & East Europe bij SAS. Klik hier voor meer informatie over de oplossingen van het bedrijf.