AI heiligmakend? Klassieke analytics is al goed genoeg

Deep learning en AI zijn vandaag alomtegenwoordig in het nieuws. Zal wie niet op de kar springt, achterblijven? Bijlange niet, horen we van experts bij Smals. Sterker nog: deep learning is in veel gevallen niet beter dan oudere technieken.

Er passeert haast geen dag meer zonder ChatGPT-nieuws. Hoewel steeds meer Europese landen serieuze vragen hebben bij de legaliteit van de nieuwste AI-modellen, willen technologiereuzen zoals Google en Microsoft GPT-4 en consorten in hun producten integreren. AI lijkt de oplossing op zowat iedere bedrijfsvraag. Of niet? Vandy Berten, ICT-onderzoeker bij Smals, biedt toch wat nuance.

Toekomst in eenvoud

“ChatGPT zal de komende jaren niet meteen op grote schaal geïmplementeerd worden”, voorspelt hij. “Dat is ook niet nodig. Er zit nog veel toekomst in relatief eenvoudige technieken zoals klassieke analytics.” Berten merkt op dat zeker in de administratie vandaag nog heel wat klassieke analytics-projecten uitgerold moeten worden. “We zijn nu veel bezig met network analytics”, duidt hij. Berten verwijst daarmee niet naar IT-netwerken, wel naar de analytics op relaties tussen verschillende entiteiten. Daaruit komen dan inzichten die tot optimalisaties kunnen leiden.

In de praktijk is deep learning in veel gevallen niet beter dan oudere technieken.

Vandy Berten, ICT-onderzoeker Smals

Die keuze voor analytics is geen beperking, benadrukt hij. “Als er een probleem is, moet je kijken naar technologie die dat probleem kan oplossen. We gaan niet andersom tewerk. In de praktijk is deep learning in veel gevallen niet beter dan oudere technieken.” Katy Fokou van het AI-onderzoeksdepartement van Smals valt hem bij: “klassieke analytics om fenomenen te monitoren of te begrijpen is nog steeds erg belangrijk.”

Zwarte doos

Sterker nog: deep learning brengt problemen met zich mee die zich niet stellen wanneer je data onderzoekt met klassieke analytics-technieken. Concreet gaat het dan om het black box-probleem: wat modellen zoals GPT-3 en GPT-4 doen, valt eigenlijk niet uit te leggen. Onderzoekers weten dat het model werkt, maar kunnen het denkpatroon van bijvoorbeeld ChatGPT er niet bijhalen om even uit te leggen waarom de AI op een bepaalde manier heeft geantwoord op een specifieke vraag.

Dat is een probleem, niet alleen bij Smals. Berten: “Als een algoritme iets suggereert, moeten we die suggestie kunnen staven met concrete redenen. We mogen niet op een black box vertrouwen en dat is heel moeilijk met de huidige technieken. Met klassieke analytics kan je wel eenvoudig duiden welke parameters en relaties verantwoordelijk zijn voor bepaalde inzichten.”

Gevoelige beslissingen uitleggen

Het zal je niet verbazen en misschien zelfs geruststellen dat het onder die omstandigheden voor een partij als Smals erg moeilijk is om zomaar AI los te laten op data. Smals voorziet de IT voor de instellingen van de sociale zekerheid, dus data zijn vaak gevoelige persoonsgegevens. Het is ondenkbaar dat die zomaar verwerkt zouden worden door een large language model (LLM) zoals ChatGPT in de cloud. “Onze data protection officers zijn heel voorzichtig”, benadrukt Fokou. “Het duurt heel lang om toegang te krijgen tot persoonsgegevens.”

Professor Isabelle Boydens, experte in datakwaliteit aan de Université libre de Bruxelles en bij Smals wijst er nog op dat het black box-probleem en de gevoeligheid van data geen problemen zijn die exclusief aan Smals toekomen. “Ook een verzekering mag geen rechten ontkennen  zonder te zeggen waarom”, licht ze toe. De EU werkt momenteel aan AI-wetgeving die de toepassing van niet uitlegbare AI in veel gevallen aan banden zal leggen. Fokou: “Het zal een stuk moeilijker worden om deep learning te gebruiken met die nieuwe regels.” Duidelijk, uitlegbare en betrouwbare inzichten afkomstig uit klassieke analytics blijven gevrijwaard.

Niet altijd een ramp

Dat betekent niet dat Smals of andere organisaties met gevoelige data in beheer met lede ogen moeten toekijken terwijl de rest van de wereld enthousiast ChatGPT en consorten omarmt. Twee zaken spelen. Enerzijds is het black box-probleem niet onoplosbaar. “Onderzoek binnen AI gaat richting algoritmes die al iets minder last hebben van dat black box-fenomeen”, zegt Fokou. “Mensen willen weten wat de reden is voor een bepaalde uitkomst.”

Onderzoek binnen AI gaat richting algoritmes die minder last hebben van dat black box-fenomeen

Katy Fokou, AI-onderzoeksdepartement Smals

Langs de andere kant zijn niet alle data heel gevoelig, en is de zwarte doos niet altijd een groot probleem. “Wanneer algoritmes binnen e-commerce gebruikt worden om zaken aan te raden, en ze werken goed, dan is het geen grote ramp als de redenering van de achterliggende AI een beetje obscuur is”, verduidelijk Fokou. “LLM’s kunnen ook interessant zijn om bijvoorbeeld een FAQ op te stellen.”

Tenzij de FAQ natuurlijk gebaseerd is op gevoelige data. “Op dit moment is AI op basis van LLM’s Amerikaanse technologie in de cloud en die is geenszins transparant.” Boydens valt haar bij. Binnen de EU is een AI-chatbot die helpt om vragen in alle talen te beantwoorden handig. Er is zeker een nut om FAQ’s of teksten op te stellen die niets te maken hebben met confidentiële informatie.”

Goed kader, goede oplossingen

Op termijn denkt Fokou dat techniek an sich niet het probleem is. Net als bij analytics moet er voor AI en deep learning een duidelijk kader zijn. Op dit moment ontbreekt dat. Daar komt dan bij dat veel organisaties waaronder Smals zeker nog niet de bodem van de analytics-kan zien. Op dit moment is AI op basis van LLM een veelbelovende technologie met veel minpunten, waaronder transparantie.

Analytics is zoals Berten zegt een stuk duidelijker en beter uitlegbaar. Er vallen doorgaans nog heel wat klassieke inzichten uit analytics te halen door bijvoorbeeld nieuwe datasets met elkaar te koppelen. Dergelijke projecten zijn op zich al een grote uitdaging, die in het geval van Smals met de nodige juridische omzichtigheid gebeuren om jouw data van frivool misbruik te vrijwaren. En dan hebben we het nog niet over het belang van kwalitatieve data gehad, zowel voor analytics als voor AI (of eigenlijk wel, in dit stuk).

lees ook

Hoe hou je je data vers? Kwaliteit heeft een houdbaarheidsdatum

AI is dankzij ChatGPT hip, maar het is nieuw, moeilijk uit te leggen, niet noodzakelijk in lijn met bestaande datawetgeving en hoe dan ook niet matuur. Bovendien kan ook AI niet in de toekomst kijken. Analytics voelt soms als kunstmatige intelligentie maar is een veel meer mature technologie die op dit moment betere resultaten voorlegt. Als bedrijf wil je immers handelen naar inzichten uit data die je begrijpt, niet naar prompts van een buitenlandse AI die je blind moet vertrouwen.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.