De grote AI-bedrijven zetten hun systemen neer als alwetende orakels. Niet-kritische gebruikers vertrouwen daardoor blindelings op AI, terwijl het kunstmatige brein even gebrekkig is als het menselijke.
OpenAI, Google, Anthropic en andere AI-bedrijven scheppen tegen elkaar op wie het ‘slimste’ model heeft. Bij iedere generatie wordt gezwaaid met benchmarks die aantonen dat het nieuwe model nóg beter is in redeneren, analytics denken, taalbegrip en andere intellectuele vaardigheden die de mens onderscheiden van het dierenrijk. Volgens Sam Altman is het slechts kwestie van tijd vooraleer AI het menselijke brein zal overtreffen.
AI wordt alsmaar dieper geïnjecteerd in de software en webdiensten die we dagelijks gebruiken. Dat maakt het verleidelijk om als mens lui te worden. Je hoeft zelf geen informatie meer op te zoeken of teksten te lezen: AI doet het wel voor jou. Daar schuilt een gevaar in, waarschuwen experten die niet op de loonlijst staan van de grote technologiebedrijven.
Artificiële systemen zijn niet de alwetende orakels waarvan we misschien soms hopen dat ze het wel zijn. Integendeel, in de huidige staat van de technologie zijn ze net zeer menselijk. Dat betekent dat ze veel kunnen, maar ook dezelfde gebreken vertonen als mensen.
Oeps, vergeten
Iedereen vergeet wel eens iets. Ook het artificiële brein, waarschuwt Steve Brazier, President en CEO van Canalys, in zijn keynote tijdens de Dustin Inspiration Day in Brussel. Hij zegt dat AI-chatbots ‘moe’ worden en niet meer opletten bij lange tekstprompts. Daardoor onthouden ze enkel het begin en het einde, maar alles in het midden is de chatbot tegen dat je uitgetypt bent alweer vergeten.
Daarnaast heeft AI ook maar een kortetermijngeheugen, leren we van Brazier. Start je ’s ochtends een nieuwe sessie, dan herinnert het doorsnee AI-systeem zich nauwelijks nog iets van je gesprekken van gisteren. Net zoals jij wellicht het onderwerp van de laatste teammeeting gisteren bent vergeten als je geen notities hebt genomen.
Deze beperkingen in combinatie met hallucinaties of het feit dat systemen ‘staken’ als je tokens op zijn, zijn problematisch voor zakelijke implementaties van AI. Brazier: “Slechts vier of vijf procent van gebruikers is misschien bereid om ervoor te betalen. Betalende gebruikers willen wel sneller upgraden naar nieuwe systemen omdat ze meer inzicht willen in wat AI wel en niet voor hen kan doen”.
Volgens Brazier zijn de nieuwste generaties van populaire LLM’s ook niet meer zo revolutionair als dat de bedrijven ons willen doen geloven. “Een van de lessen die we dit jaar hebben geleerd, is dat de ontwikkeling een beetje is gestagneerd. Is ChatGPT-5 zoveel anders dan versie vier”?
De ontwikkeling van AI is gestagneerd. Is ChatGPT-5 zoveel anders dan versie vier?
Steve Brazier, President & CEO Canalys
Schaar-steen-papier
Inti De Ceukelaire, ethisch hacker van Intigriti, trekt tijdens een evenement van Bechtle het creatieve denken van AI-systemen in twijfel. Dat doet hij aan de hand van een spel dat ieder in zijn kindertijd heeft gespeeld: schaar-steen-papier (of blad-steen-schaar, afhankelijk van in welke regio je bent opgegroeid). Met een simpele prompttruc, het woordje rock vervangen door stone, zet in hij in één klap ChatGPT, Claude, Gemini, Copilot, Perplexity en DeepSeek in hun hemd.
“AI probeert onvoorspelbaar te zijn, maar is net heel voorspelbaar omdat het op menselijke input is getraind is die niet perfect is. Modellen zijn niet uniek of creatief. De beste manier om AI te verslaan, is door ‘onzinnig’ te handelen”, verklaart De Ceukelaire zijn huzarentruc. “We implementeren AI zonder na te denken. Zo vergroten we onze eigen imperfecties uit”.
AI-modellen zijn niet uniek of creatief. Ze zijn getraind op menselijke input die niet perfect is.
Inti De Ceukelaire, Chief Hacker Officer Intigriti
Zwakke schakel
De Ceukelaire demonstreert met nog andere voorbeelden hoe eenvoudig AI om de tuin te leiden is, met gevolgen die schadelijker zijn dan een spelletje schaar-steen-papier verliezen. Een techniek genaamd macaronic prompting, stukjes van woorden aan elkaar plakken tot een woord dat voor een mens totale nonsens lijkt, blijkt in staat om ingebouwde guardrails te omzeilen.
We zien hoe een model dat de strikte instructie gekregen heeft om geen beelden van een konijn te maken, die instructie overboord gooit bij een prompt die is opgesteld met stukjes van het woord ‘konijn’ in verschillende talen. Met gelijkaardige technieken zou je commerciële AI-modellen content kunnen laten tonen waarop het getraind is die niet te tonen.
In een laatste demo laat de ethische hacker het publiek in de rol van een politie-inspecteur kruipen. Het doel is om een artificiële misdadiger tot bekentis te krijgen. De Ceukelaire laat ons enkele beproefde ondervragingstechnieken toepassen die zeer effectief blijken op mensen, en ook de artificiële misdadiger loopt na enig aandringen in de val.
“AI heeft dezelfde zwaktes als het menselijke brein. Het kan dus ook de zwakke schakel in je beveiliging zijn. Op termijn is het niet ondenkbaar dat hackers zich erop zullen richten. Voorstanders geloven dat AI neutraal is, maar het overladen met informatie doet het zijn origine programmering vergeten. Denk twee keer na over waar en hoe je AI inzet”, vat De Ceukelaire zijn betoog samen.
Blind vertrouwen
Het grote publiek lijkt echter niet bewust te zijn van de imperfecties van artificiële intelligentie. Mensen vertrouwen op de kennis en expertise van AI-chatbots, terwijl ze vaak gewoon zeggen wat je wil horen. Zelfs ervaren beroepsprofessionals lopen tegen de lamp: consultancybureau Deloitte moest recent met schaamrood toegeven dat het AI gebruikt had bij een rapport voor de Australische overheid dat fouten bevatte.
Dergelijke toestanden zijn volgens AI-experte Timnit Gebru, gastpreker op Celosphere, een gevolg van wat ze als ‘vertrouwensbias’ omschrijft. We gaan er als mens bijna vanuit dat technologie het beter weet dan wij en volgen zonder zelf kritisch te denken. Gebru moest vijf jaar geleden gedwongen vertrekken bij Google na onenigheid met de bedrijfsleiding over een kritische paper en staat sindsdien bekend als voorvechtster van betrouwbare AI-technologie.
lees ook
Microsoft en Google rammen AI door je strot (en laten je ervoor betalen)
De manier waarop we met AI omgaan, doet Gebru denken aan een ander welgekend stukje technologie. “Stel dat je in je wagen de GPS aanzet terwijl je eigenlijk de weg wel weet. De GPS stuurt je langs een heel andere route dan die je gewoonlijk neemt, maar je volgt zonder nadenken, omdat je denkt dat de GPS een snellere of efficiëntere route heeft gevonden. Maar moest je passagier zijn en je chauffeur neemt diezelfde route, zou je je daar wellicht meer vragen bijstellen”.
Aan AI-technologie valt tegenwoordig niet meer te ontsnappen. Hoewel het ons op vele manieren kan helpen, moeten we bewust zijn dat chatbots geen volmaakte, alwetende wezens zijn. AI-systemen zijn opgevoed door mensen en van mensen verwachten we ook geen perfectie. Voor kritisch denken heb je geen AI-hulp nodig.
