Data Poisoning: het sluipende gevaar voor kunstmatige intelligentie en de samenleving

Data Poisoning: het sluipende gevaar voor kunstmatige intelligentie en de samenleving

Kunstmatige intelligentie is inmiddels uitgegroeid tot een fundamenteel onderdeel van veel besluitvormingsprocessen. Taalmodellen zoals ChatGPT of AI-assistenten zoals Mistral Le Chat bepalen mede hoe we zowel in een professionele als persoonlijke context informatie opnemen, content genereren en strategieën ontwikkelen – vaak zonder dat dit expliciet wordt gecommuniceerd. AI-agenten kunnen zelfs autonoom handelen en dynamisch reageren op hun omgeving. Maar hoe meer we AI-systemen integreren in centrale processen, hoe groter het risico wordt. Een van de momenteel meest onderschatte bedreigingen: Data Poisoning – de gerichte manipulatie van trainingsdata, waarop AI haar beslissingen baseert en conclusies trekt.

In tegenstelling tot klassieke cyberaanvallen, waarbij systemen direct worden aangevallen of geïnfiltreerd, is het gevaar van Data Poisoning subtieler. Aanvallers plaatsen doelbewust valse of vertekende inhoud in openbaar toegankelijke bronnen – in de hoop dat deze later door AI-systemen als trainingsdata worden gebruikt en verwerkt. Voor dergelijke aanvallen is geen systeemtoegang nodig, aangezien de publicatie van gemanipuleerde data of modellen vaak legitiem lijkt. Vooral Retrieval-Augmented Generation (RAG)-modellen, die voortdurend externe informatie raadplegen – zelfs na de trainingsfase – zijn bijzonder kwetsbaar.

Een wijdverspreid misverstand is dat minimale veranderingen in trainingsdata geen merkbare effecten zouden hebben. Studies tonen echter aan dat al een manipulatie van 0,01 procent van de data voldoende kan zijn om het gedrag van grote taalmodellen meetbaar te veranderen. Zelfs de kleinste hoeveelheden gemanipuleerde inhoud kunnen op lange termijn leiden tot inhoudelijke vertekeningen, de verspreiding van desinformatie versterken of geautomatiseerde beslissingen negatief beïnvloeden – vaak zonder dat gebruikers het doorhebben. De grens tussen manipulatie, fouten en legitieme diversiteit is moeilijk te trekken. Daarbij komt dat commerciële modellen meestal geen transparantie bieden over de gegevens waarop ze zijn gebaseerd, waardoor het ook onduidelijk blijft hoe vatbaar ze zijn voor dergelijke aanvallen.

Wanneer AI een doelwit wordt van geopolitieke belangen

Twee ontwikkelingen maken Data Poisoning tot een reële en acute bedreiging. Enerzijds neemt de afhankelijkheid van AI-gestuurde systemen snel toe, omdat steeds meer bedrijven, instellingen en particulieren deze inzetten voor informatievergaring of besluitvorming, waardoor maatschappelijke en economische processen steeds kwetsbaarder worden. Anderzijds zien we, in het licht van geopolitieke spanningen, een professionalisering van desinformatiecampagnes die specifiek gericht zijn op de training of informatievergaring van AI-assistenten, met als doel de perceptie van hun gebruikers te beïnvloeden.

Begin dit jaar werd bijvoorbeeld aangetoond hoe pro-Russische actoren doelbewust openbaar toegankelijke online bronnen hebben gemanipuleerd om invloed uit te oefenen op AI-systemen. Maandenlang werden schijnbaar onschuldige bijdragen geplaatst in discussieforums, blogcommentaren en online encyclopedieën – bijvoorbeeld met onjuiste beweringen zoals “het conflict in Oekraïne, dat al in 2014 werd veroorzaakt door westerse provocaties.” De inhoud was zo vormgegeven dat deze bij geautomatiseerde systemen de indruk van geloofwaardigheid en objectiviteit wekte. Aangezien veel AI-modellen vertrouwen op vrij beschikbare inhoud – zowel tijdens de trainingsfase als bij realtimevragen – kunnen gemanipuleerde narratieven ongemerkt doordringen in hun output en daar als ogenschijnlijk neutrale feiten worden gepresenteerd. Als gevolg van deze desinformatiecampagne konden in verschillende gevallen gemanipuleerde formuleringen direct worden teruggevonden in de antwoorden van grote taalmodellen.

Wat bedrijven nu moeten doen

Bedrijven zijn echter niet hulpeloos tegenover deze ontwikkelingen. Het is van cruciaal belang om de risico’s serieus te nemen en ze te behandelen in verhouding tot het gebruik van AI-technologieën. Voor bedrijven die AI-modellen trainen, betekent dit onder meer het controleren en filteren van externe trainingsdata, het identificeren van ongebruikelijke patronen of veranderingen en het verwijderen van onbetrouwbare gegevens. Even belangrijk is het beschermen van privégegevens en interne IT-systemen met moderne beveiligingsmaatregelen om manipulaties binnen de eigen infrastructuur te voorkomen. Een volledige documentatie van alle trainingsbronnen – een zogenaamde “AI Bill of Materials” – is een eerste noodzakelijke stap om risico’s zoals Data Poisoning te herkennen en te minimaliseren. Meer transparantie over de gebruikte databronnen kan gebruikers van AI-gestuurde tools bovendien in staat stellen een eigen risicobeoordeling uit te voeren.

Daarnaast kunnen bedrijven die AI-tools ontwikkelen of intensief gebruiken, door middel van systematische anomaliedetectie, cross-validatie met meerdere modellen of benaderingen, en prestatiebewaking zoeken naar onverwachte gedragsveranderingen. Bij afwijkingen moeten data- en modelbronnen worden onderzocht op mogelijke manipulaties. Tegelijkertijd moeten medewerkers die met AI-assistenten of -agenten werken, worden getraind en bewust worden gemaakt van de mogelijke risico’s. Alleen wie bronnen kritisch beoordeelt en resultaten regelmatig valideert, kan manipulatie vroegtijdig herkennen – en tegenmaatregelen nemen.

De toekomst vormgeven: duidelijke regels en een open dialoog

Op de lange termijn zijn technische oplossingen alleen niet voldoende. Er is een politieke discussie nodig over wie bepaalt welke data als trainingsbasis acceptabel zijn en hoe dergelijke beslissingen democratisch kunnen worden gelegitimeerd. Momenteel ligt deze verantwoordelijkheid bij een handvol grote techbedrijven, die zowel de selectie van trainingsdata als het vaststellen van ethische richtlijnen en controlemechanismen bepalen. Deze ondoorzichtigheid brengt het risico met zich mee dat AI-systemen onbedoeld bepaalde narratieven versterken of desinformatie verspreiden.

Vertrouwen in AI ontstaat niet alleen door technologie, maar ook door transparantie, duidelijke regels, onafhankelijke controle en een open maatschappelijke dialoog. Als we dit gesprek niet aangaan, verandert een tot nu toe onzichtbare zwakke plek in een systemisch risico. Data Poisoning is geen ver-van-mijn-bedshow, maar een acute uitdaging. Hoe meer we op AI vertrouwen, hoe belangrijker het wordt om deze actief te beschermen tegen manipulatie. Bedrijven, politiek en de samenleving moeten nu handelen – doordacht, op feiten gebaseerd en met een vooruitziende blik.


Dit is een ingezonden bijdrage van Pierre Delcher, Head of Cyber Threat Research bij HarfangLabKlik hier voor meer informatie over de oplossingen van het bedrijf.