De duistere kant van LLM’s: van SEO-poisoning naar GEO-manipulatie

De duistere kant van LLM’s: van SEO-poisoning naar GEO-manipulatie

Hoe AI-zoekresultaten een goudmijn voor phishers zijn

De komst van generatieve AI en Large Language Models (LLM’s) verandert razendsnel hoe mensen informatie zoeken. Waar we voorheen vertrouwden op Google-resultaten, vragen steeds meer gebruikers direct aan ChatGPT, Claude of Perplexity: “Wat is de inlogpagina van mijn bank?” of “Waar kan ik mijn account resetten?”

Kevin van Beek, specialist in SEO en AI-search, ziet dagelijks hoe deze verschuiving niet alleen kansen creëert, maar ook een minder besproken keerzijde heeft. Wat efficiënt lijkt, kan namelijk ook een deur openzetten voor misleiding en phishing via AI-zoekresultaten.

AI die nep-domeinen of nep-content aanbeveelt

LLM’s vertonen regelmatig informatie uit verkeerde of zelfs niet-bestaande domeinen als antwoord op simpele login-vragen. Denk aan: “Ik ben mijn bookmark kwijt, kun je me de officiële loginpagina van bedrijf-x geven?”

De resultaten zijn zorgwekkend:

  • Een aanzienlijk deel van de domeinen die LLM’s noemden, bleek niet geregistreerd of had geen content.
  • Sommige verwijzingen leidden naar bestaande, maar ongerelateerde bedrijven.
  • Een groot aantal domeinen kon direct door kwaadwillenden worden opgekocht en misbruikt.

Dat betekent dat een gebruiker op zoek naar de juiste loginpagina onbewust door AI naar een phishingsite kan worden gestuurd.

Van SEO-poisoning naar GEO-manipulatie

Wat ik in mijn werk als SEO-specialist steeds vaker zie, is dat sommige bedrijven dubieuze optimalisatietactieken inzetten om door LLM’s zoals ChatGPT geciteerd te worden. Vaak gebeurt dit met de beste bedoelingen en kan het effectief zijn op korte termijn. Sommige bedrijven gaan echter veel verder met manipulatie-tactieken, waarbij ze bijvoorbeeld:

  • Expliciete prompts met instructies in content opnemen (prompt injection)
  • Onzichtbare tekst buiten het viewport of onder andere elementen plaatsen
  • Manipulatieve tekst verspreiden in HTML-elementen, zodat het bij LLM-verwerking blijft staan
  • Concurrenten structureel in een kwaad daglicht zetten via listicles, Reddit of door teksten die AI-veiligheidsfilters triggeren
  • Eigen autoriteit overdreven claimen, bijvoorbeeld door jezelf neer te zetten als de enige betrouwbare bron

Deze methoden zijn meestal niet bedoeld om bezoekers direct te misleiden. Het doel is juist om LLM’s te voeden met overdreven of valse signalen, die vervolgens aan gebruikers worden gepresenteerd alsof ze betrouwbaar zijn.

Dat lijkt op korte termijn effectief, maar de risico’s zijn groot. Technisch kun je helemaal uit de LLM-resultaten verdwijnen. Nog belangrijker: je merk kan blijvende reputatieschade oplopen zodra gebruikers doorzien dat claims overdreven zijn of dat concurrenten bewust zwartgemaakt worden. Vertrouwen dat je verliest, win je niet zomaar terug.

Van kans naar kwetsbaarheid

Sterke zichtbaarheid in Google is geen vereiste om toch naar voren te komen in zoekresultaten van LLM’s. Voor sommige merken is dat een kans, maar het laat ook iets zorgelijks zien: de kwaliteits- en vertrouwenssignalen liggen momenteel veel lager dan bij Google.

In modellen zoals ChatGPT zie je duidelijke verschillen. Ze citeren regelmatig sites die in Google nauwelijks of helemaal niet meer zichtbaar zijn. Denk aan kleine websites met weinig autoriteit, sites die door updates zijn geraakt of bronnen met lage E-E-A-T die Google normaliter zou filteren. Op het eerste gezicht lijkt dat een voordeel: niet elk systeem hanteert Google’s strenge filters, waardoor ook kleinere spelers een podium krijgen.

Tegelijkertijd zijn de kwaliteitsfilters van LLM’s nog in ontwikkeling. Precies daardoor kan wat vandaag een kans lijkt, morgen een risico worden. Zodra deze zwakke plekken bewust en structureel worden misbruikt, verandert een kans al snel in een kwetsbaarheid.

LLM’s als makkelijke doelwitten voor misleiding

En precies daar schuift de lijn door naar de duistere kant. De kwetsbaarheden die bedrijven soms nog als kans zien, worden door kwaadwillenden gebruikt als wapen, met phishing en misleiding als direct gevolg.

Waar Google strenger filtert op betrouwbaarheid, presenteren LLM’s vaak onbekende of twijfelachtige sites alsof het gezaghebbende bronnen zijn. Soms zelfs inclusief hallucinaties of phishing-achtige links die met grote overtuiging worden gebracht.

Kwaadwillenden spelen hier actief op in door AI-geoptimaliseerde content te publiceren, bijvoorbeeld via GitHub-projecten, handleidingen of blogposts. Daarmee geven ze valse domeinen een schijn van legitimiteit in de databronnen waar LLM’s hun informatie uit putten. Vervolgens verschijnen deze domeinen met volle overtuiging in AI-antwoorden, waardoor nietsvermoedende gebruikers ze voorgeschoteld krijgen alsof het betrouwbare bronnen zijn.

Bedrijven die deze kwetsbaarheid misbruiken, kunnen op korte termijn profiteren van zichtbaarheid, maar lopen op de langere termijn het risico te verdwijnen zodra LLM’s hun kwaliteitsstandaarden aanscherpen. De geschiedenis leert dat spamachtige praktijken, die in Google hard afgestraft werden door algoritme-updates, ook in LLM’s slechts een beperkte houdbaarheid zullen hebben.

Geen theorie, maar praktijk

Dit gevaar is niet hypothetisch. Er zijn al genoeg campagnes ontdekt waarbij duizenden AI-gegenereerde phishingpagina’s werden ingezet, bijvoorbeeld in de cryptosector, bankieren of reisbranche. Deze sites zien er professioneel uit, laden snel, en zijn geoptimaliseerd voor zowel mens als machine. Precies wat AI-modellen nodig hebben om ze als betrouwbaar te classificeren.

Phishers hoeven in zo’n scenario niet eens meer gebruikers te lokken via advertenties of zoekresultaten, want de AI zelf raadt hun domein aan.

Waarom dit extra gevaarlijk is

De risico’s zijn tweeledig:

1. Vertrouwen in AI: gebruikers ervaren AI-antwoorden als direct, helder en betrouwbaar. Een foutieve of malafide link wordt daardoor sneller aangeklikt.

2. Zichtbaarheid: AI-antwoorden staan vaak bovenaan in de zoekmachines en krijgen dus een voorkeurspositie ten opzichte van reguliere zoekresultaten.

Wat merken en ontwikkelaars kunnen doen

  • LLM-ontwikkelaars zouden URL-verificatiesystemen moeten inbouwen, gebaseerd op officiële directories of betrouwbare bronnen
  • Merken moeten proactief “high-risk lookalike” domeinen registreren en monitoren welke links AI-modellen suggereren.
  • Threat intelligence kan helpen om verdachte domeinen vroegtijdig te identificeren en uit de lucht te halen.

Van kans naar risico

De verschuiving naar AI-modellen biedt ongekende kansen, maar vergroot ook de risico’s. Als SEO-specialist werk ik dagelijks aan de zichtbaarheid van mijn klanten in de zoekresultaten van modellen als ChatGPT en Google’s AI Overviews. Mijn doel is om duurzame groeistrategieën te ontwikkelen en weg te blijven van kortstondige, spamachtige tactieken die snel hun kracht verliezen en blijvende reputatieschade kunnen veroorzaken.

Tegelijkertijd laat de praktijk zien dat dezelfde zwakke plekken die bedrijven nu kansen bieden, door kwaadwillenden worden misbruikt. LLM’s zijn eenvoudig te manipuleren en kunnen met grote overtuiging verkeerde of zelfs gevaarlijke resultaten presenteren. Wat vandaag nog een onschuldige vergissing van een model lijkt, kan morgen de basis vormen van een grootschalige phishingcampagne.

De echte winst ligt niet in het uitbuiten van zwaktes in LLM’s, maar in het opbouwen van vertrouwen en het inzetten van duurzame AI-groeistrategieën. Precies dat is volgens Kevin van Beek de kern van toekomstbestendige zichtbaarheid.


Dit is een ingezonden bijdrage van Kevin van Beek, Senior SEO Specialist. Klik hier voor meer informatie.