In een onderzoeksrapport waarschuwt Google voor de impact die generatieve AI zal hebben op cyberaanvallen. 2024 belooft nu al een uitdagend jaar te worden voor cybersecurity.
Generatieve AI heeft vele nuttige toepassingen, maar de technologie is niet zonder risico. In de Cybersecurity Forecast 2024 blikken de beveiligingsexperts van Google vooruit op wat er ons te wachten staat. Het rapport doet ons helaas niet met optimisme naar 2024 kijken. Google zet generatieve AI met stip op één als van de grootste, opkomende beveiligingsrisico’s.
Vanuit de cybersecuritywereld klinken er al langer bezorgde stemmen over de brede beschikbaarheid van generatieve AI-tools, maar volgens Google zullen die vanaf volgend jaar pas echt op grote schaal worden ingezet door cybercriminelen. Generatieve AI kan hen op verschillende manieren van dienst zijn. Eerst en vooral helpen artificiële hulpmiddelen met het opstellen van een grammaticaal correcte mail. Taalfouten waren tot nu toe een van de eerste indicatoren om een valse van een echte mail te onderscheiden, maar dat valt dus weg.
Maar met de hulp van generatieve AI kunnen aanvallers ook gerichter te werk gaan. Hiervoor hebben ze niet meer nodig dan de informatie die je publiek zichtbare sociale mediaprofielen, die ze dan aan de AI voeden. Als fraudeurs waar je woont en werkt, kunnen ze je veel persoonlijker aanspreken. Tools zoals ChatGPT mogen dan wel ingebouwde controlemechanismen hebben om illegaal gebruik tegen te gaan, als je de chatbot vraagt om te helpen met een offerte of een standaard e-mail, zullen de alarmbellen maar zelden afgaan.
Broos vertrouwen
Google vreest verder ook dat AI-gegeneerde content meer en meer weg zal vinden naar publieke informatie. Met generatieve AI kan je door slim met prompts te spelen een vals nieuwsbericht en beeldmateriaal maken. Dit maakt goedgelovige mensen nog vatbaarder voor desinformatie, of kan net het omgekeerde effect hebben en mensen wantrouwig maken voor alles wat ze zien, horen en lezen. Die vrees is helemaal geen fictie: Adobe ligt onder vuur omdat het valse beelden over de oorlog in Gaza aanbiedt in zijn beeldenbank, die al door nieuwsmedia zijn gebruikt.
Met huidige beschikbare tools kunnen aanvallers al heel wat tewerkstellen, maar Google verwacht dat ze ook zelf AI-toepassingen zullen ontwikkelen en aanbieden op het dark web. De barrière om toegang te krijgen tot generatieve AI voor slechte doeleinden zal zo steeds lager worden. Zoals we vandaag ‘ransomware-as-a-service’ hebben, zal in 2024 ‘LLM-as-a-service’ opkomen in het cybercrimemilieu.
AI als verdediger
Gelukkig is het ook niet allemaal negatief. Generatieve AI kan dan wel uitgroeien tot een gevaarlijk wapen, de technologie kan ook verdedigers van dienst zijn. Een belangrijke toepassing van AI is het synthetiseren van grote hoeveelheden gegevens en in context plaatsen in informatie over bedreigingen om vervolgens bruikbare detecties of andere analyses op te leveren.
AI kan zo een oplossing bieden voor het tekort aan mensen in de industrie. Wat andere experten daarover denken, vroegen we tijdens ons recente rondetafelgesprek.
lees ook
NIS2: goed idee, maar met welke mensen?
Cyberoorlog in de ruimte
2024 belooft dus nu al een spannend cyberjaar te worden. Google verwacht ook de nodige geopolitieke digitale robbertjes. Naast de militaire conflicten in Oekraïne en Gaza zullen ook de vele verkiezingen in Westerse landen en zelfs de Olympische Spelen voedingsbodem geven voor staatsgesponsorde aanvallen en hacktivisme.
Daarvoor wijst Google naar de ‘grote vier’: China, Rusland, Noord-Korea en Iran. Cyberaanvallen hoeven zich niet tot de aardbodem te beperken. Google denkt dat ruimte-infrastructuur zoals satellieten een steeds belangrijker doelwit zullen worden van dergelijke aanvallen.