Deze zomer was ik aanwezig bij een cybersecurity event. Een waardevolle gelegenheid waar vertegenwoordigers uit de overheid, het bedrijfsleven en de academische wereld samenkwamen. Ik mocht er de openingstoespraak van een sessie verzorgen. Het evenement bood een belangrijk platform voor openhartige gesprekken over de meest urgente uitdagingen van onze digitale wereld. Nu het cybersecurity-landschap wordt hervormd door de snelle ontwikkeling van kunstmatige intelligentie, waren deze gesprekken belangrijker dan ooit.
Als ik terugkijk op de bijeenkomst, springen er drie strategische thema’s het meest uit, die de komende jaren richtinggevend zullen zijn voor onze aanpak van cyberweerbaarheid.
We bevinden ons in de “voortijd” van AI
Er was een duidelijke consensus: hoewel defensieve AI-capaciteiten ons momenteel een voordeel bieden, kan dit van korte duur zijn als we niet blijven innoveren en ons richten op ‘secure by design’-principes bij AI. We bevinden ons onmiskenbaar in de ‘voortijd’ van door AI aangestuurde cyberconflicten. Het tempo waarin offensieve AI zich ontwikkelt is ongekend en dreigt de machtsverhoudingen ingrijpend te veranderen.
We staan aan de vooravond van een nieuw en veeleisend tijdperk van cyberoorlogvoering. De toegenomen geopolitieke spanningen, de snelle adoptie van AI en de opmars van remote werken hebben ons aanvalsoppervlak exponentieel vergroot. Dit vraagt om een fundamentele herziening van onze aanpak van cybersecurity.
Ons Unit 42 Threat Intelligence-team heeft simulaties uitgevoerd die een confronterend beeld geven van deze toekomst. Door gebruik te maken van geavanceerde AI hebben we laten zien dat het mogelijk is een volledige aanvalsketen, van eerste toegang tot datadiefstal, in slechts 25 minuten te doorlopen. Dit tempo en deze mate van automatisering gaan ver voorbij menselijke capaciteiten en schetsen een toekomst waarin het doorslaggevende voordeel ligt bij de partij met de meest geavanceerde AI.
Wat ik vooral belangrijk vond: aanvallers beperken zich niet tot het automatiseren van bestaande tactieken, maar richten zich juist op de fundamenten van onze AI-implementaties. We zien dat cybercriminelen zich actief richten op interne large language models (LLM’s) om organisaties van binnenuit te verkennen. Een aanvaller kan een gecompromitteerde LLM gebruiken om de netwerkarchitectuur van een organisatie te begrijpen, gevoelige databronnen te identificeren en geavanceerde social-engineeringaanvallen te ontwerpen. We verwachten echter dat deze mogelijkheden verder worden geautomatiseerd en verfijnd, zelfs gericht op de data waarmee onze modellen zijn getraind. Dit vormt een nieuw slagveld met hoge inzet: het beveiligen van onze AI-infrastructuur is nu een essentiële voorwaarde voor de veiligheid van organisaties.
AI creëert een nieuwe categorie ‘insider threats’
Het concept van een insider threat draaide traditioneel vooral om kwaadwillende of gecompromitteerde medewerkers. De discussies die tijdens het evenement werden gevoerd wezen echter op een nieuwe en minstens zo gevaarlijke categorie: de autonome AI agent. Wanneer deze agents, die zelfstandig binnen een netwerk kunnen opereren, worden gecompromitteerd, vormen zij een nieuw en zeer krachtig type insider threat.
Deze nieuwe dreigingsvector ontstaat naast een sterke toename van een meer traditionele, maar nog steeds evoluerende tactiek: statelijke actoren die frauduleuze identiteiten van externe werknemers gebruiken om organisaties binnen te dringen. Deze tactiek, vaak toegeschreven aan groepen uit Noord-Korea, is drastisch toegenomen. Het aantal gevallen waarin nationale actoren deze frauduleuze identiteiten gebruikten, verdrievoudigde in 2024 ten opzichte van het jaar ervoor.
Deze combinatie van dreigingen, van autonome agents tot geavanceerde menselijke imitators, stelt onze bestaande beveiligingsmodellen fundamenteel op de proef. De grenzen tussen externe en interne dreigingen vervagen, waardoor we onze zero trust-principes en strategieën voor identiteitsbeheer opnieuw moeten evalueren. We moeten gezamenlijk werken aan het beveiligen van de ‘human-machine interface’, de cruciale contactpunten waar gebruikers en systemen met elkaar in contact komen.
De AI‑technologiestack als nieuw fundament voor beveiliging
Terwijl we deze opkomende dreigingen bespraken, verschoof de aandacht naar de strategische noodzaak om onze AI-initiatieven te beveiligen. Een rapport over de AI‑technologiestack, opgesteld door het Paladin Global Institute, vond veel weerklank bij de aanwezigen, zeker ook bij ons van Palo Alto Networks. We kwamen dan ook tot de conclusie: de AI‑technologiestack moet ons nieuwe beveiligingskader worden.
Het is niet langer voldoende om dreigingen steeds ad hoc te bestrijden met losse oplossingen. In plaats daarvan moeten we innovatie blijven omarmen, met AI als kern, om steeds een stap voor te blijven. Tijdens het evenement werd er een vijflaags model gepresenteerd dat organisaties een duidelijk uitvoerbaar stappenplan biedt. Het is een gestructureerde aanpak die verder gaat dan de traditionele beveiligingsparadigma’s en inspeelt op de unieke complexiteit van AI:
- Governance-laag: Dit is de strategische top-down laag, gericht op beleid, risicobeheer en naleving van regelgeving. Het zorgt ervoor dat AI ethisch wordt gebruikt en dat er duidelijke richtlijnen zijn.
- Applicatie-laag: Deze laag richt zich op het beveiligen van de AI-toepassingen zelf die zichtbaar zijn voor de gebruiker. Ook pakt het dreigingen aan zoals prompt injection en data poisoning.
- Infrastructuur-laag: Deze laag omvat de beveiliging van de onderliggende reken- en opslaginfrastructuur waarop AI-modellen draaien, zowel in de cloud als on-premises.
- Model-laag: Deze laag is gewijd aan de integriteit van de AI-modellen, met bescherming tegen modeldiefstal, ontwijkingsaanvallen en het waarborgen van betrouwbare output.
- Data-laag: Deze laag gaat over de beveiliging van de data die het AI-systeem voedt, inclusief gegevensprivacy, toegangscontroles en het waarborgen van datakwaliteit.
Dit kader wekte veel belangstelling op omdat het praktische richtlijnen biedt voor CISO’s en CIO’s om AI‑risico’s op een gestructureerde en allesomvattende manier te bespreken.
De Quantum Horizon
Een belangrijk aandachtspunt dat ik in mijn opmerkingen ook heb benadrukt, is de toekomstige dreiging van quantumcomputing. Dit is geen ver-van-ons-bedshow, maar een uitdaging waarop we ons nu al moeten voorbereiden om de integriteit van onze gegevens op lange termijn te beschermen. Quantumcomputing vormt een reële bedreiging voor de huidige encryptiestandaarden. Gevoelige versleutelde gegevens die nu worden gestolen zouden in de toekomst kunnen worden ontsleuteld zodra kwantumcomputers verder ontwikkeld zijn. Daarom richt Palo Alto Networks zich op onderzoek naar post-kwantumcryptografie, het ontwikkelen van oplossingen en het helpen van onze klanten om zich op deze toekomst voor te bereiden.
Een gezamenlijke oproep tot actie
De bijeenkomst bevestigde voor mij een fundamentele waarheid die ik gedurende mijn carrière heb ervaren: cybersecurity is een gezamenlijke uitdaging. Dreigingen ontwikkelen zich in een ongekend tempo, maar ons vermogen om te innoveren en samen te werken groeit net zo snel. De gesprekken die werden gevoerd waren een belangrijke herinnering dat we, door kennis te delen en samenwerkingen te realiseren tussen publieke en private sectoren, het AI-tijdperk kunnen doorstaan en een veerkrachtigere digitale toekomst kunnen opbouwen.
Dit is een ingezonden bijdrage van Wendi Whitmore, Chief Security Intelligence Officer bij Palo Alto Networks. Klik hier voor meer informatie over de oplossingen van het bedrijf.