Securitybedrijf Barracuda Networks publiceerde gisteren een nieuw rapport in de vorm van een blog, over de invloed van AI op cyberaanvallen en op de verdediging daartegen.
Het rapport is een samenvatting van de meer dan 950 miljard events die het platform Barracuda Managed XDR in de eerste helft van dit jaar registreerde. Bij die incidenten was een opvallende rol weggelegd voor AI in zowel de verdediging, als bij de aanvallers.
In de verdediging
Bij die 950 miljard incidenten zaten er duizenden die zijn bestempeld als ‘met hoog risico’. Een groot daarvan waren aanvallen die rond identiteitsmisbruik draaiden, een vorm die volgens het rapport steeds gesofisticeerder wordt.
Barracuda kon die afweren dankzij het profileren van accounts met de hulp van AI. Elke werknemer heeft namelijk een specifiek digitaal profiel (hoe ze werken, wanneer, waar, zulke zaken). Als daarvan wordt afgeweken, kan detectie via AI de analisten helpen om sneller te determineren of daar kwade wil achter zit.
De drie belangrijkste vormen van detectie met hoog risico die Barracuda Managed XDR registreerde waren:
- Log-ins die geografisch onmogelijk zijn: log-ins die op korte tijd gebeuren tussen twee geografische plaatsen die ver uit elkaar liggen. De kans bestaat dat er een VPN in het spel is, maar een niet geautoriseerde inlogpoging is realistischer.
- Anomalieën: zaken die afwijken van het normale patroon van een account, organisatie of persoon. Dat kan bijvoorbeeld inloggen en meteen weer uitloggen zijn of onverwachte toegang tot een bestand. Dit kan wijzen op malware of een poging tot phishing.
- Communicatie met gekende kwaadwillige elementen: detectie van een systeem dat probeert te verbinden met IP-adressen, domeinnamen of bestanden waarvan geweten is dat ze kwaadaardig zijn. Dit kan eveneens wijzen op phishing of malware.
Ten aanval
Elke nieuwe technologie wordt gebruikt voor goed en kwaad. Dat is altijd al zo geweest doorheen de geschiedenis, denk aan ijzer, buskruit of vliegtuigen. AI is daarin niet anders. Aanvallers maken er ook maar al te graag gebruik van.
AI-modellen kunnen bijvoorbeeld mails opstellen die amper van het echte werk te onderscheiden zijn. Dan wordt het voor de gemiddelde werknemer al een stuk moeilijker om in te schatten of die link erin fake is of niet.
lees ook
Nee, dat is geen Microsoft-mail: hoe phishing succesvol blijft
Er zijn ook AI-systemen die het gedrag van hun tegenstander kunnen leren en kopiëren. Ze kunnen ook leren van eerdere mislukte aanvalspogingen of zich aanpassen aan veranderingen binnen de verdediging van hun doelwit en zo kwetsbaarheden herkennen.
Eind vorig jaar integreerde Barracuda zijn systemen nog met Amazon Security Lake, voor e-mailbeveiliging. Dat kon helaas niet voorkomen dat een zero-day in Barracuda Email Security Gateway recent een tijd kon worden uitgebuit.