Criminelen misbruiken AI voor cyberaanvallen

kunstmatige intelligentie

Europol heeft samen met het United Nations Interregional Crime and Justice Research Institute (UNICRI) en Trend Micro een rapport uitgebracht over het het criminele gebruik van artificiële intelligentie. Het rapport geeft inzicht over bestaande en potentiële aanvallen met behulp van AI en geeft aanbevelingen om deze risico’s te beperken. 

“AI belooft meer efficiëntie, automatisering en autonomie. We moeten niet alleen kijken naar de potentiële voordelen van AI-technologie, maar we moeten ook transparant zijn over de bedreigingen nu het brede publiek zich steeds meer zorgen maakt over het mogelijke misbruik van AI”, zegt Edvarsas Šileris, hoofd van het Cybercrime Centre van Europol. 

Met het rapport willen Europol, de UNICRI en Trend Micro politiediensten, beleidsmaker en andere organisaties helpen te anticiperen op mogelijk kwaadwillig gebruik en misbruik van AI en dreigingen proactief te voorkomen en beperken. Met meer kennis over de mogelijke bedreigingen die AI met zich meebrengt, kunnen organisaties zich beter voor bereiden en hun weerbaarheid tegen dit soort technologieën verbeteren. 

Op welke manier maken cybercriminelen gebruik van AI?

Centraal in het rapport staat het feit dat cybercriminelen AI gebruiken als aanvalsvector en als aanvalsdoel. Op dit moment zijn deepfakes het bekendste gebruik van AI als aanvalsvector. Volgens het rapport is er in te toekomst nieuwe screeningtechnologie nodig om het risico van misleidende campagnes en afpersing te beperken. Ook komen er mogelijk bedreigingen gericht op AI-datasets. 

Cybercriminelen kunnen met behulp van AI onder meer de volgende aanvallen opzetten:

  • Social engineering-aanvallen op grote schaal
  • Document-scraping malware om aanvallen efficiënter te maken
  • Omzeilen van beeldherkenning en spraakbiometrie
  • Ransomware-aanvallen via intelligente targeting
  • Data pollution, door het identificeren van blinde vlekken in detectieregels

Het rapport waarschuwt tevens dat AI-systemen worden ingezet om de efficiëntie van malware te vergroten om anti-malwareoplossingen en gezichtsherkenningssystemen te verstoren. 

Gebruik van AI door criminelen blijft zich ontwikkelen

“Cybercriminelen zijn altijd al early adopters geweest van nieuwe technologieën. En dat is met AI niet anders. Zoals dit rapport laat zien, wordt AI al ingezet om wachtwoorden te raden, CAPTCHA’s te decoderen of stemmen na te bootsen. Er zijn nog veel andere kwaadaardige innovaties waarbij cybercriminelen AI inzetten”, aldus Martin Roesler, hoofd van Future Threat Research bij Trend Micro. 

Evenals de technologie staan cybercriminelen niet stil. Waar criminelen nu nog vooral gebruik maken van deepfake technologie en tools om CAPTCHA’s te decoderen, zijn er meer geavanceerde criminele activiteiten op komst. Het zal niet lang meer duren voordat criminelen in staat zijn om zelfrijdende voertuigen te manipuleren. In de nabije toekomst zijn cybercriminelen waarschijnlijk zelfs in staat om gerichte aanslagen te plegen via drones met explosieven die werken op basis van gezichtsherkenning.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home