‘Helft cybersecurityteams heeft niets in de pap te brokken bij AI-uitrol en -ontwikkeling’

Bijna de helft van de bedrijven betrekt beveiligingsteams niet bij de implementatie en uitrol van AI-oplossingen. AI speelt wel een rol binnen cybersecurity in de verbetering van detectie, respons en endpointbeveiliging.

Amper 35 procent van de cyberbeveiligingsspecialisten laat weten actief betrokken te zijn in de ontwikkeling van beleid rond AI binnen hun onderneming. Bijna de helft (45 procent) van de beveiligingsprofessionals wordt echter totaal niet betrokken bij de ontwikkeling of implementatie van AI-oplossingen. Dat blijkt uit het 2024 State of Cybersecurity-rapport van ISACA, dat vorige week in Dublin voorgesteld werd.

Security achteraf

Meer dan 1.800 cybersecurity-professionals werden ondervraagd over de rol van beveiliging en AI. Het valt op dat er een grote kloof bestaat tussen de uitrol van AI-projecten en de betrokkenheid van beveiligingsprofessionals. Zo loopt AI het risico om fouten uit het verleden te herhalen.

Intussen is immers duidelijk dat software ontwikkeld en uitgerold dient te worden met beveiliging als prioriteit van het begin af aan. Beveiliging achteraf vastklikken op een bestaande oplossing, werkt zelden optimaal. Toch lijkt security in het geval van AI opnieuw gedegradeerd naar de tweede plaats. Dat brengt voorspelbare risico’s met zich mee.

ISACA zet zich in voor digitaal vertrouwen in professionele context, en signaleert op basis van de bevraging dat er nog veel werk aan de winkel is. Cyberbedreigingen worden almaar complexer en geavanceerder. Het is dus belangrijk om beveiligingsspecialisten ook bij AI-projecten te betrekken. Ook de rol van AI bij beveiliging zelf kan significant zijn, maar wordt dus maar door een minderheid omarmt.

AI en beveiliging

Organisaties die AI en beveiliging wel combineren, doen dat in hoofdzaak om hun capaciteiten rond bedreigingsdetectie en -respons op te krikken. 28 procent van de bevraagden geeft aan dat zo’n projecten lopen. Endpointbeveiliging is een andere populaire tak om AI op toe te passen (27 procent).

Organisaties proberen verder het tekort aan beveiligingsprofessionals op te vangen door routinetaken te automatiseren. 24 procent van de respondenten geeft aan dat ze AI daarvoor gebruiken. Dan is er nog een minderheid (13 procent) die AI inzet voor fraudedetectie.

Uitdagingen

In de marge van het onderzoek ziet ISACA vier belangrijke trends rond digitaal vertrouwen voor de nabije toekomst. AI-gedreven bedreigingen staan op één. Daarbij verwijst ISACA in eerste instantie naar generatieve AI, waarmee criminelen eenvoudig heel overtuigende phishingmails kunnen genereren. Deepfakes en gepersonaliseerde aanvallen zullen in de toekomst meer en meer voorkomen worden, volgens de organisatie.

De tweede grote uitdaging is de kloof tussen het aantal securityspecialisten dat nodig is, en de hoeveelheid beschikbaar talent. AI kan die kloof een beetje dichten, maar snelle digitale transformatie bij Europese bedrijven maakt het probleem langs de andere kant opnieuw groter.

Als derde trend wijst ISACA naar toenemende regelgeving waarmee bedrijven in overeenstemming moeten zijn. De AI Act en NIS2 zijn daar de belangrijkste voorbeelden voor.  Dat alles culmineert in een vierde trend: de rol van cybersecurityspecialist wordt de sleutel voor toekomstig succes, omdat al die uitdagingen met beveiliging gelinkt zijn.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.