Als AI het antwoord is, wat is dan de vraag? Waarom we best een time-out nemen van de AI-hype

Artificiële intelligentie (AI) is aan een opmars bezig. Dankzij het verbluffende succes van ChatGPT eisen CEO’s over de hele wereld antwoorden van hun CIO’s. Toch overstemt de groeiende bezorgdheid over het verlies van concurrentievoordeel de vragen over de toegevoegde waarde van deze technologie. In sommige situaties en branches zijn AI en ChatGPT handig en behulpzaam, maar zeker niet overal.

AI bestaat al jaren in de cybersecurity en helpt netwerkbeveiligers om cyberbedreigingen beter te voorkomen, op te sporen en erop te reageren. Toch wordt artificiële intelligentie nog vaak misbegrepen, deels door de hype en onduidelijkheid van en bij leveranciers. AI is zo vaak een antwoord op alle mogelijke vragen, zelfs wanneer IT-specialisten er nog niet uit zijn. Maar wat zijn de nadelen voor het gebruik van AI in cybersecurity? En waar boeken de cybercriminelen winst?

Goed of slecht?

Ondanks de hype is AI fundamenteel een algoritme dat een output produceert uit bestaande input, zoals data en extra context zoals vragen, chat en andere gebruikersinteracties. Tot op zekere hoogte zijn modellen dus alleen zo krachtig of nuttig als de gegevens die ze als input krijgen. Twee modellen zijn met name relevant voor IT-beveiliging: categoriserende AI en generatieve AI zoals ChatGPT.

Ook bekend als ‘classificerende’, ‘segmenterende’ of ‘beschrijvende’ AI, werkt ‘categoriserende’ AI door een input te verwerken en deze te classificeren. Vanuit het perspectief van cyberbeveiliging kan je dit toepassen op het sorteren van gedrag of bestanden in goed en slecht, net zoals het functioneren van toestaan/weigeren-lijsten. Het verschil is echter dat het model deze beslissingen ‘aanleert’ in plaats van handmatig geprogrammeerd wordt. De uitdaging is dat het model mogelijk minder zeker is van het categoriseren van bepaalde input, maar deze onzekerheid is niet altijd duidelijk als de output wordt geforceerd in binaire ‘goed/slecht’ beslissingen op basis van zorgen over de gebruikerservaring. Hier is enige ‘granulariteit’ nodig om netwerkbeveiligers te helpen.

Een ander nadeel van categoriserende AI is dat de meeste modellen een black box-benadering hanteren, waarbij gebruikers niet te horen krijgen hoe de AI tot een specifieke beslissing komt. Als beveiligingsteams dergelijke modellen moeten gebruiken en vertrouwen, dan moeten AI-beslissingen en de ruwe input die ze verkregen worden opgeslagen voor verdere analyse/forensisch onderzoek door menselijke controleurs.

Don’t believe the hype

Generatieve AI is anderzijds heel populair dankzij grote taalmodellen (Large Language Models – LLM) en, in het bijzonder, ChatGPT. Hun vermogen om te communiceren met menselijke gebruikers in natuurlijke taal is opmerkelijk. Ze hebben zelfs het vermogen om moppen te vertellen, poëzie te produceren en zelfs visuele kunst te componeren. Het is echter belangrijk te onthouden dat deze output niet per se origineel is, maar wordtgegenereerd uit een enorme verzameling data in combinatie met hun huidige context. Daardoor is het eerder een geavanceerde en contextuele remix van de inhoud waarop het model is geprogrammeerd dan op iets dat nog nooit eerder is gezien.

In plaats van beslissingen te nemen, zoals categoriserende AI, zijn generatieve AI-modellen het beste voor het samenvatten en presenteren van informatie en feiten in natuurlijke taal. In een beveiligingscontext kan je LLM trainen op input zoals netwerkverbindingen of compliance- en bedrijfsvereisten en vervolgens raadplegen om suggesties te genereren voor geoptimaliseerde systeeminstellingen of prioriteiten voor een compliance-strategie. Met de juiste informatie kan generatieve AI zelfs suggesties geven voor de hoofdoorzaak van aanvallen en activiteiten na een inbraak.

De uitdaging voor gebruikers is om de kwaliteit van de taal die het generatieve AI-model levert niet te verwarren met de kwaliteit van de inhoud. Sommige generatieve modellen zijn vaker vals positief, vooral als de inputdata beperkt is. Uitspraken over spam e-mails, die dagelijks in grote hoeveelheden voorkomen, kunnen bijvoorbeeld nauwkeuriger zijn dan die over zero-day aanvallen. Het is misschien het beste om dit type AI te zien als een soort sparringpartner, eentje met een hoge mate van kennis over de omgeving, maar waarvan je de output altijd moet controleren.

AI voor cybercriminaliteit

Natuurlijk zijn het niet alleen cybersec-bedrijven en CISO’s die in AI-technologie investeren. Cybercriminelen doen dit ook; veel van die groepen beschikken zelfs over miljoenenbudgetten. Ze kunnen AI gebruiken om hun slachtoffers te selecteren en grote gegevensbronnen door te spitten, waaronder posts op sociale netwerken. Ze beschikken via AI ook over informatie van eerdere aanvallen en Shodan-zoekopdrachten om personen of organisaties te vinden waarvan ze denken dat de kans groter is dat ze bijvoorbeeld losgeld betalen.

Generatieve modellen zijn ook ‘geschikt’ om phishing-campagnes op te zetten omdat ze foutloze inhoud in natuurlijke taal aanleveren in meerdere talen. De mogelijkheid om tekst in schrijftaal te produceren is ook een zegen voor BEC-aanvallen (Business Email Compromise). Dit verlaagt de drempel voor mensen met slechte bedoelingen, verbetert het succespercentage van aanvallen en maakt tijd vrij voor fraudeurs om aan andere zaken te werken. Generatieve AI is echter geen wondermiddel: het kan nog geen unieke malware of andere varianten genereren en zou alleen nuttig zijn voor malafide figuren die weten wat voor soort code/output ze moeten vragen.

Inventariseren

Laten we er geen doekjes om winden: AI is een nuttig hulpmiddel voor netwerkbeveiligers. Het is duidelijk dat ze alle hulp nodig hebben die ze kunnen krijgen naarmate het aantal aanvallen toeneemt en er een tekort aan vaardigheden blijft bestaan. Het is echter zinloos om bestaande en goed functionerende tools op te offeren voor een onbewezen maar flitsend AI-product.

AI heeft nog een aantal uitdagingen te overwinnen – of het nu gaat om de verklaarbaarheid van haar beslissingen, een gebrek aan opslag van ruwe gegevens voor analyse en onderzoek, hallucinaties of output die te binair is. Uiteindelijk moeten mensen de finale keuzes maken, waardoor het nog belangrijker wordt dat AI transparanter wordt en voor interpretatie vatbaar blijft.

Het goede nieuws is dat AI-tools misschien minder nuttig zijn dan sommige marketinghypes suggereren, maar dat geldt ook voor de aanvallers. Daarom moeten IT-inkopers steeds hoge zorgvuldigheidseisen stellen voor potentiële aankopen en zich niet te veel laten leiden door bangmakerij van leveranciers.


Dit is een ingezonden bijdrage van Udo Schneider, IoT Security Evangelist Europe bij Trend Micro. Klik hier voor meer informatie over de oplossingen van het bedrijf.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home