OpenAI houdt 20 cyberoperaties tegen die ChatGPT misbruiken

ai hacker wachtwoord kraken

OpenAI verstoorde dit jaar reeds twintig operaties en misleidende netwerken die ChatGPT raadpleegden om malafide code te genereren.

Hackers vinden hun weg naar AI. Zo blijkt uit verschillende rapporten dat hackers AI gebruiken om bijvoorbeeld malware-aanvallen te creëren. OpenAI deelt in zijn eigen Threat Intelligence-rapport nieuwe bevindingen waaruit blijkt dat het bedrijf met zijn chatbot ChatGPT zo’n twintig operaties en misleidende netwerken verstoorde. Zo zouden hackersgroepen AI inzetten om desinformatie te verspreiden, beveiligingssystemen te omzeilen en spearphishing-aanvallen uit te voeren.

Misbruik van modellen

Waar AI-modellen ontwikkelaars kunnen helpen met het genereren van code, ontdekten ook hackers de mogelijkheden van AI. Recent bleek uit enkele rapporten dat bepaalde malware-aanvallen AI-gegenereerde code bevatte.

OpenAI, het AI-bedrijf achter de bekende chatbot ChatGPT, deelde onlangs zijn Threat Intelligence-rapport. Hierin belicht het bedrijf dat het met ChatGPT reeds twintig operaties en misleidende netwerken van over de hele wereld verstoord heeft, die het AI-model wouden gebruiken om malafide code te ontwikkelen.

In het rapport tracht OpenAI bovendien te analyseren hoe dreigingsactoren AI proberen te gebruiken. Hackersgroepen zouden AI ingezet hebben om desinformatie te verspreiden, beveiligingssystemen te omzeilen alsook spearphishing-aanvallen uit te voeren. OpenAI haalt enkele voorbeelden aan, waaronder de Chinese groep ‘SweetSpecter, maar ook CyberAv3ngers en STORM-0817.

Het bedrijf benadrukt dat het blijft samenwerken met hun intelligence-, onderzoeks-, beveiligings-, veiligheids- en beleidsteams om te anticiperen op hoe kwaadwillende actoren geavanceerde modellen kunnen gebruiken voor gevaarlijke doeleinden en om handhavingsstappen op de juiste manier te plannen.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.