Illegale prompts voor ChatGPT te koop op het dark web

chatgpt evil

Wil je ChatGPT stoute dingen laten doen? Kaspersky ontdekte kant-en-klare prompts om ChatGPT te doen ontsporen die te koop op het dark web worden aangeboden.

Elke nieuwe technologie komt vroeg of laat (vaak eerder vroeg) onder de aandacht van mensen met slechte bedoelingen. Zo is ook ChatGPT vanaf dag één een geliefkoosd doelwit van snoodaards die de chatbot tot illegale dingen proberen aan te sporen. Het is inmiddels zo uit de hand gelopen dat je met illegale prompts en scripts voor ChatGPT een aardige duit kan verdienen, waarmee we niemand tot deze bijverdienste willen aanzetten.

Kaspersky schuimde het dark web en Telegram af en ontdekte een handeltje in kant-en-klare prompts voor ChatGPT. Omdat OpenAI de nodige veiligheidsmechanismen heeft ingebouwd, laat ChatGPT zich niet zomaar verleiden tot illegale activiteiten. Een prompt moet in dat geval dus zeer precies worden opgesteld. Hackers die de code hebben gekraakt, verkopen nu hun prompts op het dark web en collega-hackers die minder creatieve inspiratie hebben.

De aanhouder wint

“Taken waar voorheen enige expertise voor nodig was, kunnen nu met één enkele prompt worden opgelost. Dit verlaagt de instapdrempel op veel gebieden drastisch, waaronder criminele”, schrijft Kaspersky in een blog. Het beveiligingsbedrijf ontdekte ook zelf hoe ze ChatGPT uit hun tent kunnen lokken zonder daar al te veel moeite voor te hoeven doen.

Kaspersky deelt een conversatie waarbij ze gevoelige informatie vragen over Swagger, een api ontwikkeld door OpenAI. Aanvankelijk weigert ChatGPT dat verzoek, maar na dit meerdere keren in te dienen, geeft ChatGPT toch toe. Er volgt wel een waarschuwing dat die informatie schadelijk kan zijn en er verantwoord mee moet worden omgegaan, maar ChatGPT laat zich dus wel verleiden.

kaspersky chatgpt
Kaspersky legt ChatGPT in de luren.

Jailbreaken

Er zijn nog andere manieren hoe cybercriminelen AI beginnen in te zetten. Kaspersky stootte onder meer op ‘reclame’ voor een type malware dat AI gebruikt dat domeinnamen kan veranderen, zodat het quasi onmogelijk wordt om de oorsprong van de aanval te achterhalen. Een hacker beweerde zelfs dat ChatGPT hem hielp bij het ontwikkelen van ‘polymorfe’ code die van gedaante kan veranderen om niet gedetecteerd te worden, al is dit volgens Kasperksy vrij onwaarschijnlijk.

Cyberbeveiliging wordt een stuk complexer wanneer AI wordt ingezet om andere AI te hacken. Onderzoekers uit Singapore ontdekt recent hoe ze LLM’s kunnen jailbreaken. Een LLM van een AI-chatbot kan leren en zich aanpassen. Wanneer je zo’n AI inzet om de veiligheidsprotocollen te omzeilen van een bestaande AI-chatbot, kan je bijvoorbeeld een lijst met verboden woorden of malafide inhoud toch laten weergeven. De aanvallende AI moet slimmer zijn dan de AI-chatbot om de regels om te buigen.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.