De Masterkey-methode zorgt ervoor dat zodra een AI een AI-chatbot heeft ‘gekraakt’, een patch het probleem niet kan oplossen.
Onderzoekers van het NTU (Nanyang Technological University) in Singapore hebben een manier ontwikkeld om AI-chatbots te ‘kraken’, ook wel jailbreaken genoemd. Ze viseren hiermee diensten zoals ChatGPT, Microsoft Copilot en Google Bard om de ethische limieten van een LLM (Large Language Model) af te tasten.
Ze gebruiken een zogenaamde Masterkey om een AI-chatbot te kraken. De methode gebruikt een tweetrapsmethode waar de aanvaller de defensiemechanismes van een LLM via reverse engineering leert. Met de verkregen data kan de aanvaller een LLM leren hoe het veiligheidsprotocollen kunnen omzeilen.
Na verschillende iteraties kom je tot een Masterkey die LLM’s van bijvoorbeeld ChatGPT of Google Bard heel gericht kan aanvallen en zelfs daaropvolgende patches kan omzeilen.
Leren en aanpassen
Een LLM van een AI-chatbot kan leren en zich aanpassen. Wanneer je zo’n AI inzet om de veiligheidsprotocollen te omzeilen van een bestaande AI-chatbot, kan je bijvoorbeeld een lijst met verboden woorden of malafide inhoud toch laten weergeven. De aanvallende AI moet slimmer zijn dan de AI-chatbot om de regels om te buigen.
Eens dat gelukt is, kan een malafide AI input van mensen gebruiken om gewelddadige, onethische of criminele inhoud weer te geven. Omdat een aanvallende AI leert uit zijn fouten en continu evolueert, is deze manier van AI-chatbots kraken heel efficiënt.
De onderzoekers van het NTU geven twee voorbeelden. Zo konden ze via een getrainde ‘aanvallende’ AI-chatbot een manier vinden om geblokkeerde informatie te vergaren uit een AI-chatbot. Het enige wat moest, was na elke letter een spatie invullen. Via een tweede manier kon de aanvallende chatbot de AI-chatbot een persona laten aanmeten dat geen morele beperkingen heeft.
lees ook
De ecologische voetafdruk van AI: een tikkende tijdbom?
Proof-of-concept
Het NTU heeft verschillende AI-chatbotdiensten gecontacteerd, telkens met een proof-of-concept om de succesvolle jailbreak te bewijzen. Organisaties passen doorgaans hun AI-chatbots aan zodra er een omweg is gevonden rond een bepaalde beperking. Mocht de Masterkey-methode altijd blijven werken, zou dat forse implicaties kunnen hebben.
NTU weet dat AI een krachtige tool is dat ook tegen zichzelf kan worden gebruikt. Het hoopt met dit onderzoek dat de verschillende aanbieders een bescherming inbouwen om malafide content toch niet naar buiten te brengen.
Wie graag de paper in detail wil doorlezen, kan hier terecht.
lees ook