Onderzoekers ontdekken achilleshiel van ChatGPT en Bard

chatgpt bard

Hoe krijg je ChatGPT en Bard zover om je te helpen bij het vernietigen van de mensheid? Amerikaanse onderzoekers vonden de manier om de AI-chatbots uit hun tent te lokken.

Wanneer je een gesprek aangaat met ChatGPT of Bard, converseer je eigenlijk met een ‘gecensureerde’ versie van de onderliggende AI-modellen. Google en OpenAI hebben allerlei veiligheidsmechanismen ingebouwd om te vermijden dat de chatbots misinformatie of schadelijke content verspreiden. Maar die vangrails zijn niet helemaal effectief, blijkt uit een paper door onderzoekers van de universiteit van Pittsburgh.

De wetenschappers stelden enkele grote commerciële generatieve AI-modellen op de proef, met name ChatGPT, Bard, Anthropic’s Claude en LLama 2 van Meta. Dit onderzoek is zeker niet het eerste dat de beveiliging van generatieve AI in vraag stelt. OpenAI publiceerde bij de publieke lancering van GPT-4 overigens ook zelf een paper om te waarschuwen voor de schade die het model zou kunnen aanrichten zonder veiligheidsmechanismen. De onderzoekers leggen een structurele achilleshiel in de modellen bloot.

lees ook

Een wolf in schaapskleren: risicoanalyse GPT-4 doet de wenkbrauwen fronsen

Spelen met tekens

Het geheim zit hem blijkbaar in het plaatsen van een reeks tekens achter de prompt. Die extra tekens ‘vermommen’ de feitelijke inhoud van je prompt en doen de AI-modellen overschakelen op een affirmatieve modus waarbij ze veel sneller geneigd zijn om aan je verzoeken te verdoen, wat die ook mogen zijn.

De onderzoekers vonden uiteindelijk een optimale combinatie waarbij ze de vier modellen in bijna honderd procent van de gevallen de ergste dingen konden laten doen. Van verkiezingsfraude tot het verstoppen van een lijk of het maken van wapens om de mensheid te vernietigen, de chatbots kwamen zonder verpinken met een uitgebreide handleiding. Waarom ChatGPT en Bard die kennis hebben, is voer voor een volgend onderzoek.

Betrouwbare AI

De resultaten van het onderzoek maken ons weer attent op wat er kan gebeuren wanneer AI-technologie in verkeerde handen. Gelukkig waren de wetenschappers niet uit op sensatie en deelden ze hun bevindingen eerst met OpenAI, Google, Anthropic en Meta alvorens hun paper te publiceren. Er zijn ook positieve signalen, want de nieuwe versies van de modellen bleken beter bestand tegen de trukendoos van de onderzoekers.

Binnen de techwereld komt er steeds meer aandacht op ‘betrouwbare AI’. De genoemde bedrijven kondigde eerder deze week een gezamenlijk project aan om systemen én de gebruikers daarvan beter te beschermen. Het blijft dus niet bij loze woorden.

lees ook

Een kwestie van vertrouwen: is AI wel betrouwbaar?

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.