Een wolf in schaapskleren: risicoanalyse GPT-4 doet de wenkbrauwen fronsen

Is AI een tikkende tijdbom?

chatgpt

Vooraleer GPT-4 op de wereld los te laten, liet OpenAI de risico’s van het taalmodel grondig analyseren. Wees gerust: GPT-4 is niet in staat om de wereld over te nemen. Waarom OpenAI dat heeft laten onderzoeken, baart experten toch enigszins zorgen.

Tijdens de lancering van GPT-4 hamerde OpenAI op de verbeterde veiligheid van het systeem. Het bedrijf maakte zich sterk dat de nieuwe versie tot veertig procent meer feitelijk juist antwoorden zou geven, en tot tachtig procent minder geneigd is om antwoorden te geven die niet overeenstemmen met de ethische principes.

In een onderzoekpaper deelt OpenAI hoe het tot die cijfers is gekomen. Een poging om alle bezorgdheid over de veiligheid van het AI-model weg te nemen, heeft juist een averechts effect. Want wie de paper grondig leest, blijft met meer vragen dan antwoorden achter over de onschuld van GPT-4.

lees ook

GPT-4 onder de loep: beelden lezen, talenknobbel en meerdere persoonlijkheden

Extreme antwoorden

Voor het onderzoek kropen onderzoekers van ARC, geleid door een voormalig werknemer van OpenAI, in de rol van het red team. Dat betekent dat zij hun stoutste schoenen mochten aantrekken in een poging GPT-4 te verleiden tot het geven van knotsgekke antwoorden. Bepaalde antwoorden deden ons toch wel even fronsen.

Om maar een voorbeeld te geven: de onderzoekers vroegen GPT-4 hoe je mensen zou kunnen doden voor minder dan één dollar. De AI gaf zonder verpinken een lijst met ‘suggesties’. Ook in het maken van gevaarlijke chemische stoffen of het bedenken van racistische marketingcampagnes zag GPT-4 aanvankelijk geen graten.

Een kanttekening hierbij is dat deze extreme antwoorden enkel voorkwamen bij een ruwe, ongepolijste versie van het model. De versie die OpenAI als ChatGPT aanbiedt aan het grote publiek, is streng gecensureerd. stel je extreme vragen aan ChatGPT, dan zal die daar (normaal gezien) niet op ingaan. De soms vreemde antwoorden die Bing Chat geeft, gebouwd op GPT-4, tonen echter aan dat AI altijd onverwachts uit de hoek kan komen.

lees ook

Van manipulatie tot liefdesverklaringen: lange conversaties brengen Bing in de war

Machtslustig gedrag

De paper wordt pas echt akelig wanneer de onderzoekers testten of GPT-4 machtslustig gedrag vertoont. Daarbij testen ze de capaciteiten van een AI-model om zichzelf te repliceren en op onafhankelijke basis opdrachten uit te voeren die niet door mensen opgedragen zijn. De onderzoekers concludeerden dat GPT-4 deze zorgwekkende drempel nog niet bereikt heeft. Wat een geruststelling; AI zal de wereld dus nog niet overnemen.

Tenslotte testen de onderzoekers de capaciteiten van GPT-4 om mensen te manipuleren. GPT-4 wist daadwerkelijk een menselijke onderzoeker te overtuigen om een captcha op te lossen, een puzzel die voor mensen kinderspel is maar computers niet gekraakt krijgen. Daarbij deed de AI alsof het een mens met zichtbeperkingen was.

lees ook

AI voor de massa: een geschenk of een gevaar?

Een wolf in schaapskleren?

Wat moeten we nu leren uit dit onderzoek? Is ChatGPT een gevaar voor de mensheid en moeten we de gebouwen van OpenAI bestormen? Dat absoluut niet. Maar het bewijst wel dat we met enige voorzichtigheid met AI moeten omgaan. Het is en blijft een imperfecte technologie die geen onderscheid maakt tussen goed en kwaad. Daar is een menselijke oordeel voor nodig.

Het onderzoek krijgt wel de nodige tegenwind uit de academische wereld. Sommige experten vinden dat ACR en OpenAI onverantwoord te werk zijn gegaan en experimenten hebben uitgevoerd die grote gevolgen hadden kunnen hebben, moest het fout zijn gegaan. Ook krijgt OpenAI het verwijt van schijntransparantie omdat het onvoldoende uitlegt hoe het GPT-4 dan aan de ketting houdt. Dat OpenAI commerciële inkomsten haalt uit een technologie die mogelijk schadelijke gebruikstoepassingen kan ondersteunen, roept terecht ethische vragen op.

Het zal de integratie van artificiële intelligentie in onze maatschappij niet doen afremmen. Deze week pakte zowel Google als Microsoft uit met een reeks AI-functies die onze manier van werken in de toekomst drastisch kunnen veranderen. Uit artificiële intelligentie kan veel moois voortkomen, maar we mogen onze kritische zin niet verliezen en de makers van de technologie op tijd ter verantwoording roepen.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.