Doen alsof je ChatGPT een fooi gaat geven, resulteert in langere en meer gedetailleerde antwoorden. Gelukkig hoef je de fooi niet effectief te geven.
Een financiële stimulans helpt vaak om mensen dat tikkeltje extra te laten doen en dat geldt blijkbaar ook voor ChatGPT. Een ontwikkelaar die op X gekend is onder het alias thebes, voerde een experiment uit om te zien het geven van een fooi, of in ieder geval doen alsof, invloed heeft op de antwoorden die ChatGPT geeft. Het experiment begon als een grap, maar leverde in de praktijk toch een opmerkelijk resultaat op.
De ontwikkelaar testte drie scenario’s. In de eerste chat zei ze expliciet tegen ChatGPT dat ze geen fooi zou geven. In scenario twee en drie werd een fooi van twintig en tweehonderd dollar beloofd. De antwoorden werden getoetst tegen een baseline van een ruime drieduizend tekens.
Alles voor de centen
Hoe hoger de fooi, hoe langer en meer gedetailleerd de antwoorden van ChatGPT werden. Voor twintig dollar produceerde de chatbot tot zes procent meer tekens. Een fooi van tweehonderd dollar maakt de antwoorden tot elf procent langer. Geef je duidelijk aan dat je geen fooi gaat geven, dan krimpen de antwoorden met twee procent in.
ChatGPT toont in dit experiment toch een opvallend menselijk kantje, al is het maar de vraag hoe dit gedrag exact in de chatbot is geslopen. Fooien vormen een belangrijk onderdeel in de Amerikaanse economie, dus mogelijk kan AI zich bepaalde culturele elementen aanleren. Je hoeft de fooi niet effectief te geven als je deze test eens zelf wilt nadoen. Aan het einde van de conversatie zegt ChatGPT geen enkele vorm van betaling kan aanvaarden en dat als jij tevreden bent met het antwoord, dat al ‘voldoende beloning is’.
ChatGPT vierde vorige week zijn eerste verjaardag. In deze blog blikken we terug op de ongeziene hype rond de chatbot en voor welke bedrijven dat ongeziene winsten heeft opgeleverd.