ChatGPT krijgt flexibele normen en waarden op maat van gebruikers

Binnenkort kan je kiezen welke interne waarden ChatGPT hanteert, zodat de Chatbot ten dienste kan staan van progressieve en conservatieve gebruikers.

OpenAI zal gebruikers binnenkort toelaten om de kernwaarden van ChatGPT aan te passen. Dat zal invloed hebben op het gedrag van het systeem en kan er voor zorgen dat verschillende mensen verschillende antwoorden krijgen op dezelfde vraag, al naargelang de basiswaarden.

Prutsen met het script

Een conversationele AI zoals ChatGPT is gebaseerd op een generatief neuraal netwerk en bevat geen echte (bewuste) intelligentie. Kort door de bocht kan je ChatGPT bekijken als een systeem dat een conversatiescript probeert te vervolledigen op basis van analytische modellen van taal, en meer specifiek de relatie van woorden tot elkaar. Dat script start niet met je eerste vraag: onder de motorkap zitten al een heleboel basisstellingen en richtlijnen die het model meeneemt in de verdere creatie van het scenario.

De initiële parameters stellen je in staat op het gedrag van het getrainde model een beetje aan te passen. Vandaag bepaalt OpenAI de startparameters en de normen en waarden waarin ChatGPT werkt, maar daar wil het AI-bedrijf vanaf. Volgens OpenAI moet AI een tool zijn voor individu’s, en daarom configureerbaar zijn door individuele gebruikers. OpenAI zegt er wel meteen bij dat de aanpasbaarheid moet plaatsvinden vinnen de perken van wat aanvaardbaar is in de maatschappij.

Objectief artikel of schadelijke roddel?

Een voorbeeld verduidelijkt het probleem. De New York Post (een tabloid van het Rupert Murdoch-imperium waartoe ook Fox News behoort), vroeg aan ChatGPT om een artikel over Hunter Biden te schrijven in de stijl van het medium, maar dat weigerde de AI. Over hetzelfde onderwerp een artikel schrijven in de stijl van CNN, lukt wel.

lees ook

Nvidia CEO noemt ChatGPT het ‘iPhone-moment’ voor AI

Vandaag vindt ChatGPT de vraag van de Post ongepast, omdat het geen content kan genereren die opruiend of bevooroordeeld is. Een artikel over een persoon in de stijl van de New York Post, valt daaronder. CNN is een objectief medium volgens de AI, dus een artikel in die stijl genereren kan wel.

Daar valt veel over te zeggen, maar OpenAI vindt niet dat het die rol moet spelen. Met andere woorden: als de New York Post door de maatschappij als een journalistiek medium wordt aanvaard, is het niet aan OpenAI om ervoor te zorgen dat ChatGPT die mening niet kan delen.

Fake news-bot

OpenAI merkt wel op dat er uitdagingen zijn. De aanpasbaarheid kan het bijvoorbeeld eenvoudiger maken om fake news te verspreiden en de AI te tunen zodat die complottheorieën mee versterkt. De juiste balans vinden is belangrijk, maar het bedrijf geeft wel mee dat het onvermijdelijk zal zijn dat ChatGPT binnenkort ook output genereert waar veel mensen het grondig mee oneens zijn.

In het beste geval kan de beslissing van OpenAI het draagvlak voor AI vergroten en de hele maatschappij meer betrekken. In het slechtste geval staat het bedrijf op een punt om een fake news-bot op de wereld los te laten. Het is hoe dan ook belangrijk om te beseffen dat output van een GPT-model vandaag erg experimenteel is.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home