Ondanks de stijgende mogelijkheden van kunstmatige intelligentie zitten er nog vaak opvallende fouten in de antwoorden van AI-chatbots. OpenAI doet nu onderzoek om dat te verbeteren.
De populariteit van chatbots met kunstmatige intelligentie is, sinds ChatGPT van OpenAI, op korte tijd naar ongekende hoogtes geschoten. De leermodellen waarmee AI traint zijn uitgebreid, maar niet feilloos en alwetend. Het gebeurt vaak dat systemen als ChatGPT of Google Bard gewoon zelf iets samenstellen wanneer ze het antwoord niet weten en die verzinsels “verkopen” als juiste informatie.
Enkele voorbeelden
Bij Google Bard was dat al meteen pijnlijk duidelijk tijdens de voorstelling. Het systeem beweerde toen dat de James Webb-ruimtetelescoop de allereerste foto heeft genomen van een planeet buiten ons zonnestelsel. Dat klopt niet; die eer is voor de Very Large Telescope in het European Southern Observatory in Chili, die in 2004 een foto nam van een exoplaneet. Dat is bijna zeventien jaar voor James Webb werd gelanceerd.
Zomaar iets uit de digitale duim zuigen kan ook legale gevolgen hebben. Een New Yorkse advocaat dacht onlangs het bewijs in het voordeel van zijn team te versterken, in een rechtzaak van hun klant tegen een vliegtuigmaatschappij, door de rechtbank een aantal gelijkaardige zaken te presenteren in een lijvig dossier. De man gebruikte echter ChatGPT om die zaken samen te stellen en het systeem bleek ze één voor één te hebben verzonnen. De rechter beval prompt een hoorzitting over sancties tegen de advocaat. Hoe de conclusie van de rechtszaak is nog niet geweten, ze loopt nog. Maar de klagende partij zal er na dit debacle ongetwijfeld minder gerust in zijn.
Die voorbeelden spelen ongetwijfeld ook mee wanneer de eigen CEO van OpenAI de wereld waarschuwt voor de negatieve kanten van kunstmatige intelligentie. Het weerhield het bedrijf er echter niet van om inmiddels een officiële ChatGPT-app voor iPhone te lanceren.
Oplossing
Om deze toestanden te vermijden gaat OpenAI verbeterde en nieuwe trainingsmethoden ontwikkelen. Het idee is om de AI te belonen bij betrouwbare resultaten en om ongewenste resultaten te ontmoedigen. De bedoeling is om dat niet te beperken tot het eindresultaat, maar om dit toe te passen bij elke stap; “proces-supervisie” tegenover “resultaat-supervisie”. Zo zou de gedachtegang van het systeem transparanter worden.
Volgens de OpenAI-onderzoekers heeft deze manier van werken meerdere voordelen. Door het hele proces te monitoren en niet alleen het resultaat, redeneert de AI veel minder volgens ‘het doel heiligt de middelen’. Menselijke supervisie bij elke stap leidt volgens de onderzoekers tot een duidelijker te interpreteren proces. Het nadeel van deze methode is dat het de training van AI wel vertraagt. Hoe je kunstmatige intelligentie voor iets beloont werd niet onthuld, maar dat zal niet met een traktatie zijn.