OpenAI krijgt te maken met een nieuwe privacyklacht in de Europese Unie wegens het hallucinatie-probleem van ChatGPT.
De non-profitorganisatie Noyb dient een klacht in tegen OpenAI wegens het onvermogen van ChatGPT om onjuiste informatie te corrigeren, schrijft de organisatie in een persbericht. Het zogenaamde hallucinatie-probleem heeft voornamelijk betrekking op foutieve persoonsinformatie. Het bedrijf kan bovendien niet zeggen waar hij die gegevens vandaan haalt. OpenAI erkent dit probleem openlijk, maar heeft volgens de organisatie nog geen acties ondernomen om het tegen te gaan. Als gevolg hierop diende Noyb een klacht in bij de Oostenrijkse gegevensbeschermingsautoriteit.
Hallucinaties
Het is reeds bekend dat generatieve AI-tools durven hallucineren, en dus antwoorden verzinnen. Ook ChatGPT heeft hier al even mee te kampen. Volgens Noyb erkent OpenAI dit probleem niet en schuilt het bedrijf zich achter het feit dat “feitelijke nauwkeurigheid in grote taalmodellen een gebied van actief onderzoek blijft”.
lees ook
OpenAI pakt hallucinaties van AI aan met nieuwe training
Gebruikers hanteren ChatGPT voor diverse doeleinden. Hoewel het bedrijf over uitgebreide trainingsgegevens beschikt, is er op dit moment geen manier om garantie te bieden dat ChatGPT gebruikers correcte informatie toont. Voor een huiswerktaak is dit relatief door de vingers te zien, maar wanneer het betrekking heeft op persoonsgegevens kan dit niet door de beugel. Dergelijke hallucinaties liggen niet in lijn met de Algemene Verordening Gegevensbescherming (AVG), waarin staat dat informatie over individuen correct moet zijn.
Klacht ingediend
Noyb heeft de Oostenrijkse gegevensbeschermingsautoriteit (DSB) gevraagd om onderzoek te voeren naar de gegevensverwerking van OpenAI en de maatregelen die het bedrijf heeft genomen om de juistheid van de verwerkte persoonsgegevens te waarborgen. Daarnaast verzoekt Noyb om OpenAI een boete op te leggen om toekomstige naleving te garanderen. Noyb vermoedt dat deze zaak via EU-samenwerking zal worden aangepakt.