Door in zijn kaarten te laten kijken, hoopt OpenAI de kritiek te verstommen. Volgens het bedrijf blijft het cruciaal om systemen in de praktijk te testen.
Er gaan tegenwoordig heel wat stemmen op om de ontwikkeling van nieuwe AI-systemen tijdelijk te pauzeren. En dat zijn niet de minste: meer dan duizend experts uit de academische wereld ondertekenden een open brief en ook bekende figuren uit de technologiewereld zoals Elon Musk en Steve Wozniak steunen die oproep. Een reactie van OpenAI kon uiteraard niet uitblijven.
Met een blog probeert OpenAI de paniek over de veiligheid van AI te verstommen. Zo krijgt OpenAI wel eens het verwijt experimentele technologieën op de markt te brengen. Een onterechte kritiek volgens de AI-pionier, want het testte het nieuwe GPT-4-systeem zes maanden intern alvorens het met mondjesmaat naar het publiek uit te rollen. Dankzij die uitvoerige testprocedure is ChatGPT nu tot veertig procent minder geneigd valse informatie te verspreiden en tot tachtig procent voor ‘schadelijke content’.
Deze statistieken maakte OpenAI overigens al bekend bij de initiële lancering en een uitgebreide risicoanalyse is ook publiek beschikbaar. Die paper deed ons, en ook menig expert, de wenkbrauwen fronsen. Uit de paper blijkt dat GPT-4 in theorie zou kunnen gebruikt worden om racistische marketingcampagnes te bedenken of zelfs chemische wapens te maken. ChatGPT is dan ook een gefilterde versie van het taalmodel, maar OpenAI is niet altijd even transparant over hoe het het AI-model aan de ketting houdt, en bovendien zijn uitspattingen nooit volledig te vermijden.
lees ook
Een wolf in schaapskleren: risicoanalyse GPT-4 doet de wenkbrauwen fronsen
Bescherming van personen
Een interessante paragraaf in de blog van OpenAI is hoe het bedrijf zegt met de bescherming van personen en persoonsgegevens omgaat. Omdat ‘denk aan de kinderen’ een populair argument is om technologie af te schieten, zegt het bedrijf dat het in de toekomst de leeftijd van gebruikers beter wil controleren om te voorkomen dat minderjarigen met het platform aan de slag gaan. Daarmee reageert op één van de redenen waarom Italië en andere Europese landen ChatGPT willen verbannen.
lees ook
Na Italië kijken ook Duitsland en Frankrijk naar verbod op ChatGPT
Genoemde Europese landen beschuldigen OpenAI er ook van de GDPR-wetten aan de laars te lappen. Het bedrijf repliceert daarop dat het enkel publiek beschikbare data gebruikt om de modellen te trainen en geen privégegevens van personen. Daar hebben we toch bemerkingen bij.
We namen zelf eens de proef op de som en vroegen aan ChatGPT wat het over onze redactieleden wist. De tool wist wel ongeveer waar we mee bezig zijn in het dagelijkse leven en gaten in de kennis werden opgevuld met compleet verzonnen informatie. Er is als gebruiker geen manier om te zien waar ChatGPT die informatie uit haalt, alsook om foutieve informatie te laten verwijderen.
Geen pauze
Hoe dan ook is tussen de lijnen van de blog te lezen dat OpenAI allerminst van plan is de pauzeknop in te duwen. Je kan een technologie nog zo uitgebreid testen, om te weten hoe het zich in een natuurlijke setting gedraagt moet je het laten uittesten door gewone mensen, klinkt het. Ook de groten uit de techindustrie zijn niet van plan het rustiger aan te doen.
Google duwt zijn ChatGPT-alternatief Bard door en ook Microsoft en Meta blijven vrolijk AI-gerelateerde aankondigingen doen. Amazon pleit zelfs voor nog meer generatieve AI en zet de deuren wagenwijd open. De AI-trein is hoe dan ook vertrokken en zoals altijd loopt regulering mijlenver achter.