Onderzoekers vragen meer transparantie over risico’s AI

ai

Huidige en voormalige werknemers van OpenAI en Google Deepmind vragen in een open brief om meer transparantie. De risico’s van AI mogen niet onder de mat worden geveegd.

De open brief werd op 4 juli gepubliceerd met de niet te misverstane titel Een recht om te waarschuwen voor geavanceerde artificiële intelligentie. Dertien onderzoekers uit de AI-wereld schaarden zich achter de brief, waarvan het grootste deel een verleden heeft bij OpenAI. Ook vier wetenschapper die nu nog actief zijn bij het bedrijf ondertekenden de brief anoniem. Het dertiental wordt aangevuld door (ex)-medewerkers van Google Deepmind en Anthropic.

In de brief wordt niet letterlijk naar OpenAI, Google en co verwezen, maar de wetenschappers richten hun boodschap duidelijk tot hun (ex-)werkgevers. Er wordt beargumenteerd dat bedrijven die AI-systemen ontwikkelen wel over een aanzienlijke hoeveelheid gegevens over de risico’s beschikken, maar die niet altijd openbaar maken.

Het ontbreekt ook aan wettelijke kaders die AI-ontwikkelaars verplichten hierover te communiceren naar de buitenwereld. Hierdoor blijft AI vaak in de ‘zwarte doos’ zitten. De Europese AI Act probeert hier verandering in te brengen, maar het zal nog enkele jaren duren voordat de wet een voelbaar verschil kan maken. De eigen medewerkers behoren ‘tot de weinige mensen die hen verantwoordelijk kunnen houden tegenover het publiek’, stelt de brief.

lees ook

Vrij voor iedereen, of problematisch en gevaarlijk: mag AI open source zijn?

Open voor kritiek

De wetenschappers stellen ook enkele suggesties voor om meer transparantie in de ontwikkkeling van AI te krijgen. Dat begint binnen de technologiebedrijven zelf, die een cultuur van open kritiek dienen te stimuleren. Medewerkers die als klokkenluider willen optreden, moeten dat anoniem kunnen doen en zonder vrees voor vergeldingsacties van hun werkgever.

Recent sprak een voormalig OpenAI-bestuurslid, die tot zover geweten niet meewerkte aan deze brief, over haar periode bij het bedrijf. Daarin haalt ze hard uit naar topman Sam Altman, die zij onder meer leugens en pesterijen verwijt. OpenAI zou ook een clausule in de contracten van werknemers hebben gestoken om hen onder druk te zetten geen kritiek op het bedrijf te uiten, al schrapte het bedrijf die clausule inmiddels.

lees ook

KubeCon wijst met de vinger naar gesloten AI-modellen: “Concentratie van technologie heeft slechte neveneffecten”

OpenAI richtte een veiligheidsadviesraad op om de ontwikkeling van nieuwe AI-projecten te overzien. Altman zit mee in die negenkoppige raad, samen met drie bestuursleden en vijf ingenieurs.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home