Superintelligentie op de radar van OpenAI

AI cybersecurity

OpenAI gaat de evolutie van AI naar superintelligentie goed in de gaten houden.

Enkele topmensen van OpenAI kijken in een blogpost naar de evolutie van AI en AGI (Artificial General Intelligence) tot wat gekend staat als ‘superintelligentie’. Ze stellen dat dit concept een specifieke aanpak vergt en doen in de post hun ideeën uit de doeken.

De auteurs en hun onderwerp

Het zijn CEO Sam Altman, hoofdwetenschapper Ilya Sutskever en president Greg Brockman die zich over superintelligentie buigen. Dat trio schreef onlangs ook al een gezamenlijke post over de invloed van kunstmatige intelligentie op de werkgelegenheid.

Superintelligentie is het uitgangspunt dat kunstmatige intelligentie zodanig evolueert dat het een entiteit wordt die veel slimmer is dan de meest hoogbegaafde mensen Een “wezen” met capaciteiten die de menselijke ver overstijgen.

De auteurs zien het sowieso gebeuren dat AI binnen een decennium de menselijke expertise op heel wat vlakken voorbijsteekt. Die evolutie kan de mens enorm veel voordeel opleveren, maar we moeten tevens zorgvuldig omgaan met de risico’s, volgens het OpenAI-drietal. Dat mag niet reactief zijn, maar die evolutie van AI moet goed worden opgevolgd. Superintelligentie vereist bovendien een aparte en specifieke aanpak.

Drie punten van aanpak

Altman, Sutskever en Brockman beseffen dat er veel ideeën zijn om op een succesvolle manier om te gaan met deze evolutie. Zij lichten er drie essentiële uit.

Een belangrijk gegeven is een goede coördinatie tussen de verschillende ontwikkelaars van deze technologie. Invloedrijke overheden kunnen bijvoorbeeld een overkoepelend project opzetten, waar relevante organisaties dan onder gaan werken. Een andere optie is een algemeen akkoord tussen ontwikkelaars en bedrijven om AI jaarlijks maar tot een bepaald niveau te laten groeien. Dat laatste betekent wel nog steeds een grote verantwoordelijkheid voor eender wie dat akkoord onderschrijft.

lees ook

Goede AI versus slechte AI – peetvader twijfelt over uiteindelijke winnaar

Voor het tweede maken de auteurs de vergelijking met het Internationale Agentschap voor Atoomenergie. Dat zou een officiële organisatie zijn met de bevoegdheid om inspecties of audits uit te voeren. Het agentschap zou ook toestemming kunnen geven om eventueel het jaarlijkse niveau van het eerste idee te overstijgen. Zo’n agentschap zou verder ook restricties kunnen opleggen en test laten uitvoeren op vlak van beveiliging of energiegebruik monitoren. De vraag is of zo’n organisatie dan ook zou gaan over problemen met privacy.

Dat tweede idee is een ambitieus plan en dat beseffen Altman en co. De basis zou dan ook worden gelegd bij bedrijven die bepaalde onderdelen van zo’n agentschap implementeren in hun manier van werken. Daarna kunnen dan volledige naties volgen. Het hoofddoel is een agentschap dat issues en onderwerpen algemeen aanpakt en niet telkens overlaat aan individuele overheden.

Idee nummer drie is kort en klinkt eenvoudig, maar is een constant evoluerend proces: de technische capaciteiten om superintelligentie veilig te maken en te houden. Dat is volgens de auteurs een continu onderzoekswerk.

Kanttekeningen

Ondanks die ideeën blijft het voor OpenAI wel belangrijk dat ontwikkelaars voldoende vrijheid behouden om tot een zeker niveau hun research in AI te blijven doen. Bovendien leggen de auteurs nog steeds veel verantwoordelijkheid bij de individuele ontwikkelaars. Die bedenkingen, gekoppeld aan het logische enthousiasme van OpenAI voor kunstmatige intelligentie, maken opiniestukjes als dit toch steeds een beetje dubbel.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.