De populariteit van tools zoals ChatGPT en Dall-E maakt artificiële intelligentie meer dan ooit toegankelijk voor een breed publiek. Waar de ene zonder verpinken de AI-revolutie verkondigt, waant de andere zich in een Terminator-film. Zoals altijd ligt de waarheid in het midden.
De naam ChatGPT doet ongetwijfeld wel een belletje rinkelen. Sinds OpenAI op 30 november een demo op de wereld losliet, is het niet meer stil geweest rond de chatbot. Het succes van de tool is zo onverhoopt groot dat OpenAI zelfs een betalende versie overweegt. Het bedrijf scoorde eerder ook al veel publieke aandacht toen het in september de AI-beeldgenerator Dall-E openzette.
De introductie van tools zoals ChatGPT en Dall-E zorgen voor een nieuw momentum in de ontwikkeling en adoptie van artificiële intelligentie. Hoe onschuldig de tools ook lijken, staan ze voor velen symbool voor de grote doorbraak van AI in onze maatschappij. AI is niet langer exclusief voor grote bedrijven; vanaf nu kan ook Jan met de Pet ermee aan de slag.
De verschillende kampen rond artificiële intelligentie komen daarmee alleen maar meer lijnrecht tegenover elkaar te staan. Voorstanders hopen dat de al jarenlang verkondigde AI-revolutie zich in 2023 eindelijk zal voltooien. De tegenpartij huivert dan weer van de mogelijke consequenties wanneer AI-technologie in verkeerde handen zou vallen. Wie heeft gelijk?
lees ook
ChatGPT haalt onderscheiding aan Amerikaanse universiteit: is dat problematisch?
Generatieve AI: het laaghangende fruit
Eerst en vooral is het goed om te weten dat een programma als ChatGPT niet uit het luchtledige geboren is, maar het resultaat is van jarenlange onderzoek en ontwikkeling in labo’s. Ook is de term ‘artificiële intelligentie’ een overkoepelende term die te pas en (minstens even vaak) te onpas gebruikt wordt om verschillende types van slimme algoritmen te omschrijven
ChatGPT en Dall-E vallen onder de discipline van ‘generatieve AI’. Dat type AI-systemen onderscheidt zich omdat het unieke content kan creëren, waar bijvoorbeeld analytische AI getraind is om ruwe data te herleiden naar eenvoudigere rapporten maar geen data kan verzinnen. Je kan ChatGPT vragen om op basis van beperkte input een essay te schrijven, Dall-E zet een tekstomschrijving om naar een realistisch beeld en GitHub CoPilot genereert op basis van een IT-probleem dat je het voorlegt een (soms) performante code.
lees ook
AI-gegenereerde code van bedenkelijke kwaliteit
Omdat de creatieve mogelijkheden van generatieve AI eindeloos lijken, is het een discipline met een potentieel grote maatschappelijke impact. Gartner tipte generatieve AI eind 2021 al als één van de vijf te volgen technologieën voor de komende jaren. Eén van de grote voordelen van generatieve AI is dat eens een goede basis gelegd is, de modellen nog relatief weinig data nodig hebben om zich te verbeteren.
Dat stelt ook organisaties die over minder grote hoeveelheden data beschikken, in staat om mee te delen in de pret. Volgens Gartner zal generatieve AI dan ook voor grote veranderingen zorgen in verscheidene industrieën, van de maakindustrie tot de gezondheidszorg en media.
Plagiaat, deepfakes en virussen
Helaas heeft het niet lang geduurd vooraleer mensen met minder goede bedoelingen ook de troeven van generatieve AI leerden ontdekken. GitHub CoPilot heeft al geleid tot plagiaatconflicten en onderzoekers van Check Point onderzochten hoe met ChatGPT heel eenvoudig phishingmails en malware gemaakt kan worden. Dall-E zou dan weer het verspreiden van deepfakes eenvoudiger maken.
lees ook
AI-taalmodellen dragen bij aan meer geloofwaardige phishingmails
OpenAI mag dan wel beweren dat er controlemechanismen zijn ingebouwd om ongeoorloofd gebruik tegen te gaan, het experiment van Check Point toont aan hoe weinig effectief die zijn. Wanneer je letterlijk aan ChatGPT vraagt om een phishingmail te maken, dan zal de bot dat weigeren. Door wat te spelen met je commando’s, kan je de algoritmen snel wijsmaken dat je geen slechte intenties hebt. CEO Sam Altman geeft die beperkingen overigens ook hoffelijk toe.
We kunnen een lange paragraaf wijden aan de risico’s van artificiële intelligentie, maar het blijkt dat ChatGPT hier ook zelf uitgebreid over kan reflecteren (zie screenshot). Die risico’s geven voeding aan de doem- en complotdenkers die goedgelovige bedrijfsleiders proberen tegenhouden AI-technologie te omarmen in de organisatie. Ook prominente figuren uit de technologiesector zoals Elon Musk, nochtans een van de medeoprichters van OpenAI, trekken al jarenlang aan de alarmbel.
Op weg naar zelfbewustzijn?
De voorspellingen dat AI de wereld gaat overnemen en de mensheid naar de verdoemenis zal helpen, zijn op dit moment ook nog een zware overschatting van de staat van de technologie. De technologieën van OpenAI zijn zeker indrukwekkend te noemen, maar de ontwikkeling van artificiële intelligentie is een proces dat nog lang niet aan zijn einde gekomen is.
De wetenschap hanteert een tweeledige schaal om AI-systemen te rangschikken. Een eerste schaal kijkt naar de capaciteiten van de algoritmen. Voorlopig zitten we nog in de fase van ‘zwakke AI’; dat wil zeggen dat de intelligentie van algoritmen nog niet kan tippen aan menselijke intelligentie en zich toespits op specifieke taken.
lees ook
AI, machine learning en deep learning: wat is het verschil?
Dall-E kan bijvoorbeeld zeer goed tekenen, maar vraag het programma niet naar het weer van morgen. In principe vallen ook dagelijkse toestellen zoals grafische rekenmachines onder de paraplu van zwakke AI. We spreken van ‘algemene kunstmatige intelligentie’ wanneer AI de capaciteit zou hebben om elke intellectuele taak op hetzelfde niveau als een mens uit te voeren en van ‘super AI’ op het moment dat kunstmatige intelligentie het menselijke redeneervermogen overstijgt.
Een tweede onderverdeling kan op basis van functionaliteit worden gemaakt. De meeste hedendaagse AI-systemen zijn reactief; ze zijn geprogrammeerd om een bepaalde taak goed uit te voeren, maar ook niet meer dan dat. Denk bijvoorbeeld aan Google Assistant of Siri; op eenvoudige vragen kunnen ze een goed antwoord geven, maar ze zijn niet getraind om complexe opdrachten uit te voeren.
Meer geavanceerde modellen hebben al een beperkte geheugencapaciteit ontwikkeld om data voor een beperkte tijdspanne te bewaren. Deze functionaliteit is van belang voor autonome voertuigen, die onder meer de snelheid en afstand van naburige auto’s en snelheidslimieten moeten kunnen registreren en onthouden om veilig te navigeren. ChatGPT is in staat om je eerdere vragen te herinneren en hiernaar terug te koppelen. Ook dit kan nog niet als echte ‘intelligentie’ omschreven worden.
Gaan we machines nog de baas kunnen als deze intelligenter zijn dan ons?
Gaan we dan nog een stap verder, dan zou AI in staat moeten zijn om menselijke emoties te begrijpen. De overtreffende trap daarvan is dat machines zelfbewust worden. Dit is nog heel verre toekomstmuziek, ook al beweerde een (ontslagen) Google-ingenieur vorige zomer anders.
De doembeelden en complottheorieën zijn dan ook vooral gebaseerd op wat er zou gebeuren als AI effectief zelfbewust en superintelligent zou worden. Hoe gaan we machines kunnen controleren die slimmer zijn dan ons? Het is een vraag die niemand met volle zekerheid durft te beantwoorden.
Commerciële machine
Zoals alle hedendaagse technologieën zit ook achter AI een commerciële machine. Het economische potentieel van AI is enorm: PwC voorspelt dat kunstmatige intelligentie 15,7 biljoen dollar zal bijdragen aan de wereldeconomie tegen 2030. Onderzoek en ontwikkeling worden nu voornamelijk nog geleid door kleine en minder kleine startups, maar de Big Tech neemt het langzaam maar zeker over.
Microsoft heeft al veel geld gepompt in OpenAI en wil daar dit jaar de vruchten van plukken. Met aangekondigde integraties in Bing, Office en Azure zegt Microsoft artificiële intelligentie te ‘democratiseren’ door de technologie van OpenAI te koloniseren. Google, dat beschikt over huisgemaakte AI-modellen zoals LaMDA, keek aanvankelijk de kat uit de boom tot tegenzin van de eigen werknemers, maar lijkt nu ook overstag te gaan. Google houdt op 8 februari een event om zijn plannen kenbaar te maken.
In het kader van AI is het geen onbelangrijk detail wie aan de knoppen van de algoritmen zit. Om algoritmen te trainen, is (kwalitatieve) data nodig. De data die gebruikt wordt, zal de output die het systeem levert mee sturen. Wie de data heeft, heeft dus ook de macht. Om de neutraliteit van AI-systemen te bevorderen, is diversiteit in de data noodzakelijk.
lees ook
Bestaat niet-discriminerende AI wel?
McKinsey merkt op dat AI wel het potentieel heeft om de levenskwaliteit van burgers, bedrijven en overheden te verbeteren, maar evengoed de digitale en economische kloof in de maatschappij verder kan uitdiepen. Organisaties die nu al durven inzetten op AI, zullen zich over enkele jaren beloond zien voor die investeringen.
Maar wie geen toegang heeft tot de technologie, dreigt verder en verder achterop te geraken. Willen we het potentieel dat AI heeft volledig ontgrendelen, zal het belangrijk zijn dat iedereen gelijke toegang krijgt tot de technologie. Dat is eenvoudiger gezegd dan gedaan.
Duidelijke spelregels
De adoptie van AI groeit gestaag verder. 35 procent van bedrijven maakte in 2022 actief gebruik van algoritmen in de dagelijkse werking, 42 procent zit in de ontdekkingsfase. Tot deze cijfers kwam IBM in zijn Global AI Adoption Index. We kunnen dus nog niet van een revolutie spreken, waardoor het nu onmogelijk is om de impact van AI accuraat te voorspellen. De hype rond ChatGPT kan er voor zorgen dat we daar wel sneller dan verwacht achter gaan komen.
Het is daarom van belang om nu al te anticiperen op wat de toekomst brengt. Er zal nood zijn aan een wettelijk referentiekader voor de ontwikkeling en gebruik van AI waarmee we de bedrijven die aan de knoppen zitten ter verantwoording kunnen roepen.
Laat daar nu net het schoentje wringen; op nationaal en internationaal niveau zijn er amper duidelijke spelregels te vinden. Spelers uit de sector zijn hier overigens ook vragende partij voor, wat getuigt dat de wil zeker aanwezig is om technologie voor het algemene goed te ontwikkelen.
De Europese AI Act kan een ommekeer inluiden. Het wetsontwerp focust op het bepalen van criteria die het risico van een AI-systeem inschatten. Zogenaamde ‘hoog-risicovolle AI’ vereist strenge regulering of moet zelfs volledig van de markt geweerd worden. De huidige tekst zal nog meerdere revisierondes moeten doorstaan, maar de wet kan wel als voorbeeld voor andere landen dienen.
Artificiële intelligentie is hier om te blijven, zoveel mag wel duidelijk zijn. Er is totaal geen reden om daar angst voor te hebben, maar we mogen ook niet blind zijn voor de potentiële risico’s. Als iedereen verantwoord omspringt met de technologie, dan zal AI de grootste maatschappelijke veranderingen teweegbrengen sinds de lancering van het world wide web. Laat die AI-revolutie dus maar beginnen!
Om het potentieel van AI volledig te ontgrendelen, zijn er duidelijkere spelregels nodig.