AI zou met een neutrale blik naar personen moeten kijken. Dat zou de technologie interessant maken in bijvoorbeeld aanwervingsprocessen. Zal de technologie ooit echt niet-discriminerend zijn?
Een studie van Cambride University doet alle hoop op een neutrale AI-technologie wegebben. De conclusie komt er op neer dat AI-tools bij het aanwervingsproces bias niet verhelpen en evenmin leiden tot meer diversiteit.
Definitieprobleem
De studie schets een probleem uit 2020, maar blijft nog steeds relevant. Op de TNW-conferentie in Amsterdam hoorden we dat AI-technologie nog steeds met problemen rondom negatieve biases kampt. “AI kan een verregaand effect hebben op de mens en de wereld”, gelooft Brian Mullins, CEO van Mind Foundry. “Het vraagt daarom een grote verantwoordelijkheid om het op de juiste manier te ontwikkelen.”
Het probleem ligt alleen in de definitie van de term ‘bias’. Woorden blijken daarvoor tekort te schieten, want zowel Mullins als Alejandro Saucedo, Director of ML Engineering bij Seldon, hebben geen pasklaar antwoord.
“Ik kan vanuit een technisch perspectief proberen”, begint Saucedo, “en starten vanuit machine learning. Deze modellen zijn gebouwd om te discrimineren tot het juiste antwoord overblijft. Wanneer we het dan hebben over ongewenste biases spreken we over een concept dat een negatieve impact heeft op de use cases waarin ze worden opgenomen.”
Ongewenst probleem
AI-technologie levert voor organisaties verschillende voordelen op. Een moeilijke beslissing kan genomen worden op basis van eerder verzamelde data. Dat werkt sneller en geeft de organisatie een reden om die bepaalde beslissing te nemen.
“Een organisatie kan AI-technologie implementeren vanuit de juiste ingesteldheid, maar dat betekent niet dat de uitkomst per definitie goed is. Dan krijg je later de verhalen van ‘organisatie X implementeert discriminerend algoritme’, maar het is niet zo dat deze organisatie vergaderingen organiseert om te bekijken hoe ze dat algoritme zo slecht mogelijk kunnen maken”, vertelt Saucedo.
Een organisatie kan AI-technologie implementeren vanuit de juiste ingesteldheid, maar dat betekent niet dat de uitkomst per definitie goed is.
Alejandro Saucedo, Director of ML Engineering bij Seldon
Hij wijst erop dat het wel aan de organisatie kan liggen dat het algoritme bevooroordeeld is: “Een algoritme dat in een bedrijf wordt binnengebracht, zal vertrekken vanuit data dat zich baseert op het gedrag dat zich al stelde. Het kan dus gebeuren dat AI wordt binnengebracht in een proces waar mensen al met een bepaalde bias handelden.”
Verbonden velden
Zonder duidelijke definitie wordt het erg moeilijk om biases uit een technologie te programmeren. AI implementeren in een proces dat al biased was, kan een bedrijf wel de juiste data in handen geven om het probleem aan te duiden. Als de oplossing er alleen niet is, dan blijven de inzichten onbruikbaar.
Dat terwijl AI-technologie en data steeds verder met elkaar verbinden. De mogelijkheden om AI-technologie in te zetten, gaan veel verder dan een aanwervingsproces. “Verzekeringen maken ook gebruik van AI en op veel plaatsen bepalen verzekeraars of je toegang krijgt tot algemene diensten zoals gezondheidszorg”, weet Mullins.
Verzekeringen maken ook gebruik van AI en op veel plaatsen bepalen verzekeraars of je toegang krijgt tot algemene diensten zoals gezondheidszorg
Brian Mullins, CEO van Mind Foundry
Mind Foundry blijkt namelijk zelf verzekeraars in zijn klantenportfolio te hebben. Geen slechte zaak want het bedrijf is onderdeel van Oxford University en combineert onderzoek met inzichten uit het veld om een toekomst te creëren waar AI en mensen samenwerken.
Mullins trekt het probleem nog wat verder door: “Er bestaat ook al zoiets al predictive policing, waarbij politiemensen op zoek gaan naar een bepaald crimineel feit op basis van eerdere patronen. Politiebureaus die zich daarmee inlaten, bepalen zo op welke plaatsen zij de beschikbare middelen inzetten.”
Regels op tafel
De Europese Commissie stelde in het voorjaar van 2021 wel voor om AI beter te reguleren, maar de plannen liggen nog steeds op tafel. Het voorstel komt er vanuit de overtuiging dat de technologie misbruikt kan worden in systemen die een grote impact hebben op het dagelijks leven van burgers.
lees ook
EU wil strenge regels voor AI: geen massa-surveillance, focus op transparantie
De EU neemt met het voorstel een pioniersrol op zich, aangezien er wereldwijd nog geen regulering van AI op dergelijke schaal bestaat. Zowel Mullins als Saucedo zijn erg tevreden met dat initiatief, zij zien het als een noodzakelijkheid om al het goede uit AI te krijgen. Ondertussen implementeren en ontwikkelen bedrijven of overheden AI dus naar eigen wens.
AI-technologie zonder bias blijkt voorlopig eerder droom dan werkelijkheid. Aangezien de technologie in beslissingsprocessen populair is, kan het enorme negatieve gevolgen hebben voor burgers.