World Economic Forum bezorgd over vooringenomen AI

AI

Het hoofd van AI en machine learning bij het World Economic Forum heeft zich uitgelaten over de moeilijkheden rond AI. De vooringenomen algoritmen zouden zorgen voor problemen. Dit zou onder meer komen door de mensen die de algoritmen bouwen.

Dat algoritmen het niet altijd bij het juiste eind hebben, bewees Googles software in 2015. Hun beeldherkenning labelde een zwarte man en zijn vriend als ‘gorilla’s’. Volgens een rapport dat eerder dit jaar door Wired werd gepubliceerd, heeft Google dit probleem nog niet goed opgelost. In plaats daarvan hebben ze simpelweg de zoektermen voor primaten geblokkeerd.

Volgens Kay Firth-Butterfield, hoofd van AI en machine learning bij het World Economic Forum, is de dominantie van blanke mannen met een bepaalde leeftijd in de technologiesector, een van de oorzaken voor vooroordelen in de algoritmen, zo schrijft CNBC.


Lees dit: Vivienne Ming: ‘Artificiële intelligentie moet de mens verbeteren, niet vervangen’


Een experiment dat eerder dit jaar op het Massachusetts Institute of Technology (MIT) werd uitgevoerd, omvatte bijvoorbeeld het testen van drie commercieel beschikbare gezichtsherkenningssystemen. Deze waren ontwikkeld door Microsoft, IBM en het Chinese bedrijf Megvii. Uit de resultaten bleek dat de systemen 99 procent van de tijd het geslacht van blanke mannen correct identificeerden, maar dit succespercentage kelderde tot 35 procent als het om zwarte vrouwen ging.

Ethisch debat

“Naarmate we meer en meer van deze dingen zien opduiken, is het ethische debat rond artificiële intelligentie veel groter geworden,” zegt Firth-Butterfield. Ze merkt ook op dat toen de algemene verordening gegevensbescherming (GDPR) in Europa werd uitgerold, er meer aandacht kwam voor de ethische vragen over data en technologie.

Menselijke diversiteit is misschien niet het enige probleem als het aankomt op AI-vooroordelen. Een recent onderzoek door de Universiteit van Cardiff en het MIT heeft aangetoond dat groepen autonome machines vooroordelen kunnen ontwikkelen door eenvoudigweg dit gedrag bij elkaar te zien en vervolgens over te nemen.

Ook de industrie zelf lijkt Firth-Butterfield te volgen in haar bezorgdheid. Vorige week nog kondigde IBM een toolkit aan om vooringenomenheid in artificiële intelligentie te kunnen detecteren.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home