AI en genderbias: Waarom we meer moeten luisteren naar vrouwen

Internationale Vrouwendag biedt een kans om te reflecteren op een prangende kwestie in de technologie: genderbias in kunstmatige intelligentie (AI)-systemen. Toegegeven de techindustrie is zich bewust (geworden) van dit probleem en nam maatregelen. Toch is er nog veel werk aan de winkel. AI-systemen raken steeds meer geïntegreerd in ons dagelijks leven, van gezondheidszorg tot kredietverlening, toch is het nog steeds dringend nodig bias uit te bannen. Organisaties moeten luisteren naar de input van vrouwen en zo platformen creëren waarin de perspectieven van vrouwen gehoord kunnen worden.

Generatieve AI, zoals ChatGPT, vergrootte de interesse in AI-technologie. Helaas bevatten veel van deze systemen nog ingebouwde vooroordelen die decennia van vooruitgang in de beeldvorming van vrouwen tenietdoen. Een recent onderzoek van de Universiteit van Washington toonde aan dat AI-kunstgenerator Stable Diffusion vaak afbeeldingen van lichtgekleurde mannen genereert wanneer je het om een ‘persoon’ vraagt. Als vergelijkbare tools zich meer verweven met ons leven, lopen we het risico op een toekomst die witter en mannelijker is. Om dit te voorkomen moeten organisaties vrouwen een leidende rol geven bij het aanpakken van genderbias. Denk dan aan het testen, toezicht houden en signaleren van problemen met AI-systemen.

Leiders moeten niet wachten op regelgeving van de overheid, maar zelf in actie komen. Ze moeten luisteren naar de vrouwen die in hun organisatie werken om een toekomst te creëren waarin AI-gendergelijkheid bevordert, en niet belemmert. Lenovo’s Women in AI-groep, is een groep waar vrouwen vrijuit kunnen praten over deze zaken. Dat zouden meer organisaties moeten doen. Dit is hét moment voor vrouwen om hun stem te laten horen.

Het ontwikkelen van onbevooroordeelde AI

Om echt onbevooroordeelde systemen te ontwerpen, moet genderbias vanaf het begin worden meegenomen en vrouwen moeten op alle niveaus betrokken zijn. Het creëren van genderdiverse teams is van cruciaal belang en organisaties moeten ervoor zorgen dat ze AI net zo grondig onderzoeken op diversiteit als op privacy- en beveiligingskwesties. Bij hoogrisicotechnologieën zoals AI is het de moeite waard om gebruikerstests uit te breiden voor meer diversiteit, zodat de mensen die het product testen ook daadwerkelijk verschillen van degenen die het ontwerpen. Teams kunnen ook profiteren van inzichten uit het ontwikkelen van technologieën voor bijvoorbeeld mensen met een handicap.  Dat kan helpen bij het begrijpen en aanpakken van diverse vormen van discriminatie.

Organisaties kunnen niet op hun lauweren rusten. Historisch gezien zijn problemen met genderbias in AI vaak al zeer zichtbaar geweest. Denk aan vrouwen die lagere kredietlimieten krijgen aangeboden op basis van een algoritme. Maar er kunnen ook nieuwere, minder voor de hand liggende vormen van discriminatie zijn door de groei van AI naar gebieden zoals onderwijs.  Dit kan resulteren in bijvoorbeeld een gebrek aan bevordering van STEM-onderwijs voor vrouwen.

Zorg ervoor dat medewerkers worden gehoord

Elke organisatie staat nog aan het begin van zijn AI-reis en zet de eerste stappen om te begrijpen hoe ‘goede’ AI eruit moet zien. Het uitgangspunt moet communicatie en bewustwording zijn. Organisaties moeten ervoor zorgen dat werknemers – en vrouwen in het bijzonder – zich op hun gemak voelen om zich uit te spreken.

Organisaties moeten ervoor zorgen dat werknemers – en vrouwen in het bijzonder – zich op hun gemak voelen om zich uit te spreken.

Ada Lopez, Senior Manager, Product Diversity Office Lenovo

Het is daarom belangrijk om een ​​‘centraal punt’ te creëren waar problemen kunnen worden gemeld. Daarnaast is een ​​cultuur waarin vrouwen het gevoel hebben dat ze gehoord worden cruciaal. Natuurlijk is het ook belangrijk om de problemen aan te pakken. Zo werden er onlangs bij Lenovo zorgen geuit over een vrouwelijke avatar. Dit leidde tot een belangrijke, bredere discussie over hoe vrouwen via AI vertegenwoordigd zouden moeten worden. Net als bij het testen van producten geldt ook hier: hoe breder en diverser de discussie over mogelijke gendervooroordelen, hoe beter.

Samenwerken

Samenwerking binnen zowel de tech-industrie als met externe organisaties is de sleutel tot het aanpakken van dit probleem op de lange termijn. Bedrijven moeten best practices delen en samenwerken met onderwijsorganisaties om trainingen aan te bieden over hoe om te gaan met vooroordelen op het gebied van AI.
 
Organisaties moeten een langetermijnvisie hanteren en samenwerken met technische scholen. Zo vergroten ze het bewustzijn omtrent gendervooroordelen bij diegenen die in de toekomst AI-systemen ontwikkelen. Natuurlijk blijft het ook van belang om meisjes en jonge vrouwen te enthousiasmeren voor de STEM-sector, om zo meer vrouwen op de werkvloer te krijgen en in de teams die AI-systemen ontwerpen. Volgens Gartner zijn vrouwen met slechts 26% vertegenwoordigd in de IT en dat moet snel veranderen om onbevooroordeelde AI-systemen te kunnen leveren.

Een onbevooroordeelde toekomst

AI-bias is geen eenvoudig probleem en het is ook niet een probleem dat snel kan worden opgelost. Het is daarom belangrijk om te streven naar vooruitgang in plaats van naar perfectie. Dit is namelijk geen kwestie die door een commissie kan worden opgelost. Iedereen binnen de organisatie moet betrokken zijn en de vooroordelen over AI moeten bij de start van elk AI-project worden besproken. Van cruciaal belang is ook dat organisaties ervoor zorgen dat vrouwen op alle niveaus een stem hebben en gehoord worden. Alleen wanneer het vanuit alle perspectieven zal worden bekeken kan dit probleem op de lange termijn worden aangepakt. Door nu concrete vooruitgang te boeken, kunnen bedrijven de weg vrijmaken voor een rechtvaardigere en diversere AI gedreven toekomst.


Dit is een ingezonden bijdrage van Ada Lopez, Senior Manager, Product Diversity Office bij Lenovo

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.