AI moet afrekenen met gendervooroordelen – of het zal nooit zijn potentieel bereiken

Het afgelopen jaar is kunstmatige intelligentie (AI) wereldwijd een gesmaakt gespreksonderwerp aan de eettafel geworden, niet in het minst door ChatGPT, die gebruikers verbluft met zijn vermogen om levensechte teksten en zelfs computercodes samen te stellen. Maar wat gebeurt er als AI verkeerde beslissingen neemt?

Dat is een serieus probleem. Vooroordelen – en met name gendervooroordelen – komen vaak voor in AI-systemen en leiden tot allerlei kwaad, van discriminatie en verminderde transparantie tot veiligheids- en privacyproblemen. In de ergste gevallen kunnen verkeerde AI-beslissingen carrières beschadigen en zelfs levens kosten. Als we het probleem van bevooroordeelde AI niet aanpakken, riskeren we een onevenwichtige toekomst – één waarin AI nooit zijn volledige potentieel als instrument voor het grotere goed zal bereiken.

AI is slechts zo goed als de gegevens waarop het is getraind. Veel gegevens zijn vandaag getild richting mannen, net als het taalgebruik in zowat alles, van online nieuwsartikels tot boeken. Uit onderzoek blijkt dat het trainen van AI op Google News-gegevens ertoe leidt dat mannen worden geassocieerd met rollen als ‘kapitein’ en ‘financier’, terwijl vrouwen worden geassocieerd met ‘receptioniste’ en ‘huisvrouw’.

Als gevolg daarvan hebben veel AI-systemen, getraind op dergelijke bevooroordeelde gegevens en vaak gemaakt door grotendeels mannelijke teams, aanzienlijke problemen gehad met vrouwen, van creditcardmaatschappijen die mannen meer en makkelijker krediet te lijken verlenen, tot in instrumenten die screenen op alles van COVID tot leverziekte. Dit zijn gebieden waar verkeerde beslissingen de financiële of fysieke gezondheid van mensen kunnen schaden.

Dit wordt nog verergerd door het feit dat slechts 22% van de professionals in AI en data science vrouwen zijn, volgens onderzoek van het World Economic Forum. Geslacht zelf wordt ook een steeds complexer onderwerp door non-binaire en transgender-uitingen, wat leidt tot meer potentieel voor vooroordelen in alle mogelijke vormen.

Slechts 22% van de professionals in AI en data science zijn vrouwen.

Ada Lopez, Senior Manager, Global Product Diversity Office bij Lenovo

AI is een krachtig instrument dat ons de kans biedt om voorheen onoplosbaar geachte problemen op te lossen, van kanker tot klimaatverandering, maar als de kwestie van vooroordelen niet wordt aangepakt, dreigt AI onbetrouwbaar en uiteindelijk irrelevant te worden. Als AI-professionals het probleem van de vooringenomenheid niet kunnen aanpakken, zullen deze instrumenten niet bruikbaar zijn en riskeert de kunstmatige-intelligentie-industrie een nieuwe “AI-winter”, zoals in de jaren zeventig, toen de belangstelling voor de technologie opdroogde.

Omgaan met data

In de toekomst zullen bedrijven steeds meer vertrouwen op AI-technologie om hun gegevens in waarde om te zetten. Volgens het Data for Humanity-rapport van Lenovo zegt 88% van de bedrijfsleiders dat AI-technologie de komende vijf jaar een belangrijke factor zal zijn om hun organisatie te helpen de waarde van hun gegevens te ontsluiten.

Dus hoe zullen bedrijfsleiders omgaan met het probleem van vooroordelen? Voor het eerst in de geschiedenis beschikken we over deze krachtige technologie, die evenwel volledig is ontstaan uit ons eigen begrip van de wereld. AI is dus een spiegel die we onszelf voorhouden. We moeten niet schrikken van wat we in die spiegel zien. In plaats daarvan moeten we deze kennis gebruiken om onze werkwijze te veranderen. Dat begint met ervoor te zorgen dat de manier waarop onze organisaties werken correct is wat gendervertegenwoordiging en inclusie betreft. Maar ook door aandacht te besteden aan de manier waarop gegevens worden verzameld en gebruikt.

Telkens wanneer je gegevens gaat verzamelen, verwerken of gebruiken, loop je het risico om vooroordelen te injecteren. En die kunnen overal insluipen: als er bijvoorbeeld meer gegevens zijn voor één bepaald geslacht, of als de vragen zijn geschreven door mannen bijvoorbeeld. Voor bedrijfsleiders wordt het daarom steeds belangrijker om na te denken over waar gegevens vandaan komen, hoe ze worden gebruikt en hoe vooroordelen kunnen worden vermeden.

Technische oplossingen zullen ook een belangrijke rol spelen. Datawetenschappers hebben niet de luxe om elke regel tekst die in een trainingsmodel wordt gebruikt door te nemen.

AI is een spiegel die we onszelf voorhouden. We moeten niet schrikken van wat we in die spiegel zien.

Ada Lopez, Senior Manager, Global Product Diversity Office bij Lenovo

Daar bestaan twee oplossingen voor: de eerste is veel meer mensen inzetten om het model te testen en problemen op te sporen. Maar de betere oplossing is om efficiëntere hulpmiddelen te hebben om bias te vinden, hetzij in de gegevens waarmee de AI wordt gevoed, hetzij in het model zelf. Bij ChatGPT bijvoorbeeld gebruiken de onderzoekers een mentaal leermodel om potentieel problematische gegevens te annoteren. De AI-gemeenschap moet zich hierop richten. Ook hulpmiddelen om de werking van AI transparanter te maken, zijn belangrijk.

De vooroordelen begrijpen

Het helpt ook als we de bredere context bekijken. De instrumenten die we vandaag gebruiken, zorgen nu al voor vertekening in de modellen die we in de toekomst zullen toepassen. We kunnen denken dat we nu een biasprobleem hebben “opgelost”, maar over 50 jaar bijvoorbeeld kunnen nieuwe instrumenten of bewijzen onze kijk op bepaalde zaken volledig veranderen. Dit was het geval met de geschiedenis van de diagnose van het Rett-syndroom, waarbij vooral gegevens van meisjes werden verzameld. Het gebrek aan gegevens over jongens met de aandoening introduceerde enkele jaren later bias in de gegevensmodellering en leidde tot onnauwkeurige diagnoses en behandelingsaanbevelingen voor jongens.

Het zou ook kunnen zijn dat de mens over 100 jaar slechts drie dagen per week zal werken. Dat zou betekenen dat gegevens van vandaag scheefgetrokken zijn naar een vijfdaagse manier van kijken. Gegevenswetenschappers en bedrijfsleiders moeten dus rekening houden met de context. Inzicht in de sociale context is even belangrijk voor bedrijven die vandaag in meerdere gebieden actief zijn.

Het beheersen van dit soort kwesties zal een van de hoekstenen van verantwoorde AI zijn. Voor bedrijfsleiders die AI-technologie gebruiken, zal het belang van deze kwesties toenemen, samen met de belangstelling van het publiek en de regelgeving.  Volgens Gartner zal 60% van de AI-leveranciers volgend jaar naast de technologie zelf ook een manier aanbieden om mogelijke schade door de technologie aan te pakken.

Bedrijfsleiders moeten grondig plannen voor verantwoorde AI en hun eigen definitie opstellen van wat dit betekent voor hun organisatie. Dat kan alleen door de risico’s te identificeren en te beoordelen waar vooroordelen kunnen binnensluipen. Ze moeten in gesprek gaan met belanghebbenden om potentiële problemen te begrijpen en te onderscheiden hoe ze verder kunnen gaan met best practices. Een verantwoord gebruik van AI zal een lange weg zijn die constante aandacht van het leiderschap vereist.

Het zou kunnen dat de mens over 100 jaar slechts drie dagen per week zal werken.

Ada Lopez, Senior Manager, Global Product Diversity Office bij Lenovo

De voordelen van een verantwoord gebruik van AI en het uitbannen van vooroordelen waar die kunnen optreden, zijn aanzienlijk. Zo kunnen bedrijfsleiders hun reputatie op het gebied van vertrouwen, eerlijkheid en verantwoordingsplicht verbeteren en tegelijkertijd echte waarde leveren aan hun organisatie, klanten en aan de samenleving als geheel.

Bedrijven moeten dit op directieniveau aanpakken om ervoor te zorgen dat vooroordelen worden aangepakt en AI in de hele organisatie op verantwoorde wijze wordt gebruikt. Dit zou kunnen inhouden dat ze een eigen Responsible AI board oprichten om ervoor te zorgen dat alle AI-toepassingen worden geëvalueerd op vooroordelen en andere mogelijke problemen. Leiders moeten ook het bredere probleem van vrouwen in STEM ( Science, Technology, Engineering en Mathematics) aanpakken, met name in data science. Vrouwen – met name in leidinggevende functies – zullen een centrale rol spelen bij het oplossen van het probleem van gendervooroordelen in AI.

Een AI-gedreven toekomst

Voor vooruitstrevende organisaties die AI willen gebruiken om de waarde van hun data te ontsluiten, is het van vitaal belang het probleem van gendervooroordelen te begrijpen en te werken aan effectieve manieren om dit probleem aan te pakken.

Zorgvuldig nadenken over de manier waarop AI in een organisatie wordt gebruikt, met behulp van tools om vooroordelen op te sporen en transparantie te garanderen, zal zeker helpen. Maar bedrijfsleiders moeten ook een bredere kijk hebben op waar hun gegevens vandaan komen, hoe ze worden gebruikt en welke stappen worden genomen om vooroordelen te voorkomen. Dit is essentieel om de waarde van hun data te ontsluiten en een inclusieve toekomst te creëren waarin AI optimaal kan functioneren.


Dit is een ingezonden bijdrage van Ada Lopez, Senior Manager, Global Product Diversity Office bij Lenovo. Voor meer informatie over hun producten, kan je hier terecht.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home