Organisaties zetten weinig in op AI-ethiek

artificiele intelligentie

Bedrijven en overheden worden steeds bewuster bij het gebruik van kunstmatige intelligentie. Qua verbeteringen op het gebied van ethiek in artificiële intelligentie lopen veel organisaties echter nog achter. Dat blijkt uit een rapport van het Capgemini Research Institute. Volgens het rapport is een focus op de ethische aspecten cruciaal om het transformatiepotentieel van AI voor het milieu, de economie en de maatschappij te realiseren. 

Uit het onderzoek van het Capgemini Research Institute blijkt dat slechts 53% van de onderzochte organisaties een manager heeft die verantwoordelijk is voor ethische en betrouwbare AI-systemen. Daarbij is 62% van de consumenten van mening dat bedrijven volledig transparant zijn over hoe persoonlijke informatie wordt gebruikt. Vorig jaar lag dit percentage nog op 76%. 

Voor het onderzoek heeft het Capgemini Research Institute in totaal 2900 consumenten in zes landen en bijna 900 leidinggevenden in tien landen ondervraagd. De resultaten werden ook vergeleken met meerdere studies van vorig jaar om de vooruitgang te zien. 

Hoe kunnen organisaties ethisch omgaan met artificiële intelligentie?

Om ethisch te werk te gaan, moeten bedrijven volgens de studie een verantwoordelijke manager, zoals een Chief Ethics Officer, in het leven roepen om te zorgen voor ethisch verantwoorde AI-systemen. Deze functie bestaat momenteel in slechts 53% van de organisaties. Verder is het belangrijk dat bedrijfs- en technologie-executives ervoor kunnen zorgen dat de AI-toepassingen die ze gebruiken ethische resultaten opleveren. 

De studie benadrukt zeven maatregelen die cruciaal zijn om een ethisch robuust AI-systeem te bouwen. Organisaties zouden het volgende moeten doen:

  • Het beoogde doel van het AI-systeem nauwkeuring kunnen beschrijven en het potentiële totale effect kunnen bepalen.
  • Actief AI gebruiken ten behoeve van de samenleving en het milieu. 
  • De beginselen van diversiteit inclusie verankeren in de hele levenscyclus van AI-systemen.
  • De transparantie optimaliseren met behulp van geschikte technische hulpmiddelen. 
  • Ervoor zorgen dat AI-ervaringen mensgericht zijn en dat AI-systemen onder menselijk toezicht staan. 
  • Ervoor zorgen dat AI-systemen technisch robuust zijn. 
  • Privacy beschermen door gebruikers controle te geven over hun AI-interacties. 

Het negatieve effect van COVID-19 op transparantie van AI-processen

De studie onderzocht AI-systemen op basis van vier ethische dimensies: verklaarbaarheid, eerlijkheid, controleerbaarheid en transparantie. In 2020 is alleen de verklaarbaarheid echt verbeterd. Uit het onderzoek blijkt dat 64% van de organisaties (twee keer zoveel als in 2019) hun AI-systemen in eenvoudige taal kan verklaren. 

Van de onderzochte organisaties geeft 65% aan zijn datasets en AI-systemen te herzien om een eerlijke en gelijke behandeling van alle groepen te garanderen. Vorig jaar was dat nog 66%. Het aantal bedrijven dat transparante informatie deelt met AI-gebruikers over de mogelijke effecten van AI-beslissingen is het sterkst gedaald: van 73% vorig jaar naar 59% dit jaar. 

Volgens het rapport passen deze cijfers bij de huidige omstandigheden die door COVID-19 zijn ontstaan. Samen met veranderende maatschappelijke en ecologische behoeften, toenemende complexiteit van AI-modellen en een verandering in het consumentengedrag, hebben de veranderende omstandigheden de functionaliteiten van bestaande AI-modellen verstoord.  Door nieuwe factoren moeten organisaties hun systemen herontwerpen om ze aan te passen aan de nieuwe norm. Deze verandering heeft gezorgd voor minder transparantie.

nieuwsbrief

Abonneer je gratis op ITdaily !
  • This field is for validation purposes and should be left unchanged.
terug naar home