In een volledig digitale wereld is ethische en verantwoorde technologie een dwingende noodzaak voor organisaties

COVID-19 blijft de digitale transformatie bij organisaties versnellen. Dankzij automatisering en door AI aangedreven technologieën bouwen bedrijven veerkracht en concurrentievoordeel op. Zo verbeteren ze de klantenervaring door eventuele problemen sneller en efficiënter op te lossen. AI en automatisering vergemakkelijken het werken op afstand en stellen werknemers in staat meer strategische rollen op zich te nemen die de digitale economie vereist.

In een post-coronawereld waarin werknemers/bedrijven van overal succesvol kunnen zijn, betekent de sterke toename van de vraag naar AI-technologieën dat bedrijven zich aan hogere normen moeten houden om de ontwikkeling van verantwoorde technologie te waarborgen. De kosten van het creëren, verkopen en implementeren van technologie zonder een holistisch begrip van de implicaties ervan, zijn veel te groot om te negeren.

Om AI met vertrouwen te bouwen en in te zetten, moeten we ons richten op inclusieve maatregelen en ethische intenties.

Om AI met vertrouwen te bouwen en in te zetten, moeten we ons richten op inclusieve maatregelen en ethische intenties, waarbij we maatregelen nemen om de impact en de beweegredenen van de acties en aanbevelingen transparant uit te leggen. Nu ethische en verantwoorde technologie een organisatorische verplichting wordt, zijn hier drie manieren waarop organisaties vertrouwen kunnen verdienen – door te zorgen voor verantwoording, transparantie en eerlijkheid.

De ethische AI-praktijk opschalen

In de onderneming betekent ethiek in AI het creëren en onderhouden van een cultuur van kritisch denken onder werknemers. Het is niet haalbaar om één enkele groep te vragen de verantwoordelijkheid op zich te nemen voor het identificeren van ethische risico’s tijdens de ontwikkeling. In plaats daarvan vereist het ethisch omgaan met AI projecten een veelheid van diverse perspectieven vanuit verschillende culturen, etniciteiten, geslachtsidentiteiten en expertisegebieden. 

Uiteindelijk moet elke werknemer een gevoel van verantwoordelijkheid hebben tegenover iedereen in het bedrijf en tegenover zijn klantenbestand. Het cultiveren van een “ethics-by-design“ mentaliteit vereist systematische betrokkenheid, waarbij alle medewerkers de rol van productadviseur krijgen en data science teams ethische kwesties in verband met hun projecten identificeren en aanpakken. 


Inzicht in de aard en de mate van vooroordelen

Hoewel AI zeker een positieve impact kan hebben op het bedrijfsleven en de samenleving, moeten we ook beseffen hoe deze technologieën problematisch kunnen worden, met name in verband met het versterken van vooroordelen. Het is één ding om AI in een laboratorium te bouwen, maar het is iets anders om nauwkeurig te voorspellen hoe het in de echte wereld zal presteren.

Tijdens de hele levenscyclus van een product moet de verantwoordingsplicht bovenaan de agenda staan. Teams moeten ook inzicht hebben in de aard en de mate van vooringenomenheid van de datasets die ze gebruiken en de modellen die op die datasets zijn getraind, en natuurlijk ook van hun eigen datasets. Het is essentieel dat ethische AI-teams vragen faciliteren over hoe ze AI-modellen beter uitlegbaar, transparanter of controleerbaar kunnen maken. Het vaststellen van goed gedefinieerde, extern gevalideerde methodes en praktijken voor het ondersteunen van besluitvorming zorgt voor duidelijkheid voor alle betrokkenen.

Tijdens de hele levenscyclus van een product moet de verantwoordingsplicht bovenaan de agenda staan.

Terwijl ontwikkelaars AI-platforms leveren, zijn AI-gebruikers feitelijk eigenaar van en verantwoordelijk voor hun gegevens. En hoewel ontwikkelaars hun klanten kunnen voorzien van training en middelen om vooroordelen te helpen identificeren en schade te beperken, kunnen algoritmes schadelijke stereotypes bestendigen als ze onvoldoende worden bijgeschoold of niet worden gecontroleerd. Daarom is het belangrijk dat organisaties klanten en gebruikers de juiste hulpmiddelen bieden om technologieën veilig en verantwoord te gebruiken, zodat zij weten hoe zij problemen kunnen herkennen en aanpakken. Met de juiste begeleiding en opleiding zullen klanten de gevolgen van hun omgang met gegevens beter begrijpen.

Toepassing van beste praktijken door transparantie

Door feedback te krijgen over de manier waarop teams gegevens verzamelen, kunnen onbedoelde gevolgen van algoritmes worden voorkomen, zowel in het lab als in toekomstige scenario’s in de echte wereld. Door zoveel mogelijk transparantie te bieden over de wijze waarop een AI-model tot stand is gekomen, krijgt de eindgebruiker een beter idee van de voorzorgsmaatregelen die zijn genomen om vooringenomenheid tot een minimum te beperken. Dit kan bijvoorbeeld door modelkaarten te publiceren met een beschrijving van het beoogde gebruik en de gebruikers, de prestatiecijfers en alle andere ethische overwegingen. Dit zal helpen vertrouwen op te bouwen, niet alleen bij potentiële en bestaande klanten, maar ook bij regelgevers en de samenleving in het algemeen.

Om AI te kunnen vertrouwen moet het publiek uiteindelijk begrijpen waarom AI bepaalde aanbevelingen of voorspellingen doet. AI-gebruikers benaderen deze technologieën met verschillende kennis- en expertiseniveaus. Datawetenschappers of statistici zullen bijvoorbeeld alle factoren willen zien die in een model worden gebruikt. Verkopers zonder achtergrond in datawetenschappen of statistiek kunnen echter overweldigd raken door deze mate van detail. Om vertrouwen te wekken en verwarring te voorkomen, moeten teams begrijpen hoe ze deze thema’s en uitleg op de juiste manier kunnen communiceren voor verschillende gebruikers.


Dit is een ingezonden bijdrage van Gianni Cooreman, Country Lead Solutions bij Salesforce Belux. Hier vind je meer informatie over de oplossingen van het bedrijf.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home