Waarom we dringend een ‘GDPR’ voor Artificiële Intelligentie nodig hebben

Is er nog iets in onze digitale samenleving waar geen IT bij komt kijken? Direct of indirect is elke organisatie vandaag een IT-bedrijf. Zelfs een moderne auto is eigenlijk een computer op vier wielen. Overal rekenen merken op enorme databases met gegevens over klanten. En steeds vaker zien we dat op basis hiervan slimme oplossingen met AI worden ontwikkeld. Maar zonder een ethisch kader voor dit soort technologie zal de impact op onze maatschappij en ons leven uit de hand lopen.

In de supermarkt vertrouwen we erop dat de voedingswaren in de winkelrekken veilig zijn en aan bepaalde gezondheidsnormen voldoen. Datzelfde gevoel van vertrouwen moet ook de sturende kracht zijn in onze keuze voor software en IT-services. Vanuit het perspectief van cybersecurity en privacy gaan we er eigenlijk al van uit dat onze persoonlijke data op een correcte manier wordt behandeld. Zonder toestemming mogen bedrijven data bijvoorbeeld niet met derde partijen delen. En we verwachten bovendien dat er voldoende security aanwezig is zodat gegevens niet zomaar op straat belanden.

Op dit moment bestaan er wereldwijd al verschillende wetgevende kaders die waken over de privacy van de data die we delen. De GDPR in Europa is ongetwijfeld een van de meest uitgebreide richtlijnen op dit gebied. Maar hoewel cybersecurity en privacy allebei belangrijke concepten zijn om vertrouwen te creëren, zullen ze in de nabije toekomst niet meer volstaan. Hoe meer data gebruikt wordt voor de ontwikkeling van software en toepassingen met AI, des te meer er ook nood is aan transparantie. Hoe is een algoritme tot een bepaalde voorspelling of beslissing gekomen? Zolang we dat niet weten, lopen we het risico dat er vooroordelen in sluipen en bepaalde individuen in de samenleving worden gediscrimineerd.

Een racistisch algoritme

Hoewel AI bijzonder veel potentieel biedt om ons leven te vereenvoudigen, mogen we niet blind zijn voor het feit dat er ook valkuilen aan verbonden zijn. Een voorbeeld hiervan is COMPAS, AI-gebaseerde software die kan voorspellen welke criminelen bij terugkeer in de maatschappij het hoogste risico op recidive lopen. Amerikaanse rechters gebruiken de inzichten om hun beslissingen over straffen en borg te staven. Meestal is de technologie heel nauwkeurig, maar foutieve resultaten zijn onvermijdelijk. En als het fout gaat, dan blijkt dat het algoritme vaak een onderscheid maakt op basis van afkomst. Zwarte veroordeelden lopen volgens de AI-tool tot 50% meer risico om te hervallen dan blanke criminelen.

Wat het algoritme in het voorbeeld hierboven doet, is een kopie van wat er in de samenleving gebeurt. Helaas zijn racistische vooroordelen al eeuwenlang een vast ingrediënt van onze maatschappij. De impact van door software gegeneerde bias kan echter nog veel groter zijn. Vooral als je die software automatiseert. Van mensen die er niet in slagen om een woonlening af te sluiten tot het weigeren van verzekeringen voor personen die een hoog risico lopen om ziek te worden … Om dit op te lossen, is het belangrijk dat een algoritme voldoende transparant is zodat bias door de gebruiker kan worden gespot.

Transparantie en vertrouwen via ethisch kader

De transparantie die ontbrak in het voorbeeld van de COMPAS-software, is in veel andere toepassingen gelukkig wel aanwezig. Grote technologiebedrijven werken zelfs ethische kaders uit die als basis dienen voor de oplossingen die ze bouwen. Intussen zijn ook overheden en de Europese Unie volop bezig met het creëren van een ethische voedingsbodem voor AI. Om hierop toe te zien, stellen organisaties steeds vaker een ethisch comité aan, medewerkers die waken over de impact van technologie. Zo’n comité bestaat idealiter uit mensen met een minimale achtergrond in ethische principes en die daarnaast ook voldoende technologische bagage hebben om risico’s te identificeren, evalueren en oplossen.

Artificiële Intelligentie zal almaar betere voorspellingen kunnen doen, maar de gevolgen ervan blijven heel onvoorspelbaar. Toch mag de verantwoordelijkheid niet alleen bij de bedrijfswereld liggen. Ook als gebruikers moeten we ons meer bewust zijn van de impact die een algoritme kan hebben. Onze hele samenleving moet begrijpen welke rol AI in ons leven speelt.

Wanneer gebruikers inzicht hebben in wat veilig en ethisch is, kunnen ze daar ook in hun keuzes voor technologie rekening mee houden. Net zoals we in de supermarkt de producten kiezen die het best zijn voor onze gezondheid, zal een dergelijke attitude ervoor zorgen dat technologieproducenten transparant zijn en nog meer rekening houden met de wensen en vereisten van hun klanten.

De oplossing voor het probleem is dus driezijdig. Overheden moeten net zoals met de GDPR een ethisch kader voor AI en security ontwikkelen; bedrijven moeten ethische comités aanstellen die erop toezien dat alle producten in overeenstemming zijn met de bestaande richtlijnen en een positieve impact op de samenleving hebben; en wij als gebruikers moeten een beter begrip van AI krijgen, zodat we betere keuzes kunnen maken. Doen we dit goed, dan zal iedereen straks van het potentieel van AI profiteren.


Dit is een ingezonden bijdrage van Pablo Ballarin Usieto. Hij is één van de sprekers van Cybersec Europe 2023. Op 19 en 20 april zal hij tijdens een keynote in Brussel dieper ingaan op het ethisch impact van nieuwe technologie op ons leven.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.