De EU publiceert richtlijnen rondom ethische toepassingen van AI

Europa

De Europese Unie (EU) heeft richtlijnen gepubliceerd over hoe bedrijven en overheden ethische toepassingen van artificiële intelligentie (AI) moeten ontwikkelen. AI-systemen moeten volgens de EU verantwoordelijk, verklaarbaar en onbevooroordeeld zijn.

De richtlijnen beschrijven duistere, niet zichtbare problemen, die de maatschappij volgens de EU treffen op het moment dat AI wordt geïntegreerd. De nadruk ligt hier met name op mogelijke gevaren voor de gezondheidszorg, onderwijs en consumententechnologie. Puur gericht op administratief- en bureaucratisch niveau, niet op praktijkgevallen.

Als een AI-systeem bijvoorbeeld een diagnose voor kanker stelt, moet dat op een verantwoordelijke, verklaarbare en onbevooroordeelde manier gebeuren. Zo mag software volgens de richtlijnen niet bevooroordeeld zijn door ras of geslacht. Bovendien mag de diagnose bezwaren van een menselijke arts niet overrulen en moet de diagnose aan de patiënt uitgelegd kunnen worden.

Eisen toekomstige AI-systemen

Om hieraan te kunnen voldoen, heeft een groep van 52 experts een eisenlijst opgesteld, waaraan toekomstige AI-systemen moeten voldoen:

  • Menselijk gedrag en overzicht
  • Technische robuustheid en veiligheid
  • Privacy en gegevensbeheer
  • Transparantie
  • Diversiteit, non-discriminatie en eerlijkheid
  • Milieu en maatschappelijk welzijn
  • Verantwoording

De richtlijnen zijn juridisch niet bindend, maar ze kunnen volgens The Verge wel mede vormgeven aan een eventuele toekomstige, Europese wetgeving. Het is geen geheim dat de EU leider wil zijn in ethische AI. Iets dat ook al blijkt door de invoering van de GDPR, waar verreikende wetten onder meer digitale rechten beschermen.

AI-beoordelingslijst

Het rapport bevat ondermeer een ‘betrouwbare AI-beoordelingslijst’, die deskundigen zouden helpen in het achterhalen van zwakke plekken of gevaren in AI-software. De lijst bevat vragen als ‘heeft u gecontroleerd hoe uw systeem zich gedraagt in onverwachte situaties en omgevingen?’ en ‘heeft u het type en het bereik van gegevens in uw gegevensset beoordeeld?’.

Fanny Hidvégi, een van de experts die betrokken was bij het schrijven van de richtlijnen, ziet de beoordelingslijst als belangrijkste onderdeel van het rapport. Volgens de beleidsmanager bij de digitale rechtengroep Access Now biedt het een praktisch, vooruitkijkend perspectief over hoe potentiële schade van AI kan worden verminderd. “De EU heeft het potentieel en de verantwoordelijkheid om in de voorhoede van dit werk te staan. We vinden niet dat de EU het moet laten bij alleen ethische richtlijnen, dit is slechts onderdeel van een wettelijke naleving.”  

Sceptici

Toch zijn er zeker ook sceptici te vinden. Zeker gezien de EU bij lange na niet in de buurt komt van de VS en China. Zij zijn op dit moment de wereldleiders op het gebied van AI-onderzoek en -ontwikkeling. “We zijn sceptisch over de aanpak die wordt gevolgd. Het idee alleen al, dat de EU door het creëren van een ‘gouden standaard’ voor ethische AI, een plaats inneemt in de wereldwijde ontwikkeling van AI. Om leider te zijn in ethische AI, moet je zelf eerst leider zijn in AI”, aldus Eline Chivot, senior beleidsanalist bij de denktank Centre for Data Innovation in een reactie aan The Verge.

De EU verzamelt het komende jaar feedback van bedrijven. Ergens in 2020 wordt er een eindverslag opgemaakt over het nut van de richtlijnen.

 

Lees ook: België stemt wet voor cyberbeveiliging jaar na Europese deadline

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home