EU wil strenge regels voor AI: geen massa-surveillance, focus op transparantie

De Europese Commissie lanceert een eerder gelekt voorstel voor de strenge regulering van AI. Vooral gezichtsherkenning in de publieke ruimte en het concept van sociaal krediet worden aan banden gelegd. De EU neemt met het voorstel een pioniersrol op zich, aangezien er wereldwijd nog geen regulering van AI op dergelijke schaal bestaat.

De EU start met de bespreking van een voorstel voor de regulering van kunstmatige intelligentie. De unie wil op tijd duidelijke regels uitwerken voor de technologie en voorkomen dat ze misbruikt wordt in systemen die een grote impact hebben op het dagelijkse leven van burgers. Het voorstel wordt vandaag gelanceerd door de Europese Commissie maar lekte vorige week al.

Het voorstel is een raamwerk dat als fundering dient voor toekomstige discussie. De Unie heeft grote ambities: nergens ter wereld wordt AI al gereguleerd op de schaal die de Commissie voor ogen heeft. De plannen doen denken aan de GDPR. Ook daar nam de EU een pioniersrol op zich door brede en eengemaakte regels te introduceren in een tot dan fragmentarisch gereguleerd veld. De GDPR had zo een wereldwijde impact. Het opzet van de AI-regulering is om een gelijkaardige impact te hebben op de ontwikkeling van kunstmatige intelligentie.

Het achterliggende idee is om een dystopische toekomst te voorkomen waarbij mensen leven onder de beslissingen van AI-systemen. Het voorstel wil onder andere AI zoals die in China bestaat voor de controle van burgers, expliciet verbieden. Voor de uitwerking van regels wil de Commissie AI onderverdelen in vier categorieën op basis van het risico dat ze vormen: onaanvaardbaar, hoog, beperkt en minimaal.

Onaanvaardbaar risico

Tot de categorie ‘onaanvaardbaar risico’ horen systemen die een bedreiging vormen voor de veiligheid en de rechten van mensen. Het gaat om AI die gebruikers probeert te manipuleren maar ook om slimme systemen waarmee overheden een sociaal krediet kunnen toekennen aan hun burgers. Zo’n sociale kredietscore wordt bijvoorbeeld al in China gebruikt. Daar verliezen burgers rechten als de overheid vindt dat ze sociaal onwenselijk gedrag vertonen. Voor deze categorie is de regel eenvoudig: AI die er onder valt, wordt volledig verboden.

Hoog risico

Onder deze categorie vallen onder andere systemen die biometrische identificatie toelaten. In de regel wordt het gebruik van bijvoorbeeld gezichtsherkenningscamera’s in de publieke ruimte verboden, al zet de EU de deur op een kier voor uitzonderingen. De EU geeft als voorbeeld de zoektocht naar een vermist kind, of de opsporing van een verdachte bij een duidelijke en onmiddellijke terroristische dreiging. Gebruik zou onderhevig zijn aan goedkeuring voor bijvoorbeeld een onderzoeksrechter of een gelijkaardige instantie.

Onder hoog risico plaatst de EU ook AI gericht op volgende domeinen:

  • Kritieke infrastructuur zoals transport, waarbij AI een impact kan hebben op het leven en de gezondheid van burgers. Denk aan systemen voor autonome wagens.
  • Onderwijssystemen en training, met AI die bijvoorbeeld instaat voor scores.
  • Veiligheid in producten zoals robot-geassisteerde chirurgische ingrepen.
  • Werkgelegenheid en beheer van werknemers: AI kan hier bijvoorbeeld de rol krijgen om sollicitaties te beoordelen.
  • AI die essentiële private en publieke diensten aanbiedt, zoals de beoordeling van kredietscores en het al dan niet toekennen van een lening.
  • Politietaken, waarbij AI onder andere de betrouwbaarheid van bewijsmateriaal kan beoordelen.
  • Immigratie, door de authenticiteit van documenten te beoordelen.
  • Administratie bij de overheid.

De Europese Commissie wil voor deze AI-systemen duidelijke procedures om de risico’s te beoordelen en te mitigeren. Ze moeten getraind worden met kwalitatieve datasets die discriminatie tot een minimum beperken. Bovendien eist de Commissie in het voorstel transparantie, zodat het via logs voor een menselijke toezichthouder duidelijk is waarom AI deze of gene beslissing heeft genomen. Ook naar de gebruiker toe met dergelijke AI duidelijk zijn.

Hoog risico-systemen vereisen tot slot voldoende toezicht door mensen om risico’s te beperken. De systemen moeten robuust, veilig en nauwkeurig zijn. Critici roeren zich al, aangezien ze vinden dat de bewoordingen van de categorieën aan de vage kant zijn. Zo zou misbruik in de praktijk wel mogelijk blijven. Aangezien de regelgeving momenteel in een erg vroege fase zit, kan je er van op aan dat er nog heel wat omschrijvingen zullen veranderen.

Beperkt en minimaal risico

AI-systemen met een beperkt risico moeten vooral transparantie aan de dag leggen. De Europese Commissie wil bijvoorbeeld geen al te strenge regels voor het gebruik van chatbots, maar eist wel dat gebruikers transparant geïnformeerd worden wanneer ze met een algoritme praten.

Voor AI met een minimaal risico wil de EU helemaal geen regels opleggen. Hieronder valt het gros van de AI waarmee mensen vandaag in contact komen. Het gaat dan vooral om AI als onderdeel van andere technologieën, zoals beveiligingssoftware of spellen. Een slimme spamfilter of firewall, of AI in een videospel, vallen onder andere onder deze categorie.

Praktische uitwerking

In het voorstel suggereert de commissie dat bestaande nationale regelgevingsinstanties de controle voor hun rekening nemen. Verder wil de EU een Europese AI-raad uit de grond stampen die de verdere uitwerking van de regels kan ondersteunen maar ook nieuwe standaarden en gedragscodes voor AI kan uitwerken. Zo hoopt de EU internationaal een voortrekkersrol te spelen in de ontwikkeling van veilige AI op maat van burgers.

De Europese Commissie heeft het voorstel nu gelanceerd, maar daarmee zijn de regels nog niet van kracht. Het Europese Parlement en de Europese Raad moeten hun zegje nu doen. In de praktijk komt de discussie zo pas op gang. De kans is groot dat het nog enkele jaren duurt alvorens een finale regelgeving wordt aangenomen. In de komende besprekingen zullen AI-bedrijven, privacyvoorvechters en nationale overheden zich ongetwijfeld laten horen.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.