De Europese Raad is het eens geraakt over een basistekst voor een nieuwe AI-wet. Die bevat onder andere een striktere definitie van kunstmatige intelligentie. Nu starten onderhandelingen met het parlement.
De lidstaten van de Europese Unie hebben groen licht gegeven voor een compromistekst als uitgangspunt voor nieuwe AI-regelgeving. Daarmee is een belangrijke horde genomen voor de wetgeving, die rond de lente van 2023 klaar kan zijn. Eerder lekte al een wetsvoorstel van de commissie.
De tekst van de Europese Raad is een startpunt, waarover nu het Europees Parlement zijn zegje moet doen. De versie bevat al compromissen die belangrijk zijn voor ieder van de EU-lidstaten.
Nieuwe definitie
Zo is de definitie van AI bijgesteld. In een eerste opzet was die te breed, waardoor de kans bestond dat teveel traditionele software onder de regels zou vallen. De nieuwe definitie focust op systemen ontwikkeld door machine learning. De commissie kan de definitie op een later tijdstip aanpassen indien nodig.
Verder kwamen de lidstaten overeen om ook zogenaamde algemene AI op te nemen in de regelgeving. Aanvankelijk lag de focus teveel op slimme systemen moet een specifieke functie (zoals gezichtsherkenning). Algemene AI is breder en kan verschillende taken uitvoeren. Denk aan systemen zoals Google Home of Amazon Alexa, die taal verstaan en daaraan verschillende acties kunnen koppelen.
Algemenere systemen zijn een ontluikende markt. De lidstaten wilden voorkomen dat de AI-wetgeving al meteen ontoereikend zou zijn door ze er niet in op te nemen.
Geen sociaal krediet
Verschillende uitgangspunten blijven ongewijzigd van het initiële voorstel van de commissie. Zo is iedereen het er over eens dat AI nooit ingezet mag worden om kwetsbaarheden van mensen uit te buiten of sociale krediet-systemen te bouwen zoals in China. Aanvankelijk was het de bedoeling om overheden te verbieden dergelijke algoritmes te bouwen, maar in het nieuwe voorstel geldt het verbod ook voor private entiteiten. Dat moet voorkomen dat overheden via derde partijen toch aan dergelijke software geraken.
lees ook
‘EU kan rem zetten op vernieuwende opensource-projecten met AI-wet’
De AI-wet zal verder hoog risico-toepassingen definiëren. Die zijn niet verboden maar moeten binnen een strikt wettelijk kader uitgevoerd worden. Het gaat over systemen die cruciaal zijn voor beslissingsprocessen en een impact hebben op mensen of eigendom. Deepfake-detectie en de verificatie van reisdocumenten zijn uit deze categorie gehaald, maar systemen met betrekking op kritieke digitale infrastructuur en ziekteverzekering zijn toegevoegd.
Voor hoog risico-toepassingen gelden strenge eisen over bijvoorbeeld de kwaliteit van de dataset gebruikt voor training en technische documentatie om beslissingen te verklaren. De AI-wet moet verder duidelijk maken wie verantwoordelijkheid draagt voor de beslissing van AI-systemen.
Uitzonderingen
Het valt op dat de lidstaten verschillende uitzonderingen in de wet willen inbakken voor ordediensten. Zo moeten bedrijven die risicovolle AI gebruiken ook na de implementatie de systemen opvolgen, maar zouden veiligheidsdiensten vrijgesteld zijn van die verplichting. De Raad zou verder graag vrijstellingen zien voor militaire toepassingen en AI voor nationale veiligheid. Die beperking zou de wet natuurlijk een stuk minder relevant maken.
De tekst is verre van finaal. Het Europees Parlement zal nu aan de slag gaan met het voorstel. Het is waarschijnlijk dat er vanuit het parlement teruggeduwd zal worden wat de exclusies betreft. Een akkoord is al mogelijk in maart volgend jaar.