‘EU kan rem zetten op vernieuwende opensource-projecten met AI-wet’

Robot

Experten waarschuwen voor een ongewenst neveneffect van een AI-beleid. Het zou namelijk een uitwerking kunnen hebben op de bestaande opensource-projecten. De zorgen zijn gericht aan EU-beleidsmakers, zij zijn bezig met het opzetten van een AI-wet.

De voorlopig voorgestelde AI-wet zullen projecten van opensource-ontwikkelaars moeten voldoen aan een set van richtlijnen voor risico-beperking, data governance, technische documentatie en transparantie. Normen voor nauwkeurigheid en cyberbeveiliging zijn ook in het wetsvoorstel opgenomen.

lees ook

EU wil strenge regels voor AI: geen massa-surveillance, focus op transparantie

Vinger wijzen

De verantwoordelijkheid in de voorgestelde set van regels ligt bij de ontwikkelaar van het opensource-project. Experten redeneren dat dit gegeven tot problemen zal leiden voor de opensource-gemeenschap. Stel dat een onderneming het opensource-project gebruikt, maar uitkomsten tot stand brengt die onder de AI-wet verboden zijn, dan zal met de vinger gewezen worden naar de opensource-ontwikkelaar.  

Zou de opensource-gemeenschap dergelijke problemen willen voorkomen, dan zit er volgens de waarschuwing niets anders op dan aan vernieuwende projecten simpelweg niet te beginnen.

Twijfel over nut

De waarschuwingen komen vanuit Brookings Institution. Het gaat om een Amerikaanse vzw waarin meer dan 300 experten uit de hele wereld zich verenigen.

Alex Engler, analist bij Brookings, publiceerde de waarschuwingen online. Volgens hem zullen de EU-beleidsmakers eerst moeten afwegen of het nut van een dergelijk beleid wel opweegt tegen de risico’s. “Uiteindelijk zou de poging van de EU om opensource te reguleren een ingewikkelde reeks vereisten kunnen creëren die bijdragen aan opensource-AI in gevaar brengt, waarschijnlijk zonder het gebruik van AI voor algemene doeleinden te verbeteren”

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.