Kunstwerken van artiesten worden online opzettelijk aangepast zodat ze onbruikbaar zijn voor AI-modellen. Niet om AI aan te vallen, wel om techgiganten te wijzen op de auteursrechten van kunstenaars.
AI-modellen maken vaak gebruik van auteursrechtelijk materiaal, zonder hiervoor licenties te betalen. Een nieuw project, genaamd Nightshade, moet artiesten hiertegen beschermen. Deze nieuwe techniek “vergiftigt” kunstwerken zodat ze voor AI-modellen onbruikbaar worden. Dit project heeft als doel techgiganten ervan te overtuigen licenties te betalen op auteursrechtelijk beschermde werken. Er wordt onderzocht hoe Nightshade kan samenwerken met een reeds bestaande gelijkaardige tool (Glaze) om een optimale bescherming te bieden voor kunstenaars.
Auteursrechten en AI
Auteursrechten en AI-modellen gaan nog niet hand in hand. Veel kunstenaars willen voorkomen dat hun werken gebruikt worden door AI-modellen, al is dit niet zo eenvoudig. Online afwezig blijven is voor veel artiesten geen optie, dus worden er nieuwe manieren bedacht om hun werken online toch te beschermen tegen AI.
De Universiteit van Chicago creëerde in die context het project Nightshade. Dit is een nieuwe techniek waarbij werken van kunstenaars vergiftigd worden, zodat ze voor AI-modellen onbruikbaar worden. Volgens de leider van het project, Ben Zhao, is dit geen manier om AI neer te halen. De onderzoekers willen hiermee wel de techgiganten dwingen om te betalen voor werken met een licentie. Dit project toont bovendien aan dat deze AI-modellen kwetsbaar zijn en er wel degelijk manieren bestaan om ze aan te vallen.
“Vergiftigde” kunstwerken
Het project Nightshade gaat op een subtiele manier pixels in afbeeldingen veranderen waardoor AI-modellen deze fout gaan interpreteren. De AI-modellen zullen de aangepaste delen uit die afbeeldingen fout categoriseren waardoor ze zichzelf trainen op “vergiftigde” gegevens. Dit leidt tot een foutieve interpretatie en uitkomst van de prompts. Een voorbeeld hiervan is de Mona Lisa, daar werden enkele wijzigingen doorgevoerd in de pixels dat door AI gelezen werd als het hoofd van een kat. Als mens zie je het verschil niet (ter duiding: het beeld bovenaan dit artikel is illustratief, maar géén voorbeeld van Nightshade).
Eerder werkte Zhao aan een gelijkaardig project, namelijk Glaze. Dit is een verhultool die de manier waarop AI-modellen artistieke stijl ‘zien’ en bepalen vervormt. Zo kan het originele werk van kunstenaars niet worden geïmiteerd. De ideale formule om kunstwerken optimaal te beschermen tegen AI-modellen, zou zijn om Nightshade te combineren met Glaze. Het team van Washington test momenteel hoe ze van beide technieken één geïntegreerde tool kunnen maken.