Foto’s op Facebook en Instagram waar een vleugje beeldbewerking is bij komen kijken, worden niet langer voorzien van het label ‘gemaakt met AI’. Meta introduceerde het watermerk om de verspreiding van nepbeelden tegen te gaan.
Meerdere fotografen kloegen dat hun foto’s gedeeld op Facebook en Instagram door Meta werden gelabeld als ‘gemaakt met AI’. Meta zet algoritmen aan het werk om echte foto’s te onderscheiden van beelden gemaakt door AI-beeldgeneratoren. De algoritmen gaan daarvoor op zoek in de metagegevens van het beeldbestand.
Metatags
Onder meer OpenAI en Google ontwikkelden dergelijke metatags die onzichtbaar zijn voor het menselijke oog, maar wel door machines kunnen worden gedetecteerd. Bij de foto’s die het AI-watermerk kregen, was gebruik gemaakt van kunstmatige middelen om de beelden te verbeteren.
De algoritmen namen hun taak heel serieus en plaatsten de minste artificiële bewerking dus op gelijke voet met een beeld volledig te laten genereren door AI. Fotografen vonden dat te ver gaan en vinden het ook onduidelijk hoe de algoritmen van Meta nu precies werken. Ze kregen het label ook niet meer van hun werk eens het door Meta is toegekend. Anderen zijn dan weer de mening aangedaan dat foto’s bewerken ook knoeien is met de realiteit, en het label dus niet onterecht werd toegekend.
Echt of nep
Meta doet water bij de wijn en zal de verwoording van het label aanpassen. Er komt nu de tag ‘AI Info’ om het voor gebruikers duidelijk te maken dat een foto onder handen is genomen. Meta hoopt dat die subtielere verwoording niet in het verkeerde keelgat schiet bij fotografen.
Meta introduceerde het AI-watermerk in februari om gebruikers te informeren over nepbeelden die circuleren op zijn platformen. Dergelijke tools zijn nodig, maar dit voorval introduceert dat de lijn tussen wat echt en wat nep is zeer dun is, en dat ook algoritmen dat niet altijd goed weten.
Dit artikel verscheen origineel op 25 juni. De tekst kreeg een update met de recentste informatie.