Door AI-gegenereerde deepfakes in Dall-E 3 zullen met de nieuwe detectietool van OpenAI sneller ontmaskerd worden.
OpenAI lanceert een beelddetectie-tool om te achterhalen of een afbeelding gegenereerd is door DALL-E 3, dat laat het bedrijf weten in een blogpost. Deepfakes zijn door AI gemanipuleerde beelden van bestaande foto’s of video’s die vaak met kwaadwillige bedoelingen gegenereerd worden. OpenAI wil deze problematiek aanpakken en treedt toe tot de Coalition for Content Provenance and Authenticity (C2PA), die technische normen vooropstellen voor de herkomst van digitale inhoud, samen met andere grote techbedrijven.
Tool voor beelddetectie
Deepfakes circuleren steeds meer op het internet en kunnen schadelijke gevolgen hebben voor de personen in kwestie. Daar wil OpenAI verandering in brengen met een nieuwe detectietool die door AI-gegenereerde afbeeldingen moet kunnen opsporen. Momenteel werkt de nieuwe tool enkel op afbeeldingen gegenereerd door de AI-beeldgenerator DALL-E van het bedrijf zelf.
De beelddetectie-tool is volgens OpenAI in ongeveer 98 procent van de gevallen in staat om een DALL-E-gegenereerde afbeelding te identificeren en minder dan ongeveer 0,5 procent van de niet-AI gegenereerde afbeeldingen waren ten onrechte getagd als zijnde afkomstig van DALL-E 3. OpenAI’s beelddetectieclassificatie is momenteel toegankelijk voor een eerste groep testers, waaronder onderzoekslaboratoria en onderzoeksgerichte journalistieke non-profitorganisaties.
Authenticiteitsnormen
Verder laat OpenAI in zijn blogpost weten dat het deel uitmaakt van de stuurgroep Coalition for Content Provenance and Authenticity, ofwel C2PA. C2PA is een veelgebruikte standaard voor de certificering van digitale inhoud die ontwikkeld en aangenomen is door een groot aantal actoren waaronder softwarebedrijven, camerafabrikanten en online platforms. Zo zitten onder andere Google, Adobe, Meta en Microsoft in deze groep.