ChatGPT-maker OpenAI zal een ID-verificatielaag toevoegen aan zijn AI-modellen in de API om misbruik te voorkomen.
OpenAI is van plan om organisaties in de toekomst te verplichten om een ID-verificatieproces te doorlopen alvorens ze toegang krijgen tot bepaalde AI-modellen in de API. Deze verificatie, genaamd Verified Organization, kondigde het bedrijf vorige week aan via zijn ondersteuningspagina. Hiermee wil OpenAI de veiligheid van AI waarborgen. Recent bleek nog dat OpenAI gebruikt werd voor het opstellen van spamberichten.
Verificatie
“We voegen het verificatieproces toe om onveilig gebruik van AI te beperken en tegelijkertijd geavanceerde modellen beschikbaar te blijven maken voor de bredere ontwikkelaarscommunity”, aldus het bedrijf.
Deze verificatie vereist een geldig, door de overheid uitgegeven identiteitsbewijs van een van de 200 landen die worden ondersteund door de API van OpenAI. Bovendien kan een ID slechts één organisatie per 90 dagen verifiëren. Deze verificatie zou slechts enkele minuten in beslag nemen en heeft volgens het bedrijf geen bestedingsvereisten.
AI-spambot
“Bij OpenAI nemen we onze verantwoordelijkheid serieus om ervoor te zorgen dat AI zowel breed toegankelijk is als veilig wordt gebruikt. Helaas gebruikt een kleine minderheid van de ontwikkelaars opzettelijk de OpenAI-API’s in strijd met ons gebruiksbeleid”, aldus OpenAI.
Deze nieuwe stap tot extra beveiliging komt mogelijk niet zomaar uit de lucht gevallen. Recent bleek dat een AI-bot OpenAI raadpleegde om berichten te genereren die bedoeld waren om websites te overspoelen met spamopmerkingen. Volgens het cyberbeveiligingsbedrijf SentinelOne heeft de zogenaamde AkiraBot met succes minstens 80.000 websites overspoeld met spamberichten. De bot baseerde zich op berichten die het met OpenAI’s modellen creëerde.
lees ook
OpenAI daagt Elon Musk opnieuw voor de rechter en wil einde aan ‘oneerlijke praktijken’
“Het gebruik van door LLM-gegenereerde inhoud helpt deze berichten waarschijnlijk om spamfilters te omzeilen, omdat de spaminhoud elke keer dat een bericht wordt gegenereerd anders is. Het framework roteert ook welk door de aanvaller beheerd domein in de berichten wordt opgegeven, wat het filteren van spam nog ingewikkelder maakt”, aldus SentinelOne.
Ondertussen heeft OpenAI de API-sleutel uitgeschakeld die door AkiraBot werd gebruikt. “We gaan door met het onderzoeken en zullen alle bijbehorende activa uitschakelen. We nemen misbruik serieus en verbeteren onze systemen voortdurend om misbruik op te sporen”, aldus OpenAI in een verklaring aan SentinelOne.