OpenAI maakt zich zorgen om andere AI-ontwikkelaars die geen veiligheidslimieten hanteren

OpenAI GPT-4

Met de lancering van GPT-4 zet OpenAI druk op de concurrentie, wat ervoor kan zorgen dat zij op hun beurt snel iets lanceren zonder veiligheidslimieten.

Met de lancering van GPT-4 vorige week maakt OpenAI zijn ambitie duidelijk als toonaangevende AI-leverancier. De technologie gebaseerd op Natural Language Processing (NLP) zette vorig jaar een enorme stap voorwaarts met de lancering van ChatGPT. Opeens was de technologie tastbaar en bruikbaar voor iedereen, vaak met indrukwekkende resultaten.

Microsoft hing al snel zijn wagonnetje aan OpenAI met een miljardeninvestering, de rest gaat zijn eigen weg en werkt furieus aan een concurrerende AI-model. Zo heeft Google met Bard een eigen oplossing dat het wil koppelen aan zijn zoekmachine en binnen Google Workspace.

OpenAI medeoprichter en hoofd wetenschap Ilya Sutskever zegt bij The Verge  dat GPT-4 niet gemakkelijk was om te ontwikkelen. “Je ziet dat er heel veel bedrijven zijn vandaag die hetzelfde willen doen. Wat betreft competitie zie je dat het veld volwassen wordt.”

GPT-4 en veiligheidskaarten

Hij wijst naar de risico’s van dergelijke AI-modellen. “We hebben weinig bekend gemaakt rond de interne werking van GPT-4. Dat doen we om veiligheidsredenen.” Sutskever zegt dat OpenAI veel tijd en moeite heeft gestopt in het opzetten van limieten. “Er gaan andere bedrijven dergelijke limieten niet hanteren. Als maatschappij hebben we nu maar heel weinig tijd om daarop te reageren. Hoe moeten we dit reguleren? Hoe moeten we hiermee omgaan?

OpenAI werkt met veiligheidskaarten binnen GPT-4 om ervoor te zorgen dat gevaarlijke informatie of (privacy)gevoelige niet wordt gedeeld. Zo kan je bijvoorbeeld niet vragen hoe je gevaarlijke chemische stoffen kan maken met keukenmateriaal.

lees ook

Cybersecurity in 2023: AI en cloud zorgen voor heviger strijdtoneel

“Ik maak me zorgen dat dergelijke modellen gebruikt worden voor desinformatie op grote schaal”, zegt OpenAI CEO Sam Altman. “Nu ze beter worden in het schrijven van computercode, kunnen ze gebruikt worden voor offensieve cyberaanvallen.

Maatschappelijk debat

OpenAI werd in 2015 opgericht als een non-profitorganisatie met de focus op een veilige en transparante ontwikkeling van artificiële intelligentie. In 2019 maakte het de shift naar een capped-profit-model met Microsoft als grootste investeerder.

De CEO van OpenAI vraagt zich af hoe de mensen van de toekomst deze periode zullen bekijken. “We hebben tijd nodig voor onze instituten om erachter te komen wat er moet gebeuren. Regulering wordt essentieel. We hebben nu tijd nodig om te begrijpen wat er allemaal gebeurd, hoe mensen deze tools gebruiken en hoe de maatschappij ermee kan evolueren.”

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home