Itdaily - Google, Microsoft en xAI delen AI-modellen met VS voor veiligheidsevaluatie

Google, Microsoft en xAI delen AI-modellen met VS voor veiligheidsevaluatie

Google, Microsoft en xAI delen AI-modellen met VS voor veiligheidsevaluatie

Google, Microsoft en xAI sluiten een akkoord met de Amerikaanse overheid om vroege versies van hun AI-modellen te delen voor veiligheidsbeoordelingen. Het Center for AI Standards and Innovation van het ministerie van Handel voert de evaluaties uit, net zoals eerder met OpenAI en Anthropic.

De samenwerking Tussen de Amerikaanse overheid en Google, Microsoft en xAI richt zich op het beoordelen van de capaciteiten en risico’s van geavanceerde AI-systemen voordat deze publiek beschikbaar komen. Dit gebeurt in het kader van het groeiende bewustzijn rond de nationale veiligheidsimplicaties van frontier AI.

Volgens Chris Fall, directeur van het CAISI, is onafhankelijke en grondige meting essentieel om de impact van deze technologie te begrijpen. De afspraak voorziet dat ontwikkelaars modellen delen met verminderde of verwijderde beveiligingsmaatregelen, zodat de overheid nationale veiligheidsrisico’s kan inschatten.

Uitbreiding van eerdere afspraken

Eerder dit jaar sloten OpenAI en Anthropic al een vergelijkbaar akkoord met het ministerie van Handel. Het CAISI heeft sindsdien meer dan veertig evaluaties uitgevoerd, ook op nog niet vrijgegeven modellen. De nieuwe samenwerking met Google, Microsoft en xAI schaalt dit werk verder op.

De deal komt op een moment dat de Amerikaanse overheid overweegt een nieuw reviewproces in te voeren voor AI-tools die cyberveiligheidsrisico’s met zich meebrengen. Het Witte Huis overweegt een uitvoerend bevel dat een overheidstoezichtsgroep kan formaliseren om normen op te stellen voor de krachtigste AI-modellen.

Doel: bescherming tegen cyberaanvallen

Het uiteindelijke doel is consumenten en bedrijven te beschermen tegen cyberaanvallen en andere verstoringen die kunnen voortvloeien uit de voorbarige vrijgave van dergelijke modellen. De overheid wil zo de risico’s van AI inperken zonder de innovatie te remmen.