Pentagon zet Anthropic opzij voor OpenAI

Pentagon zet Anthropic opzij voor OpenAI

Het Amerikaanse Pentagon slaat Anthropic in de ban na een conflict over ethische gebruiksgrenzen van zijn AI-modellen. OpenAI gaat met de deal lopen.

OpenAI mag zich sinds vrijdagavond de nieuwe exclusieve AI-partner noemen van het Pentagon, het Amerikaanse ministerie van Defensie/Oorlog. Dat kondigde topman Sam Altman zelf aan via X. Het Pentagon zal AI-modellen van OpenAI ‘inzetten in zijn geheime netwerk’. De aankondiging van Altman volgde amper enkele uren nadat concurrent Anthropic in de ban werd geslagen.

Anthropic in de ban

Tot voor kort was Anthropic nog de geliefkoosde AI-leverancier van het ministerie. Een meningsverschil over ethische richtlijnen bleken echter een onoplosbaar breekpunt in de commerciële relatie. Anthropic trekt een harde grens op het gebruik van zijn AI-modellen voor massasurveillance van burgers of ontwikkeling van autonome wapens. De Amerikaanse was echter van mening dat het niet aan een bedrijf is om die grenzen te bepalen.

lees ook

Pentagon legt bom onder ethische AI: Anthropic bedreigd met ‘risico’-label

Anthropic kreeg tot vrijdag om toe te geven aan de eisen van de overheid. De fles wijn werd niet van een scheut water voorzien en dus knipt het Pentagon genadeloos alle banden door. Pentagon-leider en voormalig Fox-nieuwsanker Pete Hegseth laat weten dat Anthropic nu ook als een ‘nationaal veiligheidsrisico’ wordt gelabeld.

Dat betekent dat producten en diensten van Anthropic vanaf nu verboden zijn bij alle overheidsinstanties. President Donald Trump legt een ‘onmiddellijk verbod’ op. Maar in prinicipe mogen alle bedrijven die diensten leveren aan het Pentagon ook niet meer gebruik maken van Anthropic volgens de strikte richtlijnen van de overheid voor toeleveranciers. President Trump laat op zijn platform Truth Social weten ‘alle presidentiële macht’ te gebruiken om naleving te handhaven.

OpenAI profiteert

‘De een zijn dood is de ander zijn brood’, moet men bij OpenAI gedacht hebben. Het verdwijnen van Anthropic rolde de loper uit voor OpenAI om met het contract van het Pentagon aan de haal te gaan. Amper enkele uren na het verstrijken van Anthropics deadline, kondigde Altman de nieuwe samenwerking aan.

De aankondiging zit gehuld in de kenmerkende vaagheid als het om militaire contracten gaat. Het Pentagon zal de modellen van OpenAI inzetten in zijn ‘geheime’ netwerk. OpenAI van zijn kant zal ‘technische maatregelen’ nemen om ervoor te zorgen dat zijn modellen geen muiterij plegen. Het bedrijf stalt ook tijdelijk ingenieurs bij het ministerie om de overstap vlot te laten verlopen.

Altman verzekert dat zijn modellen niet zullen ingezet worden voor surveillance of autonome wapens. Die belofte zou mee in het akkoord zijn opgenomen. “Het Ministerie van Oorlog toonde een diep respect voor veiligheid en weerspiegelt deze in wetgeving en beleid”, schrijft Altman. Dat het geschil met Anthropic net ging om het feit dat Anthropic die mogelijkheden niet wilde voorzien, roept meer vragen op dan nu worden beantwoord.

Gevaarlijk precedent

Anthropic legt zich niet zonder slag of stoot neer. In een publiek statement noemt Anthropic de beslissing van het Pentagon ‘juridisch onjuist’ en een ‘gevaarlijk precedent’ voor bedrijven die samenwerken met de overheid. Anthropic verzekert dat gebruikers van Claude geen impact zullen ondervinden.

De Amerikaanse overheid zet hiermee duidelijk de toon voor Amerikaanse AI-bedrijven. Wie een ander moreel kompas volgt, wordt genadeloos afgestraft. Aangezien het zwaartepunt van de AI-markt in de Verenigde Staten ligt en Amerikaanse AI-tools ook in Europa gebruikt worden, is dit meer dan een binnenlandse aangelegenheid.