Het Amerikaanse ministerie van Defensie wil AI-specialist Anthropic als een risicobedrijf categoriseren, omdat het zijn zin niet krijgt. De zet zou impact hebben op de toeleveranciers van het Pentagon wereldwijd en zendt vooral een signaal naar de andere Amerikaanse AI-bedrijven.
Het Amerikaanse ministerie van Defensie (of van Oorlog, volgens de regering Trump) wil AI-specialist Anthropic bestempelen als ‘risico in de toeleveringsketen’. Dat weet Axios. Defensieminister Pete Hegseth zou op het punt staan de knoop daarvoor door te hakken. Als Anthropic als risicobedrijf wordt aangeduid, heeft dat verregaande gevolgen. Niet alleen het Pentagon zelf, maar ook alle toeleveranciers wereldwijd, zouden dan AI van Anthropic uit hun systemen moeten weren.
Niet echt een risico
De plannen van Hegseth hebben niets te maken met een reëel risico dat van Anthropic of AI-model Claude afkomstig zou zijn. Integendeel: Claude is het eerste en enige AI-model dat momenteel toegelaten is op de geclassificeerde systemen van de Amerikaanse defensie. Het AI-model zou een rol hebben gespeeld bij de kidnapping van de Venezolaanse president Maduro op 3 januari vorig jaar.
Het Pentagon stoort zich echter aan de beperkingen die Anthropic wil opleggen. Het AI-bedrijf is weliswaar bereid om zijn algemene voorwaarden aan te passen op maat van defensie, maar het wil geen carte blanche geven voor het gebruik van Claude. Zo wil Anthropic-CEO Dario Amodei voorkomen dat Claude wordt ingezet om op grote schaal te spioneren op Amerikaanse burgers, of om wapens te ontwikkelen die autonoom (zonder een vorm van menselijke tussenkomst) kunnen vuren.
Ontoereikende wetgeving
Hegseth noemt de voorwaarden te beperkend en wil dat het leger AI kan gebruiken voor alle wettelijk toegestane doeleinden. De facto wil hij niet dat Anthropic eigen voorwaarden koppelt aan de levering van zijn AI-diensten.
Anthropic wijst op het feit dat wetgeving achterloopt op de capaciteiten van AI. Nu al kunnen de VS bijvoorbeeld zogenaamde opensource-informatie van het internet halen. Denk aan publiek toegankelijke posts op sociale media en foto’s. Met AI wordt het mogelijk om al die informatie op grote schaal te analyseren en bijvoorbeeld snel vast te stellen wie kritisch is voor de overheid en in de buurt van een militaire basis woont.
Intimidatie
Het lijkt erop dat het Pentagon Anthropic maar ook andere AI-spelers met het dreigement wil intimideren. Er lopen tegelijkertijd onderhandelingen voor nieuwe contracten met OpenAI, Google en xAI. De toon daarvoor is met de dreiging meteen gezet.
In eerste instantie lijn zou de impact van de verbreking van de banden tussen Anthropic en het Pentagon beperkt zijn. Het contract dat loopt heeft een waarde van 200 miljoen dollar maar Anthropic haalt jaarlijks zo’n 14 miljard dollar op. De tweedelijnsgevolgen zijn erger. Het label dat Hegseth wil uitdelen, is in principe voorbehouden voor vijandige buitenlandse entiteiten. Het verbiedt ook toeleveranciers wereldwijd om in zee te gaan met een gesanctioneerde onderneming.
lees ook
Concrete regels, duidelijke impact: waarom de CMMC-richtlijnen uit de VS ook in Europa belangrijk zijn
Het Pentagon kijkt streng toe op het digitale gedrag van zijn toeleveranciers, onder andere via de nieuwe CMMC-richtlijnen. Ook Europese bedrijven zouden via al dan niet rechtstreekse banden met het Amerikaanse Defensieministerie hinder kunnen ondervinden.
Kruis over ethische AI?
Het zijn vooral de implicaties in derde rang die op termijn impactvol kunnen zijn. De Amerikaanse overheid rolt met zijn spierballen en laat aan de grote AI-bedrijven zien wat de gevolgen kunnen zijn als ze hun eigen ethische en morele code willen hanteren bij de levering van diensten. Niet alleen wordt zakendoen met het Pentagon onmogelijk, de VS zullen er alles aan doen om een brede negatieve impact te veroorzaken.
De zet van Hegseth toont zo aan hoe moeilijk het is om AI volgens ethische richtlijnen te ontwikkelen binnen het huidige klimaat in de VS. Dat is slecht nieuws voor ethische AI in het algemeen, aangezien het zwaartepunt van de AI-ontwikkeling momenteel ligt bij grote Amerikaanse bedrijven die dingen naar lucratieve defensiecontracten.
lees ook
Anthropic belooft energiekosten door AI-datacenters in VS zelf te dragen
De zelfcontrole van de meeste bedrijven is al aan de matige kant. OpenAI heeft bijvoorbeeld het pad van de advertenties ingeslagen, en dreigt daarmee advertentie-inkomsten voor kwaliteit te plaatsen. Dat xAI van Elon Musk een loopje neemt met ethiek, hoeft weinig duiding. Het Grok-model maakte met plezier seksueel getinte deepfakes en wordt onder andere daarom door de EU onderzocht. Anthropic houdt zich als grote speler op dit moment nog wel aan een ethische code, en wil bijvoorbeeld geen advertenties aan chats koppelen uit die overweging.
Lage lat
De lat ligt laag: alle modellen zijn grotendeels getraind op data afkomstig van mensen die daar hun toestemming niet voor hebben gegeven. Amodei is in het geval van de overeenkomst tussen Anthropic en het Pentagon bovendien bereid heel veel water bij de wijn te doen. Toch blijkt dat niet genoeg.
Zo ligt het zwaartepunt van AI-ontwikkeling vandaag in een land met weinig regulering, waar AI-bedrijven na immense investeringen onder druk staan om snel winst te boeken. Dat omzet daardoor eenvoudiger primeert op principes, hoeft niet te verbazen. Daar komt nu een overheid bij die zelfs een minimum aan regels zoals ‘geen massaspionage op eigen burgers’ en ‘geen AI-moordrobots’ interpreteert als een blamage.
