AI-specialist Anthropic noemt het finale contractvoorstel van het Pentagon nog steeds onaanvaardbaar, en plant niet om zijn beleid rond veilig AI-gebruik helemaal af te voeren.
Anthropic-CEO Dario Amodei stelt dat er “virtueel geen vooruitgang” wordt geboekt in onderhandelingen met het Pentagon over het verdere gebruik van AI-tool Claude. Dat weet Axios. Een finaal contractvoorstel van de Amerikaanse overheid bevat schijnbaar geen significante veranderingen. Anthropic zet de hakken in het zand en weigert AI te leveren onder onbeperkte voorwaarden, ook al dreigt het Pentagon met zware gevolgen.
Gebruik zonder grensen
Het Amerikaanse Ministerie van Defensie (of Oorlog) wil immers dat Anthropic geen gebruiksvoorwaarden oplegt bij het LLM, dat als enige gecertificeerd is en gebruikt wordt op geclassificeerde systemen. Anthropic wil daar niet van weten. Voor Amodei moeten beperkingen rond het gebruik van AI in voege blijven.
Doorn in het oog van de dienst zijn enerzijds een verbod om robots te bouwen die autonoom kunnen aanvallen en doden met de hulp van AI, en anderzijds verbod om AI in te zetten om aan binnenlandse massa-surveillance van burgers te doen.
Dat is een groot probleem voor het Pentagon onder leiding van ex-Fox-nieuwsanker Pete Hegseth, die als grote Trump-getrouwe het vrijgeleide wil om AI in te zetten zonder beperkingen. Enkel de wet zou een grens mogen stellen aan het gebruik van AI door het leger, niet de bouwer van de AI zelf. De wet rond het onderwerp loopt zeker in de VS achter op de feiten, en legt bijgevolg niet echt beperkingen op.
Deadline met represailles
Anthropic heeft tot 17u01 lokale Amerikaanse tijd om akkoord te gaan met het voorstel van het Pentagon. Hegseth dreigt met zware represailles indien dat niet gebeurt. Er zijn daarbij twee pistes, die allebei zonder precedent zijn in deze situatie.
Enerzijds wil Hegseth Anthropic bestempelen als een ‘risico in de toeleveringsketen’. Een risicobedrijf met dat label mag geen zaken doen met het Pentagon. Bovendien mogen ook andere organisaties wereldwijd die leveren aan het Pentagon, niet in zee gaan met zo’n risico-onderneming. De stempel is helemaal niet bedoeld voor binnenlandse bedrijven, wel voor organisaties van vijandige landen. Denk aan Chinese bedrijven met overheidsbanden. Toch wil Hegseth Anthropic ermee onder druk zetten.
lees ook
Pentagon legt bom onder ethische AI: Anthropic bedreigd met ‘risico’-label
Anderzijds zwaait de defensieminister met de Defense Production Act (DPA). Dat is een wet waarmee de VS in naam van nationale veiligheid een bedrijf kunnen verplichten om een product op maat te ontwikkelen. De facto: AI die moordrobots mag aansturen en burgers mag surveilleren.
Amodei stelt dat het bedrijf open blijft voor verdere discussie. Anthropic is bereid zijn gebruiksvoorwaarden aan te passen voor het Pentagon, maar wil niet over voorgenoemde rode lijnen gaan.
Wereldwijde gevolgen
Het verhaal is meer dan een binnenlandse aangelegenheid voor de VS. De meeste AI-bedrijven die vandaag aan het voorfront van de AI-ontwikkeling staan, komen uit de VS. De Amerikaanse overheid toont met de afdreiging en de deadlines nu hoe zwaar het wil wegen op die bedrijven. Ethisch AI ontwikkelen wordt verboden, op straffe van immense economische consequenties, of dwant.
