Het Amerikaanse Pentagon verhoogt de druk op Anthropic om AI te leveren zonder ethische beperkingen. Anthropic lijkt niet van plan te plooien, ondanks dreigementen van de overheid.
Het Pentagon en Amerikaans defensieminister Pete Hegseth voeren de druk op Anthropic op. Het AI-bedrijf moet tegen vrijdag zijn beperkingen voor het gebruik van AI laten varen, of moet de gevolgen dragen. Die gevolgen zijn niet min: als Hegseth zijn zin niet krijgt, wil hij Anthropic bestempelen als een ‘risico in de toeleveringsketen’.
Die stempel, normaal gezien bedoeld voor bedrijven met banden met vijandige buitenlandse mogendheden, zou Anthropic economisch raken. Noch het Pentagon, noch bedrijven die zaken doen met het Pentagon, mogen immers met zo’n risicobedrijf in zee gaan.
Gebruiksvoorwaarden
De discussie draait om de gebruiksvoorwaarden gelinkt aan het AI-model Claude van Anthropic. Het bedrijf is bereid om zich flexibel op te stellen wat die voorwaarden betreft voor gebruik binnen de Amerikaanse defensie, maar hanteert enkele principes. Zo wil Anthropic voorkomen dat Claude wordt ingezet om op grote schaal te spioneren op Amerikaanse burgers, of om wapens te ontwikkelen die autonoom (zonder een vorm van menselijke tussenkomst) kunnen vuren.
Hegseth vindt dat het niet aan Anthropic is om dergelijke voorwaarden op te leggen, en kiest een agressieve aanpak om het bedrijf te doen inbinden. We beschreven eerder al hoe die ongeziene intimidatie van de overheid op de interne ethische richtlijnen van een bedrijf nefast kan zijn voor de ontwikkeling van ethische AI in het algemeen.
DPA
De minister dreigt nu ook om de Defense Production Act (DPA) in te zetten. Daarmee kan de VS in de naam van nationale veiligheid een bedrijf verplichten om een bepaald product op maat te ontwikkelen.
lees ook
Pentagon legt bom onder ethische AI: Anthropic bedreigd met ‘risico’-label
Het Amerikaanse ondernemingsklimaat verandert door de overheidsdruk: wie politiek een andere mening heeft dan de regering die nu aan de macht is, mag zich aan economische straffen verwachten.
Het Pentagon heeft zich in feite zelf in de nesten gewerkt. President Biden heeft aan het einde van zijn termijn een memorandum opgesteld dat inhoudt dat het Ministerie van Defensie zich niet aan één AI-systeem mag binden, en met meerdere fabrikanten in zee moet gaan. Dat is onder President Trump niet gebeurd: Claude van Anthropic is op dit moment het enige systeem dat goedgekeurd is voor gebruik binnen de Amerikaanse defensie. Het Pentagon kan met andere woorden Anthropic niet zomaar aan de deur zetten.
Geen intentie om te plooien
Ondanks die druk plooit Anthropic niet. Reuters weet op gezag van anonieme bronnen dat CEO Dario Amodei niet van plan is om de beperkingen rond AI voor binnenlandse massa-surveillance van burgers en autonome moordrobots op te heffen. Anthropic is trouwens geen heilige wat beleid betreft: het bedrijf heeft pas enkele voorwaarden rond veiligheid uit zijn beleid rond AI-ontwikkeling geschrapt omdat het niet achterop wil raken in vergelijking met andere AI-bouwers. De moordrobots lijken wel een harde grens.
Vrijdagnamiddag vervalt de deadline die Hegseth aan Anthropic heeft opgelegd. Als Amodei dan voet bij stuk houdt, kan de overheid ofwel de DPA inzetten, ofwel Anthropic als risicobedrijf bestempelen. Beide acties zijn ongezien in de context van een dispuut over gebruiksvoorwaarden.
