Trump stoppar Anthropic i USA:s myndigheter – Pentagon kallar AI-bolaget en säkerhetsrisk
USA:s president Donald Trump beordrar federala myndigheter att fasa ut AI-bolaget Anthropics teknik. Samtidigt uppger Pentagon att bolaget ska klassas som en leveranskedjerisk – ett ovanligt hårt besked mot ett amerikanskt AI-labb som hittills setts som en del av USA:s teknologiska försprång.
Vad har hänt?
Donald Trump meddelade att USA:s regering ska upphöra med att använda Anthropics teknik. En sex månader lång utfasning ska ske inom försvarsdepartementet och andra myndigheter. Om bolaget inte samarbetar i övergången hotar presidenten med att använda “hela presidentens makt” med potentiella civilrättsliga och straffrättsliga konsekvenser.
Samtidigt meddelade Pentagon att Anthropic ska klassas som en “supply-chain risk” – en beteckning som tidigare främst reserverats för utländska, särskilt kinesiska, teknikleverantörer. Beslutet innebär att tiotusentals försvarskontraktörer kan förbjudas att använda Anthropics AI i arbete åt Pentagon.
Varför uppstod konflikten?
Konflikten uppges bottna i oenighet kring hur AI får användas i militära sammanhang. Anthropics vd Dario Amodei ska ha argumenterat för tydliga begränsningar kring autonoma vapensystem och massövervakning. Pentagon å sin sida menar att det är amerikansk lag – inte privata bolag – som ska avgöra hur militären använder teknik.
I ett uttalande sade Anthropic att man avser att bestrida klassningen i domstol och kallade den både juridiskt tveksam och ett farligt prejudikat för amerikanska företag som samarbetar med staten.
“Killer robots”-debatten återuppstår
Diskussionen kring så kallade autonoma vapensystem – ibland kallade “killer robots” – har pågått i flera år. Med krigen i Ukraina och Gaza har automatiserade system blivit mer synliga, vilket ökat oron hos både teknik- och människorättsorganisationer.
Anthropics position tycks ha varit att införa tekniska och policybaserade spärrar kring hur deras modeller används i militära sammanhang. Pentagon har dock signalerat att man inte vill att ett privat företag ska sätta gränser för nationell försvarspolitik.
OpenAI kliver in
Samma dag meddelade rivalen OpenAI att man ingått ett avtal om att leverera teknik till försvarsdepartementets klassificerade nätverk. Enligt OpenAI:s vd Sam Altman inkluderar avtalet principer om mänskligt ansvar i vapensystem och avsaknad av massövervakning i USA.
Det är dock oklart hur dessa principer skiljer sig från de “röda linjer” som Anthropic föreslagit. Tidsmässigt framstår det som att OpenAI snabbt fyllt ett vakuum som uppstod när relationen mellan Anthropic och Pentagon bröts.
Ett nytt prejudikat för AI och nationell säkerhet
Jurister och branschanalytiker beskriver beslutet som ett potentiellt prejudikat. Att svartlista ett amerikanskt AI-bolag av inrikespolitiska skäl kan påverka hur andra teknikföretag förhandlar med staten i framtiden.
En jämförelse som lyfts är USA:s tidigare åtgärder mot Huawei, där bolaget utestängdes från försvars- och myndighetskontrakt. Skillnaden är att Anthropic är ett amerikanskt företag med stöd från bland annat Google och Amazon.
Vad betyder detta för AI-branschen?
Beslutet visar att AI inte längre bara är en kommersiell fråga – utan en central del av geopolitik och försvarsstrategi. Det markerar också en tydlig konfliktlinje: ska privata AI-bolag kunna sätta etiska gränser för hur deras teknik används, eller är det uteslutande en fråga för staten?
För AI-industrin innebär det ökade risker – men också tydligare spelregler. Företag som levererar AI till staten kan framöver tvingas välja mellan striktare etiska ramar och bredare försvarskontrakt.
