Claude användes i planering av anfall mot Iran – trots politisk konflikt om AI-guardrails
Enligt uppgifter i svensk och internationell rapportering ska AI-modellen Claude (Anthropic) ha använts av USA:s militära ledning som stöd i planeringen av en operation mot Iran. Uppgifterna kommer samtidigt som USA:s regering uppges ha tagit en hårdare linje i hur AI-bolag får sätta villkor för militär användning.
Vad rapporteras – och av vem?
Svenska Dagbladet beskriver i sin Tech brief att Claude ska ha använts för att stötta delar av den militära planeringen, bland annat genom att hjälpa till att hantera stora mängder information och göra sammanställningar som stöd till beslutsfattare. I andra internationella uppgifter kopplas användningen till ett bredare ekosystem av verktyg som redan används i försvars- och underrättelsemiljöer.
Det som gör nyheten extra laddad är tajmingen: uppgifterna kommer i en period där relationen mellan vissa AI-labb och amerikanska myndigheter beskrivs som mer konfliktfylld, särskilt kring frågan om teknikens skapare ska kunna sätta begränsningar för hur modellerna får användas.
Hur kan en AI-modell användas i planering?
I den offentliga debatten blandas ofta två saker ihop: “AI som tar beslut” och “AI som stödverktyg”. I praktiken är det senare mycket vanligare. I stora organisationer används språkmodeller ofta för att:
- sammanfatta och strukturera information från många källor
- identifiera mönster och inkonsekvenser i textbaserat material
- generera scenariobeskrivningar och jämföra antaganden
- snabbare skapa briefer och underlag till mänskliga analytiker
Det här är även anledningen till att tekniken blir attraktiv i säkerhetskritiska sammanhang: den kan komprimera tid, minska manuellt arbete och göra det lättare att se helheten. Men den kan också skapa nya risker – särskilt om den används på ett sätt som gör att mänsklig granskning blir för tunn eller för stressad.
Varför “guardrails” blir bråkiga i just militär användning
Många AI-labb har policys som begränsar hur deras modeller får användas, särskilt kring vapen, övervakning och skadligt innehåll. Myndigheter, särskilt inom försvar, vill i regel inte att privata företag ska diktera operativa ramar. Där uppstår friktion: bolagen vill minska risken för missbruk, staten vill behålla handlingsfrihet.
I rapporteringen kring Claude framstår detta som en kärnkonflikt: vad som ska styras av avtal och policy, och vad som ska styras av lag och statliga beslut.
Varför är det här kontroversiellt?
Kontroversen handlar inte bara om “AI i krig”, utan om ansvarskedjan. Om AI används för att sammanfatta, prioritera eller simulera scenarier kan det påverka hur människor bedömer risk. Det leder till frågor som är svåra även i civila sammanhang – men ännu svårare i militära: vem bär ansvaret om underlaget blir fel, eller om modellen missar kritiska detaljer?
Det blir också en upphandlingsfråga. Om staten vill kunna använda AI brett i säkerhetskritiska miljöer behöver man: tydliga krav på dokumentation, spårbarhet och revision, samt robusta processer för att hantera förändringar i modeller över tid. Det är ofta där friktionen uppstår: kommersiella modeller utvecklas snabbt, medan statliga processer kräver stabilitet och kontroll.
Konsekvenser: policy, ansvar och upphandling
Fallet riskerar att sätta en ny standard för hur AI-labb och myndigheter förhandlar. Om staten markerar att privata “guardrails” inte ska kunna begränsa militär användning, kan fler leverantörer ställas inför ett val: anpassa policys för att vinna kontrakt – eller avstå och riskera att ersättas av en konkurrent.
Vi har tidigare skrivit om den parallella utvecklingen i USA, där AI-labb och myndigheter hamnat i konflikt kring säkerhet och leverantörsrisk: Trump stoppar Anthropic – Pentagon kallar AI-bolaget en säkerhetsrisk.
Vad händer nu?
Nästa steg avgörs sannolikt av tre saker: hur snabbt myndigheter kan byta leverantör när en modell redan sitter i system, hur villkor formuleras i nya avtal, och hur mycket transparens som går att få i efterhand om hur AI faktiskt användes. Det är också i den här typen av fall som debatten om AI-reglering blir konkret: det handlar inte längre om “framtida risker” utan om hur staten hanterar teknik som redan är i skarp drift.
För mer om AI-landskapet och hur verktygen används i praktiken hittar du vår samlingshub: AI-verktyg.
