
Image generated using ChatGPT
Åsikt: AI i krigföring—Teknikindustrins tysta skift mot slagfältet
Debatten om autonoma vapen, tekniksäkerhetspolicyer och AI-etik i militären har pågått, men de senaste dagarna har inneburit stora förändringar. Ledare från OpenAI, DeepSeek och till och med Spotifys grundare meddelade nya avtal om att arbeta med regeringar om försvarstekniker och strategisk AI
Spänningarna kring användningen av artificiell intelligens i krigföring har ökat de senaste dagarna. Denna månad meddelade flera teknikföretag nya strategiska partnerskap med regeringar för att utveckla försvarsprojekt. Och, som med mycket inom AI-området, har det varit en skarp förändring de senaste månaderna i hur AI hanteras för militär och vapenutveckling.
För bara några dagar sedan, tillkännagav OpenAI och den amerikanska regeringen ett avtal på 200 miljoner dollar för att utveckla AI-drivna försvarsverktyg. Detaljerna är fortfarande knappa, med tjänstemän som betonar ”administrativa operationer” som den primära tillämpningen.
Under tiden har svenska entreprenören och Spotify-grundaren Daniel Ek stött det tyska företaget Helsing genom att leda en investeringsrunda på 600 miljoner euro. Helsing, som ursprungligen fokuserade på programvaruteknik, rör sig nu in i utvecklingen av drönare, ubåtar och flygplan.
Reuters avslöjade nyligen att DeepSeek hjälper Kinas militär och underrättelseoperationer. En högt uppsatt tjänsteman i USA sa att AI-startup-företaget har hjälpt till att lösa utmaningarna i handelskriget mellan USA och Kina, och dess open-source-modell hjälper den kinesiska regeringen i övervakningsoperationer.
Teknikjättarna samarbetar med regeringar på sätt som vi inte är vana att se—åtminstone inte så öppet—och de engagerar sig i aktiviteter som traditionellt sett inte har varit en del av deras roll, som att högt uppsatta teknikchefer går med i den amerikanska arméreserven.
Arméns Avdelning 201: Executive Innovation Corps är ett försök att rekrytera högsta teknikledare att tjänstgöra deltid i Arméreserven som seniora rådgivare för att hjälpa till att styra snabba och skalbara tekniklösningar på komplexa problem. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24 juni 2025
Vad händer?
En förändring i talet
Teknikföretag gick från ”Vi skulle aldrig använda AI för militära ändamål” till ”Kanske kommer vi tyst att ta bort denna klausul från våra policyer” till ”Stora nyheter, vi bygger nu AI-drivna vapen för regeringen!”
Åtminstone, så verkar det för den uppmärksamma observatören.
Inte så länge sedan, verkade AI-jättar stolta över att deklarera att de aldrig skulle stödja militära tillämpningar, men något ändrades. Google är ett utmärkt exempel.
År 2017, startade USA:s försvarsdepartement Project Maven, the Algorithmic Warfare Cross-Functional Team, en initiativ för att integrera AI i militära operationer. Google var initialt inblandade, men interna protester – drivna av anställdas oro över etik – ledde till att företaget tillfälligt drog sig tillbaka.
Förra året uppstod ytterligare ett tryck mot militära aktiviteter, och nästan 200 anställda på Google DeepMind uppmanade företaget att sluta med militärkontrakten.
“Allt engagemang med militären och vapentillverkning påverkar vår position som ledare inom etisk och ansvarsfull AI, och strider mot vår missionsförklaring och deklarerade AI-principer,” skrev de bekymrade anställda.
Den här gången var Googles respons att vänta och diskret uppdatera sina AI-etikriktlinjer genom att ta bort den delen där de sa att de aldrig skulle utveckla AI-teknik som kunde orsaka skada. Demis Hassabis, Googles AI-chef, förklarade att de bara anpassade sig till förändringar i världen.
Medan Googles fall illustrerar den utvecklande relationen mellan AI och militär användning, är det bara ett exempel på en bredare branschövergripande förändring mot att tjäna försvarsändamål.
AI Omformar Militär- och Försvarssektorn
Lanseringen av Project Maven, eller som vissa kanske kallar det, ”när den amerikanska regeringen insåg att stora språkmodeller kan vara extremt användbara i krigsföring,” avslöjade en av anledningarna till varför den amerikanska regeringen är intresserad av AI.
AI-systemens förmåga att bearbeta massiva mängder data, identifiera objekt på slagfältet och analysera bilder är särskilt attraktiva inom försvarssektorn.
Förbättrade analyser, utöver mänskliga kapabiliteter
Sedan 2022 har både Ukraina och Ryssland integrerat AI-system i sina militära operationer.
Den ukrainska regeringen har inlett samarbeten med teknikföretag och implementerat flera strategier för att dra nytta av stora språkmodeller till fullo. Nyligen bearbetade de 2 miljoner timmars stridsfilmsmaterial—motsvarande 228 års video—för att träna AI-modeller för militära processer. Hur många människor skulle de behöva för att analysera så mycket data?
”Det här är mat för AI: Om du vill undervisa en AI, ger du den 2 miljoner timmar (av video), den kommer att bli något övernaturligt,” förklarade grundaren av det ideella digitala systemet OCHI, Oleksandr Dmitriev. Materialet kan optimera vapenprestanda och hjälpa till att förbättra stridstaktik.
Ett annat AI-system, Avengers, är den AI-drivna intelligensplattformen som utvecklats av Ukrainas försvarsministeriums innovationscenter, som bearbetar direktsända videor från drönare och identifierar upp till 12 000 fiendestyrkor varje vecka.
Drönare: En het handelsvara på slagfältet
Droner på slagfältet – ofta kallade ”dödsmaskiner” – är för närvarande bland de mest värdefulla teknologierna inom modern krigföring på grund av deras autonomi, precision och låga kostnad. Dessa robotar gör det möjligt för krigförande nationer att utföra högintensiva attacker utan att riskera mänskliga piloter och till en bråkdel av den traditionella kostnaden.
I maj i år hade Ryssland utplacerat över 3,000 Veter kamikazedroner i Ukraina. Dessa system kan identifiera mål och utföra attacker autonomt.
För bara några dagar sedan, utplacerade ukrainska soldater Gogol-M-dronen, en ”moderskepps”-drone som kan resa upp till 300 kilometer, bära andra drönare, undvika radar genom att flyga på låga höjder och skanna marken under den för att upptäcka och attackera fiendetrupper.
Enligt The Guardian, kostar varje attack med denna kraftfulla drone runt $10,000, medan ett missilsystem som använder något äldre teknik skulle ha kostat mellan $3 och $5 miljoner.
Det helt nya startup-företaget Theseus lyckades snabbt samla in $4,3 miljoner efter att dess unga grundare delade ett inlägg på sociala medieplattformen X förra året, där de berättade att de hade byggt en drönare för mindre än $500 som kunde flyga utan en GPS-signal.
vi designade, 3D-printade och byggde en <$500-drönare som beräknar GPS-koordinater utan signal genom att använda en kamera + Google Maps
på 24h pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 18 februari 2024
Även om drontekniken ännu inte är så exakt som vissa utvecklare hoppas på – särskilt när den påverkas av väderförhållanden som minskar dess ”synlighet” – har den visat stor potential inom sektorn.
En svårnådd global konsensus
Det är inte bara krigförande länder eller världens stora makter som utvecklar nya AI-drivna tekniker för försvar. Många nationer har integrerat AI i sina ansträngningar när det gäller cybersäkerhet och utveckling av autonoma vapen i flera år. Detta är inte bara ett fenomen för 2025.
Sedan 2014 har Förenta Nationerna försökt komma överens om regelverk med flera nationer, utan framgång.
Över 90 nationer samlades nyligen vid FN:s generalförsamling i New York för att diskutera framtiden för AI-styrda autonoma vapen och deras reglering. De kom inte till någon konsensus, och generalförsamlingen har bara antagit en icke-bindande resolution från 2023, vilken varnar för behovet att ta itu med dödliga autonoma vapensystem (LAWS).
Den stora debatten just nu handlar om huruvida man ska införa ett globalt ramverk eller inte. Många länder är överens om behovet av nya globala riktlinjer som kan reglera privata AI-företag och nationer. Andra länder, som till exempel USA, Kina, Ryssland och Indien, föredrar att behålla de nuvarande internationella lagarna och oberoende skapa nya för varje nation enligt deras lokala behov – eller intressen. Och vi har just bevittnat hur kaotisk processen att skapa nya AI-regler var, även på statsnivå i Kalifornien.
Teknikföretag Mer Och Mer Inblandade
Aktivister som Laura Nolan från Stop Killer Robots är oroade över bristen på säkerhetsåtgärder och juridiska ramverk som kontrollerar teknikföretagens framsteg i utvecklingen av autonoma vapen och AI-programvara för militären.
”Vi litar generellt inte på att industrier självreglerar … Det finns ingen anledning till varför försvars- eller teknikföretag skulle vara mer förtroendeingivande,” sa Nolan till Reuters.
År 2024 avslöjade forskare att kinesiska institutioner har använt Metas öppna språkmodell Llama för militära ändamål. Pentagon nådde en överenskommelse med Scale AI för att utveckla Thunderforge—ett AI-projekt för att modernisera militära beslutsprocesser. Och OpenAI samarbetade med militärleverantören Anduril—en försvarsallierad till USA:s militär, Storbritannien, Ukraina och Australien.
Försvarsstartups har också vuxit i Europa, och vinner mark inte bara i utvecklingen av nya teknologier och projekt utan också i att attrahera toppbegåvning.
En komplicerad utveckling
En annan faktor som är nära knuten till teknikföretagens engagemang i nationella försvarsstrategier är nationalism. Allt fler mjukvaruutvecklare och AI-experter väljer att arbeta på projekt som stämmer överens med deras ideal och kulturella rötter snarare än att bara jaga högre löner. Vissa har till och med tackat nej till jobb i USA som erbjöd dubbelt betalt – som Google eller OpenAI – för att istället gå med i europeiska företag som Helsing, till exempel.
Politikens, teknologins, nationalismens och ideologiska stridernas trådar blir alltmer sammantvinnade – ofta lämnar de etiska, moraliska och humanistiska övervägandena i bakgrunden.
Senaste händelserna gör det klart att teknikjättar spelar en enorm roll i militära och försvarsinsatser runt om i världen. Utvecklingen av autonoma vapen och krigsrelaterade teknologier går framåt i en ultra-snabb takt, medan Förenta Nationernas försök att etablera internationella avtal och regler för mänsklighetens framtid tycks bli allt mer förminskade.
Utan internationella överenskommelser – och med ambitiösa teknikföretag som stöds av regeringar för att utveckla världens mest kraftfulla vapen med hjälp av AI – vad innebär framtiden för mänskligheten i de kommande åren?