Američka vojska sve više koristi umjetnu inteligenciju – a projekt Maven je u njenom srcu.
Istraga od strane The Independent i skupina za praćenje sukoba Airwars otkrili su da je Abdul-Rahman al-Rawi, 20-godišnji student, prvi civil ubijen u nizu zračnih napada za koje je priznato da su izvedeni uz pomoć AI-ja.
Nekoliko tjedana nakon napada u Iraku početkom veljače 2024., viši američki dužnosnik hvalio se upotrebom umjetne inteligencije za pomoć u identificiranju ciljeva u tim napadima – ali Središnje zapovjedništvo SAD-a kasnije je reklo da “ne zna” je li umjetna inteligencija bila uključena.
AI u ratovanju postaje sve gorući problem.
Smrtonosni američki napadi diljem Irana, koji su ubili stotine u prošlom tjednu, navodno su koristili Palantir’s Maven Smart System (MSS) za identifikaciju ciljeva, širi sustav za potporu odlučivanju u ratovanju omogućen AI u koji je projekt Maven obično integriran.
Činjenica da SAD možda ne bilježi svoju upotrebu umjetne inteligencije u pojedinačnim zračnim napadima postavlja pitanja o odgovornosti u Iranu, gdje sve više dokaza ukazuje na odgovornost SAD-a u napadu na školu Minab za koji vlasti kažu da je ubio više od 165 ljudi, od kojih su većina bili studenti.
Kampanja bombardiranja je toliko intenzivna da su u prvih 100 sati SAD i Izrael objavili da su pogodili više ciljeva u Iranu nego u prvih šest mjeseci bombardiranja Koalicije predvođene SAD-om protiv ISIS-a, pokazala je analiza Airwarsa.
“Država ima odgovornost znati je li koristila umjetnu inteligenciju u bilo kojem od svojih napada”, rekla je Jessica Dorsey, profesorica međunarodnog prava koja se specijalizirala za ratovanje umjetnom inteligencijom na Sveučilištu u Utrechtu.
“Zapovjednici bi trebali imati pristup obavještajnim podacima na kojima se temelje njihovi napadi kako bi izravno ispitivali metu i osigurali pozitivnu identifikaciju.”
The Independent i Airwars pogledajte što je zapravo Project Maven – i zašto su neki stručnjaci toliko zabrinuti oko toga kamo bi AI ratovanje moglo krenuti.
Što je Project Maven?
Osnovan od strane Pentagona 2017., Algoritamski ratni križni funkcionalni tim – poznatiji kao Projekt Maven – usvojila je Nacionalna geoprostorna agencija (NGA), a koristi algoritme računalnog vida za lociranje i identifikaciju ciljeva iz satelitskih slika, videa i radara za otkrivanje kretanja i praćenje ciljeva.
Projekt Maven doživio je svoju prvu veću implementaciju nakon ruske invazije na Ukrajinu 2022., iako je ukrajinskim snagama pružena osnovna verzija za pomoć pri identificiranju ruskih vojnih vozila, ljudi i zgrada.
Međutim, Maven je postigao mješovite rezultate. Poznato je da snijeg, gusto lišće i mamci ometaju njegove sposobnosti. A na pustinjskom terenu kao što je zapadni Irak, gdje vremenski uvjeti mogu naglo promijeniti krajolik, Mavenova točnost može pasti ispod 30 posto, rekli su američki dužnosnici Bloomberg.
Maven je sada dostupan svim američkim službama i borbenim zapovjedništvima, a od napada 2024. njegova se korisnička baza više nego učetverostručila, rekao je tadašnji direktor NGA viceadmiral Frank Whitworth u prošlogodišnjem govoru.
Trenutno je u stanju dati 1000 preporuka za ciljanje u sat vremena, “odabir i odbacivanje ciljeva na bojnom polju”, objasnio je.
Mjesec dana kasnije, Whitworth je priznao da NGA koristi umjetnu inteligenciju toliko rutinski da je stvorio standardiziranu objavu za Intelove proizvode generirane umjetnom inteligencijom: “Želimo to koristiti za sve, ne samo za ciljanje.”
Projekt Maven obično je integriran u širi Maven Smart System, sustav za ratovanje s AI-om, kako bi se ubrzale odluke američke vojske o ciljanju.
Palantirov MSS, koji koristi Anthropicov Claude AI, trenutačno je raspoređen od strane SAD-a kao pomoć u ciljanju u Iranu.
MSS skuplja sve podatke sa satelita, dronova, obavještajna izvješća i radarske signale. Claude iz Anthropica zatim analizira te podatke kako bi dao ciljne preporuke i predložio koju vrstu sile koristiti.
Upotreba Mavena raste – kao i neslaganje protiv njega
“Postat ćemo ‘AI-first’ borbena sila u svim domenama,” izjavio je američki ministar obrane Pete Hegseth u siječnju, obećavajući da ćemo “osloboditi eksperimentiranje” i “ukloniti birokratske prepreke”.
Nakon napada na Irak 2024., glavni tehnološki časnik Središnjeg zapovjedništva SAD-a Schuyler Moore rekao je Bloomberg da je “korist koju imate od algoritama brzina”.
Međutim, s brzinom je došla sve veća zabrinutost oko toga da ljudi koji sudjeluju u donošenju odluka rade tek nešto više od preporuka koje daje umjetna inteligencija.
Skupina stručnjaka upozorila je u podnesku UN-u iz travnja 2025. da trenutni okviri ne rješavaju “duboke rizike” koje ciljanje potpomognuto umjetnom inteligencijom poput Projekta Maven predstavlja za međunarodno humanitarno pravo i ljudsku prosudbu pri ciljanju.
Ovu zabrinutost ponovili su i tehnološki radnici koji se protive uključivanju svojih tvrtki u sustave inicijativa umjetne inteligencije za ratovanje.
U početku ključni igrač u projektu Maven, prosvjedi i ostavke Googleovih zaposlenika protiv umiješanosti tvrtke u umjetnu inteligenciju u smrtonosne svrhe doveli su do izlaska tvrtke iz projekta.
Palantir je uskočio da popuni prazninu, interno nazivajući projekt ‘Tron’, prema filmu iz 1982. u kojem je računalni inženjer prebačen u digitalni svijet.
Otkrića da je Claude AI korišten u američkom napadu na Venezuelu u siječnju dovela su do napetosti između njegovog proizvođača, Anthropica, i Ministarstva rata.
Anthropic ne dopušta da se njegovi AI sustavi postavljaju za masovni domaći nadzor ili potpuno autonomno oružje, te je odbio pritiske da se povuče.
U kaznenom potezu od 5. ožujka, Pentagon je označio Anthropic kao “rizik lanca opskrbe” s velikim posljedicama za tvrtku.
“Američki ratnici … nikada neće biti taoci neizabranih tehničkih rukovoditelja i ideologije Silicijske doline. Mi ćemo odlučiti, mi ćemo dominirati i mi ćemo pobijediti”, rekao je tajnik Pentagona Kingsley Wilson.
Zašto su stručnjaci toliko zabrinuti?
Govoreći s The IndependentProf. Dorsey i dr. Elke Schwarz, koja je slično specijalizirala na London School of Economics, izrazili su nekoliko zabrinutosti. Obojica su bili među stručnjacima koji su prošle godine upozorili na rizike ciljanja uz pomoć umjetne inteligencije.
U središtu toga bila su dva kritična problema: algoritamska pristranost i de-vještina ljudi.
“Kriterij koji su SAD koristile u prošlosti je ‘vojno sposoban muškarac’. Ne možete samo tako ubijati vojno sposobne muškarce”, rekao je profesor Dorsey.
“I možda su u algoritmu računalnog vida, možda su programirali nešto poput nošenja oružja. Ali nošenje oružja nije nešto što bi vas trebalo osuditi na smrt.”
“Ako nemate dovoljno točnih, pouzdanih ili ažurnih podataka, vaš će sustav biti ranjiv i manjkav, a to samo po sebi sadrži potencijal za štetu. Veliki je izazov, doista, to što su brzina i opseg prioritet”, rekao je dr. Schwarz.
“Brzina i razmjer najvažniji su u ovakvim sustavima, a to ubrzava radni lanac. To je privlačnost, to je zavodljivi dio sustava.”
Izraelska ofenziva u Gazi uključivala je platformu za stvaranje meta potpomognutu umjetnom inteligencijom nazvanu ‘Evanđelje’ koja proizvodi potencijalne mete tako brzo da su je neki izraelski časnici usporedili s “tvornicom masovnih ubojstava”.
Drugi izraelski alat za identifikaciju ciljeva koji pokreće umjetna inteligencija, nazvan Lavender, u jednoj je fazi identificirao 37.000 potencijalnih meta na temelju njihovih očitih veza s Hamasom i Islamskim džihadom.
Rekao je jedan izvor izraelske obavještajne službe The Guardian uloga ljudi koji su nadgledali Lavenderin odabir meta bila je minimalna: “Uložio bih 20 sekundi za svaku metu u ovoj fazi, i radio bih ih na desetke svaki dan. Nisam imao nikakvu dodanu vrijednost kao čovjek, osim što sam bio pečat odobrenja.”
Profesor Dorsey također je upozorio na rizik od “automatske pristranosti”, u kojoj ljudi počinju vjerovati izlazu računala bez da sami kritički procijene metu.
Budući da se vojske sve više oslanjaju na ciljanje potpomognuto umjetnom inteligencijom, ona je tvrdila da će osoblje početi prebacivati vlastite odgovornosti na strojeve. “Smanjujemo vještinu. Zapovjednici postaju sve manje dobri u prepoznavanju onoga što su odgovorni učiniti na bojnom polju.”
“Ljudi imaju tendenciju ne dovoditi u pitanje odluke koje donose računalni rezultati”, dodao je dr. Schwarz.

