Stručnjaci se brinu da će teroristi pronaći nove i problematične načine korištenja umjetne inteligencije (AI), uključujući nove metode dostave eksploziva i poboljšanje svojih inicijativa za novačenje na mreži.
“Stvarnost je da umjetna inteligencija može biti iznimno opasna ako se koristi sa zlonamjernom namjerom”, napisala je Antonia Marie De Meo, direktorica Međuregionalnog istraživačkog instituta Ujedinjenih naroda za zločin i pravdu, u izvješću koje se bavi time kako bi teroristi mogli koristiti umjetnu inteligenciju.
“S dokazanim iskustvom u svijetu kibernetičkog kriminala, to je moćan alat koji bi se mogao zamisliti upotrijebiti za daljnje olakšavanje terorizma i nasilnog ekstremizma koji pogoduje terorizmu”, dodala je, navodeći samovozeće automobile bombe, pojačavanje kibernetičkih napada ili pronalaženje lakših putova za širenje govora mržnje ili poticanje nasilja na internetu.
Izvješće, “Algoritmi i terorizam: Zlonamjerna upotreba umjetne inteligencije u terorističke svrhe”, zaključuje da će policija morati ostati na vrhuncu AI-ja.
TOM HANKS IZDAJE UPOZORENJE O AI REKLAMAMA ZA ‘ČUDESNE LIJEKOVE’: ‘NEMOJTE SE DATI PREVARITI’
“Naša je težnja da (ovo izvješće) bude početak razgovora o zlonamjernom korištenju umjetne inteligencije u terorističke svrhe”, napisao je De Meo.
U izvješću se navodi da će se zadatak biti ispred terorista i predviđanja kako mogu koristiti AI pokazati tvrdoglavim zadatkom jer od njih zahtijeva ne samo razmišljanje o načinima korištenja AI-a koje nitko prije nije razmatrao, već i da shvate kako spriječiti nekoga da upotrijebi tu metodu.
Izvješće podupire studiju iz suradnje između NATO COE-DAT-a i Instituta za strateške studije Ratnog koledža američke vojske, “Tehnologije u razvoju i terorizam: američka perspektiva”, koja tvrdi da “terorističke skupine iskorištavaju ove alate za novačenje i napade. ”
ROBOT SA 6 KOTAČA KOJI PROVJERAVA OPASNE SITUACIJE DA LJUDI TO NE MORAJU
“Granica između stvarnosti i fikcije zamagljuje se u doba brze tehnološke evolucije, potičući vlade, industrije i akademsku zajednicu da se ujedine u izradi etičkih okvira i propisa”, napisali su autori u nastavku.
“Kako se geopolitičke plime mijenjaju, NATO naglašava nacionalnu odgovornost u borbi protiv terorizma i zagovaranju kolektivne snage protiv nadolazećeg spektra tehnoloških prijetnji”, dodali su autori.
STRUČNJACI UPOZORAVAJU DA BI AI MOGAO PROIZVESTI ‘VELIKE EPIDEMIJE ILI ČAK PANDEMIJE’ – ALI KOLIKO BRZO?
Studija bilježi opću upotrebu OpenAI-jevog ChatGPT-a za “poboljšanje phishing e-pošte, postavljanje zlonamjernog softvera u knjižnice otvorenog koda, širenje dezinformacija i stvaranje online propagande.”
“Kiberkriminalci i teroristi brzo su postali vješti u korištenju takvih platformi i općenito velikih jezičnih modela za stvaranje deepfakeova ili chatbota smještenih na mračnom webu za dobivanje osjetljivih osobnih i financijskih podataka ili za planiranje terorističkih napada ili regrutiranje sljedbenika”, napisali su autori.
“Ova će se zlonamjerna uporaba vjerojatno povećati u budućnosti kako modeli budu postajali sofisticiraniji”, dodali su. “Način na koji se osjetljivi razgovori i internetska pretraživanja pohranjuju i distribuiraju preko AI platformi ili putem velikih jezičnih modela zahtijevat će više transparentnosti i kontrola.”
Ranije ove godine, West Pointov centar za borbu protiv terorizma objavio je istraživanje na tu temu, usredotočujući se na sposobnost poboljšanja sposobnosti planiranja terorističkih napada, nadilazeći puko poboljšanje onoga što već rade.
ŠTO JE UMJETNA INTELIGENCIJA (AI)?
“Konkretno, autori su istraživali potencijalne implikacije naredbi koje se mogu unijeti u ove sustave koje učinkovito ‘jailbreak’ model, dopuštajući mu da ukloni mnoge svoje standarde i politike koje sprječavaju osnovni model da pruža ekstremistički, ilegalni ili neetički sadržaj “, objasnili su autori u svom sažetku.
“Koristeći višestruke račune, autori su istraživali različite načine na koje bi ekstremisti potencijalno mogli upotrijebiti pet različitih velikih jezičnih modela kako bi podržali svoje napore u obuci, provođenju operativnog planiranja i razvoju propagande.”
KLIKNITE OVDJE ZA PREUZIMANJE APLIKACIJE FOX NEWS
Njihovo testiranje pokazalo je da je Bard najotporniji na jailbreaking — ili zaobilaženje zaštitnih ograda — a slijede ga svaki od ChatGPT modela. Uglavnom, pronašli su neizravne upute relativno dovoljne za bjekstvo iz zatvora u više od polovice slučajeva.
Studija je pokazala da zaštitne ograde za bijeg iz zatvora trebaju stalnu reviziju i “povećanu suradnju između privatnog i javnog sektora”, uključujući akademsku zajednicu, tehnološke tvrtke i sigurnosnu zajednicu.