Generativna umjetna inteligencija (GUI) u samo nekoliko sekundi stvara, sažima i pohranjuje ogromne količine podataka i dokumenata, štedeći zaposlenicima dragocjeno vrijeme i trud, a tvrtkama značajne svote novca. No, ništa nije besplatno. Prema pisanju portala Daily Mail Online, s nekontroliranim i neodobrenim korištenjem neprovjerenih AI alata poput ChatGPT-a i Copilota, raste i rizik od nenamjernog curenja poslovnih tajni ili osjetljivih osobnih podataka, kao što su plaće ili zdravstveni kartoni.
Ovaj skriveni i uglavnom zanemareni rizik od ozbiljnih povreda podataka proizlazi iz zadane sposobnosti AI modela da snimaju i arhiviraju povijest razgovora. Ti se podaci koriste kako bi se umjetna inteligencija “trenirala” za pružanje boljih odgovora u budućnosti. Jednom kada ti razgovori postanu dio baze znanja umjetne inteligencije, povrat ili brisanje podataka postaje gotovo nemoguće. “To je kao da stavljate brašno u kruh”, slikovito je objasnio Ronan Murphy, tehnološki poduzetnik i savjetnik za umjetnu inteligenciju irske vlade. “Jednom kad ste to učinili, vrlo ga je teško izvaditi.”
Ovo “strojno učenje” znači da bi se vrlo osjetljive informacije koje je AI apsorbirao mogle ponovno pojaviti kasnije ako ih zatraži netko sa zlonamjernim namjerama. Stručnjaci upozoravaju da je ova tiha i rastuća prijetnja takozvanog “AI-ja u sjeni” jednako opasna kao i ona koju već predstavljaju prevaranti, poput onih koji su nedavno ciljali Marks & Spencer, što je trgovački lanac koštalo 300 milijuna funti. M&S je postao žrtva “ransomware” napada, gdje su hakeri prevarili zaposlenike tvrtke da odaju lozinke i druge kodove.
No, kiberkriminalci također koriste povjerljive podatke koje su pohlepno “progutali” chatbotovi kako bi provalili u ranjive IT sustave. “Ako znate kako postaviti pravo pitanje, AI će otkriti sve tajne“, rekao je Murphy. Razmjeri problema su zabrinjavajući. Nedavno istraživanje pokazalo je da je gotovo svaki sedmi incident vezan uz sigurnost podataka povezan s generativnom umjetnom inteligencijom. Drugo istraživanje, koje je obuhvatilo 8.000 tvrtki diljem svijeta, otkrilo je da gotovo četvrtina njih daje svojim zaposlenicima neograničen pristup javno dostupnim AI alatima.
Time se povjerljivi podaci poput bilješki sa sastanaka, disciplinskih izvješća ili financijskih zapisa dovode u “ozbiljan rizik”, što “može navesti zaposlenike da nenamjerno šire prijetnje”, navodi se u izvješću tehnološkog diva Cisco. “To je kao izum interneta – tek je stigao i predstavlja budućnost – ali ne razumijemo što dajemo tim sustavima i što se događa iza kulisa”, izjavio je Ciscov stručnjak za kibernetičke prijetnje, Martin Lee.
Jedan od najpoznatijih “autogolova” u području kibernetičke sigurnosti posljednjih godina postigla je južnokorejska grupa Samsung. Elektronički div zabranio je zaposlenicima korištenje popularnih chatbotova nakon što je 2023. otkrio da je jedan od njihovih inženjera slučajno zalijepio tajni kod i bilješke sa sastanka na AI platformu.
Banke su također pooštrile mjere oko korištenja ChatGPT-a zbog regulatornih rizika s kojima se suočavaju zbog dijeljenja osjetljivih financijskih informacija. No, dok organizacije postavljaju zaštitne ograde, istovremeno ne žele propustiti priliku koja se možda pruža jednom u generaciji da steknu prednost pred konkurencijom.
“Vidimo da tvrtke jure s implementacijom umjetne inteligencije kao sredstvom za poboljšanje produktivnosti i održavanje koraka ispred konkurencije”, rekao je Ruben Miessen, suosnivač tvrtke za softver za usklađenost Legalfly. “Međutim, stvarni rizik leži u tome što nedostatak nadzora i internog okvira ostavlja podatke klijenata i osjetljive osobne informacije potencijalno izloženima.”
Rješenje, međutim, nije u ograničavanju upotrebe umjetne inteligencije. “Ključ je u omogućavanju njezine odgovorne primjene”, naglašava Miessen. Murphy se slaže: “Ili ćete reći ‘ne’ svemu ili ćete osmisliti plan kako to učiniti sigurno. Zaštita osjetljivih podataka nije seksi, dosadna je i dugotrajna.” Ali, zaključuje, ako se ne uspostave odgovarajuće kontrole, “posao hakera činite izuzetno lakim.