Na Visokom učilištu Algebra u Zagrebu održana je radionica “Can there be a marriage between AI regulation and innovation globally?”, u organizaciji britanskog Veleposlanstva i u suradnji s Hrvatskom udrugom za umjetnu inteligenciju (CroAI).
Razgovarali smo s Paulom Duncanom iz britanskog National Physical Laboratoryja (NPL) i Chrisom Thomasom iz Alan Turing instituta, dvojicom vodećih stručnjaka za pouzdanu umjetnu inteligenciju i standardizaciju AI sustava. Duncan, fizičar i metrolog, bavi se razvojem mjerljivih kriterija povjerenja u umjetnu inteligenciju, dok Thomas, istraživač i savjetnik britanske vlade, proučava kako zakonski i etički okviri mogu pratiti brzi razvoj umjetne inteligencije.
U razgovoru za Poslovni dnevnik istaknuli su da “nije poanta u savršenim podacima, nego u razumijevanju jesu li podaci dovoljno dobri za odluke koje donosimo” te upozorili da demokratizacija umjetne inteligencije, iako zdrava,zahtijeva jasne mehanizme odgovornosti i provjere.
Kako britanski stručnjaci vide budućnost umjetne inteligencije, koje rizike smatraju najopasnijima i zašto tvrde da “neutralan algoritam ne postoji”, pročitajte u nastavku intervjua za Poslovni dnevnik.
Umjetna inteligencija postoji desetljećima, no tek je u posljednjih nekoliko godina doživjela globalni procvat bez presedana. Zašto baš sada?
Paul: Godinama je umjetna inteligencija živjela u istraživačkim laboratorijima i uskim stručnim primjenama. Promijenile su se tri stvari: znatno veća računalna snaga, ogromne količine digitalnih podataka i, što je ključno, veliki jezični modeli obavijeni jednostavnim korisničkim sučeljima. Ta je kombinacija izvukla umjetnu inteligenciju iz laboratorija i uvela je u svakodnevni život.
Chris: Slažem se. Osim računalne snage i podataka, pravi katalizator bio je UX – korisničko iskustvo. Sučelja nalik chatu snizila su ulaznu barijeru. Umjetna inteligencija prestala je biti alat za stručnjake i postala nešto što svatko može isprobati.

Sve je više alata koje svatko može izraditi ili prilagoditi kod kuće, od chatbotova do algoritama koji analiziraju dječje fotografije. Trebamo li se bojati te “demokratizacije umjetne inteligencije” ili je to zapravo zdrava faza u razvoju tehnologije?
Paul: I jedno i drugo. Demokratizacija stvara vrijednost, ali otkriva i nevidljive rizike koji se pojavljuju tek kad tehnologija postane masovna. U radiologiji, primjerice, prepuštanje “nižih” zadataka sustavima ponekad povećava kognitivno opterećenje liječnika i pogoršava njihovo donošenje odluka. Takve učinke otkrijemo tek u stvarnoj primjeni.
Chris: Demokratizacija je pozitivna, ali uz mehanizme provjere i ravnoteže. Širi pristup znanju i alatima zdrav je razvojni korak, ali mora biti popraćen odgovornošću, nadzorom i standardima.
Često se kaže da svaka velika tehnologija prolazi kroz tri faze: oduševljenje, zloporabu i zrelost. U kojoj je fazi danas umjetna inteligencija i kako bi, po vašem mišljenju, izgledala njezina prava zrelost?
Paul: Nalazimo se između zloporabe i zrelosti. Prava zrelost nastupit će kad društvo bude znalo koliko su odluke AI sustava pouzdane, kad budemo vidjeli brojke, stupanj nesigurnosti i granice primjene, tako da umjetnu inteligenciju više ne doživljavamo kao magiju.
Chris: Zrelost nastupa kada tehnologija postane dio uobičajene infrastrukture. Povijesno gledano, kad se sustav jednom ukorijeni, prestajemo ga nazivati “AI-jem”. To je znak da smo ga uistinu integrirali.
Umjetna inteligencija uči iz podataka, no mnogi zapravo ne razumiju što to znači. Kako taj proces učenja izgleda u praksi – što sustav doista nauči, a što samo oponaša?
Paul: U tipičnom strojnom učenju od modela tražite da izvuče značajke i obrasce koje mu sami zadate, a zatim ga testirate na novim podacima kako biste izbjegli prenaučenost. On “uči” korelacije koje mu dopustite i oponaša ako mu dopustite da zapamti skup podataka na kojem je treniran.
Chris: Upravo tako. Ključno je pažljivo provjeravati model kako bismo znali da doista generalizira, a ne da samo ponavlja naučeno.
Mnogi zamišljaju umjetnu inteligenciju kao nešto što “misli”, iako zapravo djeluje kroz vjerojatnosti i obrasce. Kako biste običnom čitatelju objasnili da “predikcija” nije isto što i istinsko “razumijevanje”?
Paul: Veliki jezični modeli zapravo su prediktori sljedeće riječi. Koriste prošle obrasce kako bi odabrali najvjerojatniji nastavak. To nije uvid ni kritičko mišljenje, to je statističko slaganje uzoraka.
Chris: A “mišljenje” podrazumijeva pojmove i samorefleksiju. Današnji modeli su statistički sustavi, a ne entiteti s pravim razumijevanjem.
Iz perspektive potrošača, kako netko tko nije stručnjak može prepoznati kvalitetan AI sustav od onoga koji je loše dizajniran ili potencijalno štetan?
Paul: Treba tražiti transparentne pokazatelje: točnost, preciznost, stupanj nesigurnosti, porijeklo podataka i objašnjenje načina donošenja odluka. Bez brojki – ne vjerujte.
Chris: Uz to, ključne su pouzdane institucije, neovisna certifikacija i odgovornost, kao u sigurnosti hrane. Ljudi ne bi trebali sami procjenjivati svaki alat; to moraju činiti sustavi jamstva.
Kao stručnjak za pouzdanu umjetnu inteligenciju, kako vidite ravnotežu između brzine inovacija i potrebe za strogim sigurnosnim i etičkim provjerama?
Paul: To ovisi o području primjene i razini rizika. Ako nogometni klub koristi AI za marketinške slike, rizik je nizak; ali za kirurške preporuke potrebna je neovisna provjera i snažni dokazi. Treba se kretati brzo, ali razinu strogosti uskladiti s rizikom.
Chris: Dobra inovacija po definiciji je sigurna i pravedna. Suprotstavljanje sigurnosti i inovacija lažna je dihotomija – učinkoviti sustavi pouzdano rade za sve ljude, a ne samo za uzorak na kojem su trenirani.
Djeca postupno uče kritičkom mišljenju i socijalnim vještinama kroz knjige i rasprave. Smatrate li da bi učenici i studenti trebali koristiti AI alate, primjerice za pisanje eseja ili sažetaka, ili bismo trebali zadržati tradicionalniji pristup učenju? Gdje je granica između praćenja novih trendova i gubitka prirodne sposobnosti kritičkog rasuđivanja?
Paul: Treba koristiti alate, ali s granicama. Oni su izvrsni pomoćnici, ali ne mogu zamijeniti učenje temeljnih principa. Učenje zahtijeva napor i strukturu; umjetna inteligencija ne smije presjeći taj proces.
Chris: Treba učenike naučiti kako učinkovito koristiti umjetnu inteligenciju. Neka sami napišu esej, a zatim upotrijebe chatbot kao “kritičkog prijatelja” koji će recimo osporiti njihove argumente, uz razumijevanje pojmova poput halucinacija i važnosti provjere činjenica.
Postoji li uopće takvo što kao “neutralan algoritam”? Ili svaki sustav, svjesno ili nesvjesno, odražava svjetonazor i pristranosti svojih tvoraca? Uostalom, ne dobivamo iste odgovore od ChatGPT-ja, Perplexityja ili Geminija.
Paul: Ne postoji neutralan algoritam. Podaci i modeli nose urođene pristranosti – namjerne ili nenamjerne. Neutralnost je mit. Pravednost se mora konstruirati.
Chris: Upravo tako. Zato je potrebno ugraditi mjerenje i smanjivanje pristranosti u sam razvoj.
S obzirom na trenutačnu brzinu razvoja umjetne inteligencije i kvantnog računarstva, je li realno očekivati da neki zakon ili propis ostane relevantan dulje od nekoliko godina?
Chris: Mnogi će propisi brzo zastarjeti. Potrebna nam je agilna regulativa temeljena na načelima, uz standarde i smjernice koji se brže ažuriraju. Europski AI Akt već se morao prilagoditi temeljnim modelima, to će se ponavljati i s budućim AI agentima.
Svjedočimo ubrzanoj utrci među tvrtkama da lansiraju sljedeći veliki AI iskorak, često pod motom “bolje da to učinimo mi nego netko drugi”. Može li taj pristup ugroziti kvalitetu i povjerenje javnosti u AI tehnologije?
Paul: Može. Jedan veliki, medijski istaknuti neuspjeh može narušiti povjerenje u cijelo područje. Potrebno je balansirati brzinu s transparentnim upravljanjem rizicima i edukacijom korisnika.
Paul: Umjetna inteligencija donosi ogromne koristi, ali samo ako ih uravnotežimo iskrenim razumijevanjem rizika i nesigurnosti.
Chris: Krenimo od vrijednosti i ciljeva. Odlučimo kakvu budućnost želimo i gdje AI doista može pomoći: pravedno, transparentno i odgovorno.

							