
Jezični modeli uvjetovani su za opasnost od divljih nagađanja, umjesto da priznaju neznanje, utvrdila je studija
Tvrtka koja stoji iza chatgpta riješila se trajnim problemom modela umjetne inteligencije ‘generirajući uvjerljive, ali lažne izjave koje naziva “Halucinacije”.
U izjavi u petak, OpenAi je objasnio da se modeli obično potiču na nagađanje, koliko god nevjerojatno, za razliku od priznavanja da ne mogu odgovoriti na pitanje.
Pitanje se može pripisati temeljnim načelima “Standardni postupci obuke i evaluacije”, Tvrtka je dodala.
Openai je otkrio da su slučajevi u kojima su jezični modeli “Povjerenje generira odgovor koji nije istinit” nastavili su mučiti još novije, naprednije iteracije, uključujući njegov najnoviji vodeći GPT -5 sustav.
Prema nalazima nedavne studije, problem je ukorijenjen u načinu na koji se performanse jezičnih modela obično ocjenjuju, a model nagađanja rangiran je viši od pažljivog koji priznaje neizvjesnost. Prema standardnim protokolima, AI sustavi saznaju da je neuspjeh u generiranju odgovora siguran način da se na testu dobiju nula bodova, dok se neutemeljena nagađanja može samo pokazati ispravnim.
Pročitajte više: Je li nas AI sve ludila?
“Popravljanje bodovnih ploča može proširiti usvajanje tehnika smanjenja halucinacije”, “ Izjava je zaključila, priznajući, međutim, da “Točnost nikada neće doseći 100% jer, bez obzira na veličinu modela, mogućnosti pretraživanja i rasuđivanja, neka su pitanja u stvarnom svijetu svojstveno neodređena.”
