Nova metoda za prepoznavanje AI halucinacija predstavljena

Današnji generativni AI alati kao što je ChatGPT imaju problem: često samopouzdano iznose netočne informacije.

25. 06. 2024. 15:15
Eulerpool News 25. lip 2024. 15:15

Jedan od stalnih izazova kod današnjih generativnih umjetnih inteligencija (UI) poput ChatGPT-a je taj što često samouvjereno iznose netočne informacije. Ovo ponašanje, koje računalni znanstvenici nazivaju "halucinacija", predstavlja značajnu prepreku korisnosti UI.

Halucinacije su već dovele do nekoliko neugodnih javnih incidenata. U veljači je Air Canada bila primorana sudskom odlukom priznati popust koji je njegov chatbot za korisničku službu greškom ponudio jednom putniku.

Im Mai musste Google Änderungen an seiner neuen Suchfunktion „AI Overviews“ vornehmen, nachdem der Bot einigen Nutzern mitgeteilt hatte, es sei sicher, Steine zu essen.

Google je u svibnju morao izvršiti promjene u svojoj novoj funkciji pretraživanja "AI Overviews" nakon što je bot nekim korisnicima rekao da je sigurno jesti kamenje.

I prošlog lipnja, dva odvjetnika osuđena su od strane američkog suca na novčanu kaznu od 5.000 dolara nakon što je jedan od njih priznao da je koristio ChatGPT za pomoć pri izradi tužbe. Chatbot je u podnesak ubacio lažne citate koji su se pozivali na nepostojeće slučajeve.

Dobre vijesti za odvjetnike, divove u pretraživačima i zrakoplovne kompanije: barem neke vrste AI halucinacija uskoro bi mogle postati prošlost. Novo istraživanje objavljeno u srijedu u znanstvenom časopisu Nature opisuje novu metodu otkrivanja AI halucinacija.

Metoda je u stanju razlikovati točne i netočne odgovore generirane umjetnom inteligencijom u oko 79 posto slučajeva – oko deset postotnih bodova više od drugih vodećih metoda. Iako metoda adresira samo jedan od uzroka halucinacija umjetne inteligencije i zahtijeva otprilike deset puta više računalne snage od standardne konverzacije s chatbotom, rezultati bi mogli otvoriti put prema pouzdanijim sustavima umjetne inteligencije.

„Moj cilj je otvoriti načine za korištenje velikih jezičnih modela tamo gdje se trenutno ne koriste – gdje je potrebna veća pouzdanost nego što je trenutno dostupna“, kaže Sebastian Farquhar, jedan od autora studije i viši znanstveni suradnik na Odsjeku za informatiku Sveučilišta Oxford, gdje je istraživanje provedeno.

Farquhar je također istraživač u sigurnosnom timu Google DeepMind-a. O odvjetniku koji je kažnjen zbog halucinacije ChatGPT-a, Farquhar kaže: "Ovo bi mu pomoglo.

Pojam „halucinacija“ dobio je na značaju u svijetu umjetne inteligencije, ali je također kontroverzan. Implicira da modeli imaju neku vrstu subjektivnog doživljavanja svijeta, što većina informatičara negira. Također sugerira da su halucinacije rješiva osobina, a ne temeljni problem velikih jezičnih modela. Farquharov tim usmjerio se na specifičnu kategoriju halucinacija koje oni nazivaju „konfabulacije“.

Ovo se događa kada KI model daje nedosljedne netočne odgovore na činjenično pitanje, za razliku od dosljednih netočnih odgovora koji su vjerojatnije uzrokovani problemima s podacima za treniranje modela ili strukturalnim pogreškama u logici modela.

Metoda za prepoznavanje konfabulacija je relativno jednostavna. Prvo se od chatbota traži da daje više odgovora na isti unos. Zatim istraživači koriste drugi jezični model kako bi grupirali te odgovore prema njihovom značenju.

Istraživači zatim izračunavaju pokazatelj koji nazivaju „semantička entropija“ – mjeru sličnosti ili razlike u značenju odgovora. Visoka semantička entropija upućuje na to da model konfabulira.

Metoda za otkrivanje semantičke entropije nadmašila je druge pristupe otkrivanju AI halucinacija. Farquhar ima nekoliko ideja kako bi semantička entropija mogla pomoći u smanjenju halucinacija kod vodećih chatbota.

Vjeruje da bi to teoretski moglo omogućiti dodavanje gumba OpenAI-u, pomoću kojeg bi korisnici mogli ocijeniti pouzdanost odgovora. Metoda bi se također mogla integrirati u druge alate koji koriste KI u visoko osjetljivim okruženjima, gdje je točnost presudna.

Während Farquhar optimistisch ist, warnen einige Experten davor, die unmittelbare Wirkung zu überschätzen. Arvind Narayanan, Professor für Informatik an der Princeton University, betont die Herausforderungen bei der Integration dieser Forschung in reale Anwendungen.

Dok Farquhar je optimističan, neki stručnjaci upozoravaju da ne treba precjenjivati neposredni učinak. Arvind Narayanan, profesor informatike na Princetonskom sveučilištu, ističe izazove pri integriranju ovih istraživanja u stvarne primjene.

Ukazuje na to da halucinacije predstavljaju temeljni problem funkcioniranja velikih jezičnih modela te da je malo vjerojatno da će taj problem biti potpuno riješen u bliskoj budućnosti.

Učini najbolje investicije svog života
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Od 2 eura osigurajте

Novosti