Нова методика за разпознаване на халюцинации при ИИ представена

Heуте генeрaтитивни инструмeнти за иzкуствен интeлeкт като ChatGPT имaт прoблeм: чeстo самоуверено давaт грeшнa информaция.

25.06.2024 г., 15:15 ч.
Eulerpool News 25.06.2024 г., 15:15 ч.

Една продължителна предизвикателство при съвременните генеративни изкуствени интелигенции (ИИ) като ChatGPT е, че те често с увереност заявяват неверни информации. Това поведение, което компютърните учени наричат ​​„халюцинация“, представлява съществено препятствие за полезността на ИИ.

Халюцинациите вече са довели до някои неудобни обществени инциденти. През февруари съд задължи Air Canada да признае отстъпка, която чатботът на обслужването на клиенти погрешно беше предложил на пътник.

През май Google трябваше да направи промени в новата си функция за търсене „AI Overviews“, след като ботът съобщи на някои потребители, че е безопасно да ядат камъни.

А през юни миналата година двама адвокати бяха глобени с 5 000 долара от американски съдия, след като един от тях призна, че е използвал ChatGPT за помощ при съставянето на искова молба. Чатботът беше включил измислени цитати в документите, които се позоваваха на несъществуващи случаи.

Една добра новина за адвокати, търсачки гиганти и авиокомпании: Поне някои видове ИИ-халюцинации може скоро да останат в миналото. Нови изследвания, публикувани в сряда в научното списание Nature, описват нов метод за откриване на ИИ-халюцинации.

Методът е в състояние да разграничи между правилни и грешни отговори, генерирани от ИИ в около 79 процента от случаите – с около десет процентни пункта по-висока точност в сравнение с други водещи методи. Въпреки че методът адресира само една от причините за ИИ халюцинации и изисква около десет пъти повече изчислителна мощност в сравнение със стандартен чатбот разговор, резултатите могат да проправят пътя за по-надеждни ИИ системи.

„Моята цел е да отворя пътища за използване на големи езикови модели там, където те в момента не се използват – където е необходима по-голяма надеждност от достъпната в момента“, казва Себастиан Фарквар, един от авторите на изследването и старши научен сътрудник в Катедрата по информатика на Оксфордския университет, където е проведено изследването.

Фаркуар е също изследовател в екипа по сигурност на Google DeepMind. За адвоката, който беше наказан заради халюцинация на ChatGPT, Фаркуар казва: „Това би му помогнало.“

Терминът „Халюцинация“ придоби значение в света на изкуствения интелект, но също така е и спорен. Той предполага, че моделите имат вид субективно световъзприятие, което повечето информатици отричат. Освен това той внушава, че халюцинациите са разрешим аспект, а не основен проблем на големите езикови модели. Екипът на Фаркхар се съсредоточи върху специфична категория халюцинации, които наричат „Конфабулации“.

Това се случва, когато модел на изкуствен интелект дава непоследователни грешни отговори на фактически въпрос, за разлика от последователни грешни отговори, които по-скоро се дължат на проблеми с тренировъчните данни на модела или структурни грешки в логиката на модела.

Методът за разпознаване на конфабулации е относително прост. Първо чатботът се моли да даде няколко отговора на едно и също въведение. След това изследователите използват друг езиков модел, за да групират тези отговори по значение.

Изследователите изчисляват след това показател, който наричат "семантична ентропия" – мярка за това до каква степен отговорите са сходни или различни по значение. Високата семантична ентропия показва, че моделът може да измисля.

Методът за откриване на семантична ентропия надмина други подходи за разпознаване на халюцинации на ИИ. Фаркуар има някои идеи как семантичната ентропия може да помогне за намаляването на халюцинациите в водещите чатботове.

Той вярва, че това теоретично би могло да позволи добавянето на бутон към OpenAI, който да позволява на потребителите да оценят увереността в отговора. Методът също така би могъл да бъде интегриран в други инструменти, използващи изкуствен интелект в силно чувствителни среди, където точността е от ключово значение.

Докато Фаркхар е оптимистичен, някои експерти предупреждават да не се надценява незабавния ефект. Арвинд Нараянан, професор по информатика в университета Принстън, подчертава предизвикателствата при интегрирането на това изследване в реални приложения.

Той посочва, че халюцинациите представляват основен проблем във функционирането на големите езикови модели и че в близко бъдеще е малко вероятно този проблем да бъде напълно решен.

Направи най-добрите инвестиции в живота си
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

От 2 евро си осигурявате

Новини