Új módszer a mesterséges intelligencia által okozott hallucinációk felismerésére bemutatva

A mai generatív mesterséges intelligencia eszközök, mint például a ChatGPT, egy problémával küzdenek: gyakran magabiztosan adnak ki hamis információkat.

2024. 06. 25. 15:15
Eulerpool News 2024. jún. 25. 15:15

Egy tartós kihívás a mai generatív mesterséges intelligenciák (MI), mint például a ChatGPT esetében az, hogy gyakran magabiztosan állítanak hamis információkat. Ezt a viselkedést a számítástechnikusok „hallucinációnak” nevezik, és ez jelentős akadályt jelent az MI hasznosságában.

A hallucinációk már számos kínos nyilvános incidenshez vezettek. Februárban egy törvényszék kötelezte az Air Canada-t, hogy ismerjen el egy kedvezményt, amelyet ügyfélszolgálati chatbotja tévesen ajánlott fel egy utasnak.

„Májusban a Google kénytelen volt módosításokat végrehajtani az új keresési funkciójában, az 'AI Overviews'-ben, miután a bot néhány felhasználónak azt közölte, hogy biztonságos köveket enni.”

Tavaly júniusban két ügyvédet egy amerikai bíró 5000 dolláros pénzbírságra ítélt, miután egyikük elismerte, hogy a ChatGPT-t használta a keresetlevél elkészítéséhez. A chatbot hamis idézeteket illesztett be a beadványba, amelyek soha nem létező esetekre hivatkoztak.

Egy jó hír az ügyvédeknek, keresőóriásoknak és légitársaságoknak: Legalább néhány fajta AI-hallucináció hamarosan a múlté lehet. Egy új kutatási eredmény, amelyet szerdán tettek közzé a Nature tudományos folyóiratban, egy új módszert ír le az AI-hallucinációk felismerésére.

A módszer képes az esetek körülbelül 79 százalékában megkülönböztetni a helyes és helytelen mesterséges intelligencia által generált válaszokat – körülbelül tíz százalékponttal magasabb pontossággal, mint más vezető módszerek. Bár a módszer csak a mesterséges intelligencia-hallucinációk egyik okát kezeli, és körülbelül tízszer több számítási kapacitást igényel, mint egy szokásos chatbot-beszélgetés, az eredmények megbízhatóbb mesterséges intelligencia-rendszereknek nyithatnak utat.

„Célom, hogy feltárjam azokat a lehetőségeket, ahol a nagy nyelvi modellek alkalmazhatók ott, ahol jelenleg nem használják őket – ahol a jelenlegihez képest nagyobb megbízhatóságra van szükség” – mondta Sebastian Farquhar, a tanulmány egyik szerzője és az Oxfordi Egyetem Informatikai Tanszékének vezető kutatója, ahol a kutatást végezték.

Farquhar a Google DeepMind biztonsági csapatának kutatója is. A ChatGPT-hallucináció miatt megbüntetett ügyvédről Farquhar azt mondja: „Ez segített volna neki.”

A „hallucináció” fogalma jelentőséget nyert a mesterséges intelligencia világában, ugyanakkor vitatott is.

Ez akkor fordul elő, ha egy mesterséges intelligencia modell következetlen helytelen válaszokat ad egy ténykérdésre, ellentétben a következetesen helytelen válaszokkal, amelyek inkább a modell képzési adatainak problémáira vagy a modell logikájának strukturális hibáira vezethetők vissza.

A konfabulációk felismerésének módszere viszonylag egyszerű. Először a chatbotot arra kérik, hogy ugyanarra a bemenetre több választ adjon. Ezután a kutatók egy másik nyelvi modellt használnak arra, hogy ezeket a válaszokat jelentésük szerint csoportosítsák.

A kutatók ezután kiszámítanak egy mutatót, amelyet „szemantikai entrópiának” neveznek – egy mérőszám, amely azt mutatja, hogy mennyire hasonlóak vagy eltérőek a válaszok jelentései. A magas szemantikai entrópia arra utal, hogy a modell konfabulál.

A szemantikai entrópia felismerésének módszere felülmúlta a KI-hallucinációk felismerésének más megközelítéseit. Farquhar néhány ötlettel rendelkezik arról, hogyan segíthet a szemantikai entrópia a vezető chatbotok hallucinációinak csökkentésében.

Azt hiszi, hogy ez elvileg lehetővé tenné az OpenAI számára egy gomb hozzáadását, amellyel a felhasználók az egy válasz bizonyosságát értékelhetik. A módszert más eszközökbe is integrálni lehetne, amelyek mesterséges intelligenciát használnak rendkívül érzékeny környezetekben, ahol a pontosság döntő fontosságú.

Miközben Farquhar optimista, néhány szakértő arra figyelmeztet, hogy nem szabad túlbecsülni a közvetlen hatást. Arvind Narayanan, a Princeton Egyetem informatikai professzora hangsúlyozza a kutatás valós alkalmazásokba való beillesztésének kihívásait.

Rámutat arra, hogy a hallucinációk alapvető problémát jelentenek a nagy nyelvi modellek működésében, és hogy valószínűtlen, hogy ezt a problémát a közeljövőben teljesen meg lehet oldani.

Tedd meg életed legjobb befektetéseit.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

2 eurótól biztosítható

Hírek