Ny metode til at opdage KI-hallucinationer præsenteret

Nuværende generative KI-værktøjer som ChatGPT har et problem: De giver ofte fejlagtige oplysninger på en selvsikker måde.

25.6.2024, 15.15
Eulerpool News 25. jun. 2024, 15.15

En vedvarende udfordring med nutidens generative kunstige intelligenser (KI) som ChatGPT er, at de ofte selvsikkert hævder falske oplysninger. Denne adfærd, som computerforskere betegner som "hallucination", udgør en væsentlig hindring for nytten af KI.

Hallucinationer har allerede ført til nogle pinlige offentlige hændelser. I februar blev Air Canada pålagt af en domstol at anerkende en rabat, som deres kundeservice-chatbot fejlagtigt havde tilbudt en passager.

I maj måtte Google foretage ændringer i deres nye søgefunktion "AI Overviews", efter at botten havde fortalt nogle brugere, at det var sikkert at spise sten.

Og i juni sidste år blev to advokater idømt en bøde på 5.000 dollars af en amerikansk dommer, efter at en af ​​dem havde indrømmet at have brugt ChatGPT til at hjælpe med udarbejdelsen af et klageskrift. Chatbotten havde indsat falske citater i indgivelsen, som henviste til sager, der aldrig havde eksisteret.

En god nyhed for advokater, søgemaskinegiganter og flyselskaber: I det mindste nogle former for KI-hallucinationer kan snart være fortid. Ny forskning, der blev offentliggjort onsdag i det videnskabelige tidsskrift Nature, beskriver en ny metode til at opdage KI-hallucinationer.

Metoden er i stand til at skelne mellem korrekte og forkerte KI-genererede svar i omkring 79 procent af tilfældene – cirka ti procentpoint højere end andre førende metoder. Selvom metoden kun adresserer en af årsagerne til KI-hallucinationer og kræver omkring ti gange mere regnekraft end en standard-chatbot-samtale, kunne resultaterne bane vejen for mere pålidelige KI-systemer.

„Mit Ziel er at åbne måder, hvorpå store sprogmodeller kan bruges, hvor de i øjeblikket ikke bruges – hvor der er behov for lidt mere pålidelighed end det, der i øjeblikket er muligt“, siger Sebastian Farquhar, en af forfatterne af undersøgelsen og Senior Research Fellow ved instituttet for informatik ved University of Oxford, hvor forskningen blev udført.

Farquhar er også forsker i sikkerhedsteamet hos Google DeepMind. Om advokaten, der blev straffet på grund af en ChatGPT-hallucination, siger Farquhar: "Dette ville have hjulpet ham.

Begrebet "hallucination" har vundet betydning inden for AI-verdenen, men er også omstridt. Det antyder, at modeller har en form for subjektiv verdenseksperience, hvilket de fleste computereksperter benægter. Desuden antyder det, at hallucinationer er en løsbar egenart og ikke et grundlæggende problem ved store sprogmodeller. Farquhars team fokuserede på en specifik kategori af hallucinationer, som de kalder "konfabulationer".

Dette sker, når en KI-model giver inkonsekvente forkerte svar på et faktuelt spørgsmål, i modsætning til konsistente forkerte svar, som snarere skyldes problemer med modellens træningsdata eller strukturelle fejl i modellens logik.

Metoden til at opdage konfabuleringer er relativ enkel. Først bliver chatbotten bedt om at give flere svar på den samme indtastning. Derefter bruger forskerne en anden sprogmodel til at gruppere disse svar efter deres betydning.

Forskerne beregner derefter en nøglefigur, som de kalder "semantisk entropi" – et mål for, hvor ens eller forskellige svarenes betydninger er. En høj semantisk entropi tyder på, at modellen konfabulerer.

Metoden til at opdage semantisk entropi overgik andre tilgange til at opdage KI-hallucinationer. Farquhar har nogle ideer til, hvordan semantisk entropi kunne hjælpe med at reducere hallucinationer i førende chatbots.

Here is the translation of the heading into Danish:

Han mener, at dette teoretisk kunne gøre det muligt for OpenAI at tilføje en knap, der tillader brugere at vurdere sikkerheden af et svar. Metoden kunne også integreres i andre værktøjer, der anvender KI i højfølsomme miljøer, hvor nøjagtighed er afgørende.

Here is the translation of the heading to Danish:

Mens Farquhar er optimistisk, advarer nogle eksperter mod at overvurdere den umiddelbare effekt. Arvind Narayanan, professor i datalogi ved Princeton University, fremhæver udfordringerne ved at integrere denne forskning i virkelige anvendelser.

Han påpeger, at hallucinationer udgør et grundlæggende problem for den måde, store sprogmodeller fungerer på, og at det er usandsynligt, at dette problem bliver fuldstændigt løst i den nærmeste fremtid.

Gør de bedste investeringer i dit liv.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Sikre dig for 2 euro

Nyheder