Nieuwe methode voor het detecteren van AI-hallucinaties gepresenteerd

Huidige generatieve AI-tools zoals ChatGPT hebben een probleem: ze geven vaak zelfverzekerd onjuiste informatie.

25-6-2024, 15:15
Eulerpool News 25 jun 2024, 15:15

Een voortdurende uitdaging bij huidige generatieve kunstmatige intelligenties (KI) zoals ChatGPT is dat ze vaak zelfverzekerd onjuiste informatie beweren. Dit gedrag, dat door computerwetenschappers "hallucinatie" wordt genoemd, vormt een belangrijk obstakel voor de bruikbaarheid van KI.

Halluzinationen haben bereits zu einigen peinlichen öffentlichen Zwischenfällen geführt. Im Februar wurde Air Canada von einem Tribunal dazu verpflichtet, einen Rabatt anzuerkennen, den sein Kundenservice-Chatbot irrtümlich einem Passagier angeboten hatte.

Translation:
Hallucinaties hebben al tot enkele gênante openbare incidenten geleid. In februari werd Air Canada door een tribunaal verplicht een korting te erkennen die zijn klantenservice-chatbot per ongeluk aan een passagier had aangeboden.

Im Mai musste Google Änderungen an seiner neuen Suchfunktion „AI Overviews“ vornehmen, nachdem der Bot einigen Nutzern mitgeteilt hatte, es sei sicher, Steine zu essen.

Nederlands:
In mei moest Google wijzigingen aanbrengen in zijn nieuwe zoekfunctie „AI Overviews“, nadat de bot sommige gebruikers had verteld dat het veilig was om stenen te eten.

En in juni vorig jaar werden twee advocaten door een Amerikaanse rechter veroordeeld tot een boete van 5.000 dollar, nadat een van hen had toegegeven ChatGPT te hebben gebruikt om een pleitnota op te stellen. De chatbot had valse citaten in de indiening opgenomen, die verwezen naar nooit bestaande zaken.

Een goed nieuws voor advocaten, zoekmachinereuzen en luchtvaartmaatschappijen: Tenminste enkele soorten KI-hallucinaties zouden binnenkort tot het verleden kunnen behoren. Nieuw onderzoek, dat woensdag in het wetenschappelijke tijdschrift Nature werd gepubliceerd, beschrijft een nieuwe methode voor het opsporen van KI-hallucinaties.

De methode is in staat om in ongeveer 79 procent van de gevallen onderscheid te maken tussen correcte en onjuiste door KI gegenereerde antwoorden – ongeveer tien procentpunten hoger dan andere toonaangevende methoden. Hoewel de methode slechts een van de oorzaken van KI-hallucinaties aanpakt en ongeveer tien keer meer rekenkracht vereist dan een standaard chatbot-gesprek, kunnen de resultaten de weg vrijmaken voor betrouwbaardere KI-systemen.

„Mijn doel is om manieren te vinden waarop grote taalmodellen kunnen worden ingezet op plaatsen waar ze momenteel niet worden gebruikt – waar iets meer betrouwbaarheid vereist is dan momenteel beschikbaar is“, zegt Sebastian Farquhar, een van de auteurs van de studie en Senior Research Fellow aan de afdeling Informatica van de Universiteit van Oxford, waar het onderzoek werd uitgevoerd.

Farquhar is ook onderzoeker in het beveiligingsteam van Google DeepMind. Over de advocaat die gestraft werd vanwege een ChatGPT-hallucinatie zegt Farquhar: "Dit zou hem geholpen hebben.

De term "hallucinatie" heeft aan betekenis gewonnen in de wereld van AI, maar is ook controversieel. Het impliceert dat modellen een soort subjectieve ervaring van de wereld hebben, wat de meeste informatici ontkennen. Bovendien suggereert het dat hallucinaties een oplosbaar eigenaardigheid zijn en geen fundamenteel probleem van grote taalmodellen. Het team van Farquhar richtte zich op een specifieke categorie van hallucinaties die zij "confabulaties" noemen.

Dit gebeurt wanneer een KI-model inconsistente verkeerde antwoorden geeft op een feitenvraag, in tegenstelling tot consistente verkeerde antwoorden, die eerder te wijten zijn aan problemen met de trainingsgegevens van het model of structurele fouten in de logica van het model.

De methode voor het detecteren van confabulatie is relatief eenvoudig. Eerst wordt de chatbot gevraagd om meerdere antwoorden op dezelfde invoer te geven. Vervolgens gebruiken de onderzoekers een ander taalmodel om deze antwoorden op hun betekenis te groeperen.

De onderzoekers berekenen vervolgens een kengetal dat ze "semantische entropie" noemen - een maat voor hoe gelijk of verschillend de betekenissen van de antwoorden zijn. Een hoge semantische entropie duidt erop dat het model fantaseert.

De methode voor het detecteren van semantische entropie overtrof andere benaderingen voor het detecteren van AI-hallucinaties. Farquhar heeft enkele ideeën over hoe semantische entropie zou kunnen helpen bij het verminderen van hallucinaties in toonaangevende chatbots.

Hier is de vertaalde kop in het Nederlands:
"Hij gelooft dat dit theoretisch OpenAI in staat zou kunnen stellen om een knop toe te voegen waarmee gebruikers de zekerheid van een antwoord kunnen beoordelen. De methode zou ook kunnen worden geïntegreerd in andere tools die KI in zeer gevoelige omgevingen gebruiken, waar nauwkeurigheid cruciaal is.

Tijdens Farquhar optimistisch is, waarschuwen enkele experts ervoor om het onmiddellijke effect niet te overschatten. Arvind Narayanan, professor in de informatica aan de Princeton University, benadrukt de uitdagingen bij de integratie van dit onderzoek in reële toepassingen.

Hij wijst erop dat hallucinaties een fundamenteel probleem vormen in de werking van grote taalmodellen en dat het onwaarschijnlijk is dat dit probleem in de nabije toekomst volledig wordt opgelost.

Doe de beste investeringen van je leven
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Vanaf 2 € veiliggesteld

Nieuws