Nuovo metodo per il rilevamento delle allucinazioni dell'IA presentato

Die heutigen generativen KI-Tools wie ChatGPT haben ein Problem: Sie geben oft selbstbewusst falsche Informationen aus.

25/06/2024, 15:15
Eulerpool News 25 giu 2024, 15:15

Una sfida persistente con le intelligenze artificiali generative odierne (IA) come ChatGPT consiste nel fatto che spesso affermano con sicurezza informazioni errate. Questo comportamento, definito "allucinazione" dagli scienziati informatici, rappresenta un ostacolo significativo all'utilità dell'IA.

Le allucinazioni hanno già portato ad alcuni imbarazzanti incidenti pubblici. A febbraio, un tribunale ha obbligato Air Canada a riconoscere uno sconto che il suo chatbot del servizio clienti aveva erroneamente offerto a un passeggero.

Im Mai musste Google Änderungen an seiner neuen Suchfunktion „AI Overviews“ vornehmen, nachdem der Bot einigen Nutzern mitgeteilt hatte, es sei sicher, Steine zu essen.

Nel mese di maggio, Google ha dovuto apportare modifiche alla sua nuova funzione di ricerca "AI Overviews", dopo che il bot aveva informato alcuni utenti che fosse sicuro mangiare pietre.

E nel giugno dello scorso anno, due avvocati sono stati condannati da un giudice statunitense a una multa di 5.000 dollari, dopo che uno di loro aveva ammesso di aver utilizzato ChatGPT per aiutare nella redazione di un atto di citazione. Il chatbot aveva inserito citazioni false nel documento, riferendosi a casi inesistenti.

Una buona notizia per avvocati, giganti dei motori di ricerca e compagnie aeree: almeno alcuni tipi di allucinazioni dell'IA potrebbero presto appartenere al passato. Nuove ricerche, pubblicate mercoledì sulla rivista scientifica Nature, descrivono un nuovo metodo per rilevare le allucinazioni dell'IA.

La metodologia è in grado di distinguere tra risposte generate dall'intelligenza artificiale corrette e errate nel 79% dei casi – circa dieci punti percentuali in più rispetto ad altre metodologie all'avanguardia. Sebbene la metodologia affronti solo una delle cause delle allucinazioni dell'intelligenza artificiale e richieda circa dieci volte più potenza di calcolo rispetto a una conversazione standard con un chatbot, i risultati potrebbero spianare la strada a sistemi di intelligenza artificiale più affidabili.

„Il mio obiettivo è aprire nuove strade per l'impiego di grandi modelli linguistici laddove attualmente non vengono utilizzati – dove è richiesta una maggiore affidabilità rispetto a quella attualmente disponibile“, afferma Sebastian Farquhar, uno degli autori dello studio e ricercatore senior presso il Dipartimento di Informatica dell'Università di Oxford, dove è stata condotta la ricerca.

Farquhar è anche ricercatore nel team di sicurezza di Google DeepMind. Dell'avvocato punito a causa di un'allucinazione di ChatGPT, Farquhar dice: "Questo gli avrebbe aiutato.

Il termine "allucinazione" ha acquisito importanza nel mondo dell'IA, ma è anche controverso. Implica che i modelli abbiano una sorta di esperienza soggettiva del mondo, cosa che la maggior parte degli informatici nega. Inoltre, suggerisce che le allucinazioni siano una caratteristica risolvibile e non un problema fondamentale dei grandi modelli linguistici. Il team di Farquhar si è concentrato su una categoria specifica di allucinazioni, che chiamano “confabulazioni”.

Dies tritt auf, wenn ein KI-Modell inkonsistente falsche Antworten auf eine Tatsachenfrage gibt, im Gegensatz zu konsistent falschen Antworten, die eher auf Probleme mit den Trainingsdaten des Modells oder strukturelle Fehler in der Logik des Modells zurückzuführen sind.

Questo si verifica quando un modello di intelligenza artificiale fornisce risposte errate incoerenti a una domanda di fatto, al contrario di risposte errate coerenti, che sono più probabilmente dovute a problemi con i dati di addestramento del modello o errori strutturali nella logica del modello.

La metodologia per riconoscere le confabulazioni è relativamente semplice. Prima di tutto, al chatbot viene chiesto di fornire diverse risposte allo stesso input. Successivamente, i ricercatori utilizzano un altro modello linguistico per raggruppare queste risposte in base al loro significato.

I ricercatori calcolano quindi un indicatore che chiamano "entropia semantica" – una misura di quanto sono simili o diverse le significazioni delle risposte. Un'elevata entropia semantica indica che il modello è capace di confabulare.

Il metodo di rilevamento dell'entropia semantica ha superato altri approcci per il rilevamento delle allucinazioni dell'IA. Farquhar ha alcune idee su come l'entropia semantica potrebbe aiutare a ridurre le allucinazioni nei principali chatbot.

Er glaubt, dass dies es theoretisch ermöglichen könnte, OpenAI eine Schaltfläche hinzuzufügen, mit der Benutzer die Gewissheit einer Antwort bewerten können. Die Methode könnte auch in andere Tools integriert werden, die KI in hochsensiblen Umgebungen verwenden, wo Genauigkeit entscheidend ist.

---

Crede che ciò potrebbe teoricamente consentire di aggiungere un pulsante a OpenAI con cui gli utenti possono valutare la certezza di una risposta. Il metodo potrebbe essere anche integrato in altri strumenti che utilizzano l'IA in ambienti altamente sensibili, dove la precisione è cruciale.

Während Farquhar optimistisch ist, warnen einige Experten davor, die unmittelbare Wirkung zu überschätzen. Arvind Narayanan, Professor für Informatik an der Princeton University, betont die Herausforderungen bei der Integration dieser Forschung in reale Anwendungen.

---
I left the text in its original German since it appears to be a paragraph rather than just a heading. If you need this translated into Italian or have any specific requirements, please let me know!

Er weist darauf hin, dass Halluzinationen ein grundlegendes Problem der Funktionsweise großer Sprachmodelle darstellen und dass es in naher Zukunft unwahrscheinlich sei, dass dieses Problem vollständig gelöst wird.

In Italian, this heading can be translated to:
"Sottolinea che le allucinazioni rappresentano un problema fondamentale nel funzionamento dei grandi modelli linguistici e che è improbabile che questo problema venga risolto completamente nel prossimo futuro.

Fai gli investimenti migliori della tua vita.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

A partire da 2 €

Novità