Jauna metode KI halucināciju noteikšanai ieviesta

Heutige generative KI-Tools wie ChatGPT haben ein Problem: Sie geben oft falsche Informationen selbstbewusst aus.
Pašreizējie ģeneratīvie mākslīgā intelekta rīki, piemēram, ChatGPT, ir pakļauti problēmai: tie bieži pārliecināti sniedz nepareizu informāciju.

25.06.2024. 15:15
Eulerpool News 2024. g. 25. jūn. 15:15

Vienas no mūsdienu ģeneratīvo mākslīgā intelekta (MI) sistēmu, piemēram, ChatGPT, pastāvīgajiem izaicinājumiem ir tas, ka tās bieži pašpārliecināti apgalvo nepatiesu informāciju. Šī uzvedība, ko datorzinātnieki dēvē par "halucināciju", ir būtisks šķērslis MI lietderībai.

Halucinācijas jau ir novedušas pie dažiem neveikliem publiskiem starpgadījumiem. Februārī Air Canada tika tiesas ceļā piespiesta atzīt atlaidi, ko tās klientu apkalpošanas čatbots kļūdaini piedāvāja vienam pasažierim.

Im Mai musste Google Änderungen an seiner neuen Suchfunktion „AI Overviews“ vornehmen, nachdem der Bot einigen Nutzern mitgeteilt hatte, es sei sicher, Steine zu essen.
Maijā Google vajadzēja veikt izmaiņas savā jaunajā meklēšanas funkcijā "AI Overviews", pēc tam, kad bots dažiem lietotājiem bija paziņojis, ka ir droši ēst akmeņus.

Un pagājušā gada jūnijā ASV tiesnese sodīja divus advokātus ar 5000 dolāru naudassodu pēc tam, kad viens no viņiem bija atzinis, ka vērsies pie ChatGPT, lai palīdzētu izveidot prasības pieteikumu. Bots bija iesniedzis viltotus citātus, kas atsaucās uz nekad nebijušiem gadījumiem.

Goda ziņa advokātiem, meklētājprogrammu gigantiem un aviokompānijām: Vismaz daži KI halucināciju veidi drīz varētu būt pagātne. Jauni pētījumi, kas publicēti trešdien zinātniskajā žurnālā "Nature," apraksta jaunu metodi KI halucināciju atpazīšanai.

Mērijums spēj atšķirt pareizas un nepareizas KI ģenerētas atbildes aptuveni 79 procentos gadījumu – aptuveni desmit procentpunktus augstāk nekā citas vadošās metodes. Lai gan mērijums risina tikai vienu no KI halucināciju cēloņiem un prasa aptuveni desmit reizes vairāk skaitļošanas jaudas nekā standarta čatbota saruna, rezultāti varētu pavērt ceļu uzticamākiem KI sistēmām.

„Mans mērķis ir atrast veidus, kā izmantot lielos valodas modeļus tur, kur tie pašlaik netiek izmantoti – kur nepieciešama lielāka uzticamība, nekā šobrīd pieejama,“ saka Sebastians Fārkvārs, viens no pētījuma autoriem un vecākais pētnieks Oksfordas Universitātes Informātikas nodaļā, kur pētījums tika veikts.

Farquhar ir arī pētnieks Google DeepMind drošības komandā. Par advokātu, kurš tika sodīts saistībā ar ChatGPT halucināciju, Farquhar saka: "Tas viņam būtu palīdzējis.

Der Begriff "Halluzination" hat in der Welt der KI an Bedeutung gewonnen, ist jedoch auch umstritten.

Latvian Translation:
Jēdziens "halucinācija" ir ieguvis nozīmību KI pasaulē, taču tas ir arī pretrunīgs.

Šī parādība rodas, kad mākslīgā intelekta modelis sniedz pretrunīgas nepareizas atbildes uz faktu jautājumu, atšķirībā no konsekventi nepareizām atbildēm, kas, visticamāk, ir saistītas ar problēmām modeļa apmācības datos vai strukturālām kļūdām modeļa loģikā.

Šī metode konfabulatoru noteikšanai ir samērā vienkārša. Vispirms chatbotam tiek lūgts sniegt vairākas atbildes uz vienu un to pašu ievadi. Pēc tam pētnieki izmanto citu valodas modeli, lai grupētu šīs atbildes pēc to nozīmes.

Zinātnieki aprēķina rādītāju, ko viņi sauc par "semantisko entropiju" – mērvienību tam, cik līdzīgas vai atšķirīgas ir atbilžu nozīmes. Augsta semantiskā entropija norāda, ka modelis izdomā informāciju.

Die Methode zur Erkennung semantischer Entropie übertraf andere Ansätze zur Erkennung von KI-Halluzinationen. Farquhar hat einige Ideen, wie semantische Entropie helfen könnte, Halluzinationen in führenden Chatbots zu reduzieren.

Latvian translation:
Metode semantiskās entropijas atklāšanai pārspēja citus pieejas AI halucināciju atklāšanai. Farnkārs ir izteicis dažas idejas, kā semantiskā entropija varētu palīdzēt samazināt halucinācijas vadošajos tērzēšanas robotos.

Viņš uzskata, ka tas teorētiski varētu ļaut OpenAI pievienot pogu, kas ļauj lietotājiem novērtēt atbildes drošību. Metode varētu tikt integrēta arī citos rīkos, kas izmanto KI augsti jūtīgās vidēs, kur precizitāte ir izšķiroša.

Kaut arī Farquhars ir optimistisks, daži eksperti brīdina nepārvērtēt tūlītēju ietekmi. Princentonas Universitātes informātikas profesors Arvinds Narajanans uzsver izaicinājumus šīs pētniecības integrēšanā reālās lietotnēs.

Viņš norāda, ka halucinācijas ir būtiska lielo valodu modeļu darbības problēma un ka tuvākajā nākotnē šīs problēmas pilnīga atrisināšana ir maz ticama.

Veic labākos ieguldījumus savā dzīvē
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Par 2 € nodrošiniet

Jaunumi