ChatGPT convinge ca logician strălucit – și aceasta este o problemă

ChatGPT acționează ca un logician genial – și tocmai acest lucru reprezintă o mare problemă.

07.07.2024, 17:19
Eulerpool News 7 iul. 2024, 17:19

Pot modelele de limbaj mari să rezolve enigme logice? Pentru a afla acest lucru, Fernando Perez-Cruz și Hyun Song Shin au întrebat GPT-4. Shin, șeful cercetării la Banca pentru Decontări Internaționale, a adus în discuție enigma „Ziua de naștere a lui Cheryl”, în care Albert și Bernard trebuie să ghicească când este ziua de naștere a lui Cheryl. Cheryl le oferă indicii și, după câteva gândiri, amândoi pot afla data. Dar acesta nu a fost adevăratul test. Cercetătorii au schimbat numele și lunile enigmei, iar GPT-4 nu a reușit să rezolve corect versiunea modificată, deși a explicat magistral enigma originală.

Dies zeigt, dass GPT-4 zwar logisch und überzeugend klingt, aber tatsächlich oft nur bekannte Antworten wiedergibt, ohne die Logik wirklich zu verstehen. Dieser Schein von Brillanz birgt Risiken, wenn es um wichtige Entscheidungen geht.

Acest lucru arată că, deși GPT-4 sună logic și convingător, adesea oferă doar răspunsuri cunoscute, fără să înțeleagă cu adevărat logica. Această aparență de strălucire prezintă riscuri atunci când vine vorba de decizii importante.

Un alt exemplu este problema Monty-Hall, în care un candidat trebuie să aleagă între trei uși, în spatele uneia se află un premiu. Maestrul de quiz deschide o ușă fără premiu și îi oferă candidatului șansa de a-și schimba alegerea. Strategia corectă este să schimbi ușa, dar când Perez-Cruz a adăugat complicații suplimentare în această problemă, GPT-4 a făcut din nou greșeli, deși a explicat corect elementele de bază.

Aceste exemple evidențiază o problemă fundamentală: Modelele lingvistice mari precum GPT-4 sunt uimitor de bune la generarea de răspunsuri plauzibile, dar false. Ele pot părea convingătoare, chiar și atunci când greșesc, ceea ce le face utilizarea riscantă. După cum subliniază Perez-Cruz și Shin, un model lingvistic defectuos ar putea avea consecințe fatale dacă este utilizat în procese de decizie importante.

Un model lingvistic care pare corect, dar în realitate este greșit, este o armă periculoasă. Este ca și cum te-ai baza pe un tabel de calcul care uită ocazional cum funcționează înmulțirea. Aceste constatări ar trebui să servească drept avertisment pentru a folosi modelele lingvistice cu prudență și pentru a pune întotdeauna la îndoială răspunsurile lor.

Fă cele mai bune investiții ale vieții tale
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

De la 2 Euro asigurați

Știri