KI halüsinasyonlarının tespiti için yeni yöntem tanıtıldı

Bugünkü üretken yapay zeka araçları, örneğin ChatGPT, bir soruna sahiptir: Genellikle yanlış bilgileri kendinden emin bir şekilde sunarlar.

25.06.2024 15:15
Eulerpool News 25 Haz 2024 15:15

Günümüzün generatif Yapay Zekalarının (YZ) karşı karşıya olduğu sürekli bir zorluk, ChatGPT gibi modellerin genellikle yanlış bilgileri kendinden emin bir şekilde iddia etmeleridir. Bilgisayar bilimcileri tarafından "halüsinasyon" olarak adlandırılan bu davranış, YZ'nin faydasını önemli ölçüde engelleyen bir sorundur.

Halüsinasyonlar zaten bazı utandırıcı kamuya açık olaylara yol açtı. Şubat ayında, Air Canada, müşteri hizmetleri sohbet botunun bir yolcuya yanlışlıkla sunduğu indirimi tanımaya zorlayan bir mahkeme kararı aldı.

Mayıs ayında, Google, bazı kullanıcılara taş yemenin güvenli olduğunu söylediği için yeni arama işlevi "Yapay Zeka Özetleri"nde değişiklik yapmak zorunda kaldı.

İşte başlığın Türkçe çevirisi:
Geçen yıl haziran ayında, avukatlardan biri dava dilekçesi hazırlarken ChatGPT'yi kullandığını itiraf edince, iki avukat bir ABD yargıcı tarafından 5.000 dolar para cezasına çarptırıldı. Sohbet botu, başvuruda var olmayan davalara atıfta bulunan sahte alıntılar eklemişti.

İşte avukatlar, arama motoru devleri ve havayolu şirketleri için iyi bir haber: En azından bazı türdeki yapay zeka halüsinasyonları yakında geçmişte kalabilir. Çarşamba günü bilimsel dergi Nature'da yayınlanan yeni araştırma sonuçları, yapay zeka halüsinasyonlarını tespit etmek için yeni bir yöntemi tanımlıyor.

Yöntem, doğru ve yanlış KI tarafından üretilen yanıtları vakaların yaklaşık %79'unda ayırt edebiliyor - diğer önde gelen yöntemlerden yaklaşık on puan daha yüksek. Yöntem, KI halüsinasyonlarının sadece bir nedenini ele almasına ve standart bir sohbet botu sohbetinden yaklaşık on kat daha fazla hesaplama gücü gerektirmesine rağmen, sonuçlar daha güvenilir KI sistemleri için yol açabilir.

„Hedefim, büyük dil modellerinin şu anda kullanılmadığı yerlerde nasıl kullanılabileceğini göstermek – mevcut durumda olduğundan biraz daha fazla güvenilirliğin gerektiği yerlerde,“ diyor Sebastian Farquhar, çalışmanın yazarlarından biri ve araştırmanın yürütüldüğü Oxford Üniversitesi Bilişim Bölümü'nde kıdemli araştırma görevlisi.

Farquhar ayrıca Google DeepMind güvenlik ekibinde araştırmacıdır. ChatGPT halüsinasyonu nedeniyle cezalandırılan avukat hakkında Farquhar şöyle diyor: "Bu ona yardımcı olabilirdi.

„Halüsinasyon“ terimi, yapay zeka dünyasında önem kazandı, ancak aynı zamanda tartışmalıdır. Terim, modellerin bir tür öznel dünya deneyimine sahip olduğunu ima eder ki bu, çoğu bilgisayar bilimcisi tarafından reddedilir. Ayrıca terim, halüsinasyonların çözülebilir bir özellik olduğunu ve büyük dil modellerinin temel bir sorunu olmadığını öne sürer. Farquhar'ın ekibi, "konfabulasyon" olarak adlandırdıkları belirli bir halüsinasyon kategorisine odaklandı.

Bu, modelin eğitim verilerindeki sorunlar veya modelin mantığındaki yapısal hatalardan kaynaklanma olasılığının daha yüksek olduğu tutarlı yanlış yanıtlar ile karşılaştırıldığında, bir KI modelinin bir olgu sorusuna tutarsız yanlış yanıtlar verdiğinde ortaya çıkar.

Konfabülasyonları Tanıma Yöntemi Nispeten Basittir. Önce Chatbot'tan Aynı Girdiye Birden Fazla Yanıt Vermesi İstenir. Daha Sonra Araştırmacılar Bu Yanıtları Anlamlarına Göre Gruplamak İçin Başka Bir Dil Modeli Kullanırlar.

Araştırmacılar daha sonra "semantik entropi" olarak adlandırdıkları bir gösterge hesaplıyorlar - bu, yanıtların anlamlarının ne kadar benzer veya farklı olduğunu ölçen bir kriter. Yüksek semantik entropi, modelin uydurduğunu gösterir.

Semantik Entropinin Tespit Edilmesine Yönelik Yöntem, Diğer KI Halüsinasyonlarını Tespit Yöntemlerinden Daha Üstün Geldi. Farquhar, Semantik Entropinin, Önde Gelen Sohbet Botlarındaki Halüsinasyonları Azaltmaya Nasıl Yardımcı Olabileceğine Dair Bazı Fikirlere Sahip.

Kendisinin, bunun teorik olarak OpenAI'ye kullanıcıların bir yanıtın doğruluğunu değerlendirmelerine olanak tanıyacak bir düğme eklemesini mümkün kılabileceğine inandığını düşündüğünü söylüyor. Bu yöntem, doğruluğun kritik olduğu yüksek hassasiyetli ortamlarda kullanılan diğer araçlara da entegre edilebilir.

Farquhar iyimserken, bazı uzmanlar anında etkilerin fazla abartılmaması konusunda uyarıyor. Princeton Üniversitesi'nde bilgisayar bilimi profesörü olan Arvind Narayanan, bu araştırmanın gerçek uygulamalara entegrasyonundaki zorluklara dikkat çekiyor.

Hallüsinasyonların büyük dil modellerinin işleyişinde temel bir sorun oluşturduğunu ve bu sorunun yakın gelecekte tamamen çözülemeyeceğini belirtiyor.

Hayatının en iyi yatırımlarını yap
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

2 €'dan başlayarak güvence altına alın

Haberler