केआई भ्रांतियों की पहचान के लिए नई विधि पेश की गई

आज के जेनरेटिव एआई टूल्स जैसे कि ChatGPT में एक समस्या है: वे अक्सर गलत जानकारी आत्मविश्वास से प्रदान करते हैं।

25/6/2024, 3:15 pm
Eulerpool News 25 जून 2024, 3:15 pm

आज की जनरेटिव कृत्रिम बुद्धिमत्ता (AI) जैसे ChatGPT के साथ एक निरंतर चुनौती यह है कि वे अक्सर गलत जानकारी आत्मविश्वास से दावा करते हैं। इस व्यवहार को कंप्यूटर वैज्ञानिक "मतिभ्रम" कहते हैं, और यह AI की उपयोगिता के लिए एक महत्वपूर्ण बाधा प्रस्तुत करता है।

भ्रमों के कारण पहले ही कुछ शर्मनाक सार्वजनिक घटनाएं हो चुकी हैं। फरवरी में, एयर कनाडा को एक ट्रिब्यूनल द्वारा अपने ग्राहक सेवा चैटबॉट द्वारा गलती से एक यात्री को दिए गए छूट को मान्यता देने के लिए मजबूर किया गया था।

मई में Google को अपनी नई खोज कार्यक्षमता "AI Overviews" में परिवर्तन करना पड़ा, जब बॉट ने कुछ उपयोगकर्ताओं को बताया कि पत्थर खाना सुरक्षित है।

और पिछले साल जून में, एक अमेरिकी न्यायाधीश द्वारा दो वकीलों को 5,000 डॉलर का जुर्माना लगाया गया था, क्योंकि उनमें से एक ने कबूल किया कि उसने एक मुकदमे की याचिका तैयार करने में सहायता के लिए ChatGPT का उपयोग किया था। चैटबॉट ने दाखिल की गई याचिका में नकली उद्धरण शामिल किए थे, जो कभी अस्तित्व में नहीं आने वाले मामलों का उल्लेख करते थे।

वकीलों, खोज इंजन दिग्गजों और विमानन कंपनियों के लिए एक अच्छी खबर: कम से कम कुछ प्रकार की एआई-मतिभ्रम जल्द ही अतीत की बात हो सकते हैं। बुधवार को वैज्ञानिक पत्रिका नेचर में प्रकाशित नए शोध में एआई-मतिभ्रम का पता लगाने के एक नए तरीके का वर्णन किया गया है।

यह विधि सही और गलत एआई-जनित उत्तरों के बीच करीब 79 प्रतिशत मामलों में अंतर करने में सक्षम है – अन्य प्रमुख विधियों की तुलना में लगभग दस प्रतिशत अंक अधिक। हालांकि यह विधि केवल एआई-हेलुसिनेशन के एक कारण को संबोधित करती है और एक मानक चैटबोट बातचीत की तुलना में लगभग दस गुना अधिक कंप्यूटिंग शक्ति की आवश्यकता होती है, फिर भी परिणाम विश्वसनीय एआई प्रणालीयों के लिए रास्ता प्रशस्त कर सकते हैं।

„मेरा लक्ष्य ऐसे रास्ते खोलना है जहाँ बड़े भाषा मॉडल उन स्थानों पर उपयोग किए जा सकें जहाँ वे वर्तमान में उपयोग नहीं किए जाते – जहाँ वर्तमान में उपलब्ध से अधिक विश्वसनीयता की आवश्यकता होती है“, कहते हैं सेबेस्टियन फार्क्वहार, जो अध्ययन के लेखकों में से एक और ऑक्सफोर्ड विश्वविद्यालय के कंप्यूटर विज्ञान विभाग में वरिष्ठ अनुसंधान फेलो हैं, जहाँ यह शोध किया गया।

फ़ार्क्वार गूगल डीपमाइंड के सुरक्षा दल में शोधकर्ता भी हैं। उस वकील के बारे में, जिसे चैटजीपीटी हॉलूसिनेशन के कारण दंडित किया गया था, फ़ार्क्वार कहते हैं: "इससे उसे मदद मिली होती।

Künstliche Intelligenz की दुनिया में 'हेलुसिनेशन' का महत्व बढ़ा है, लेकिन यह विवादास्पद भी है। यह सुझाव देता है कि मॉडल के पास एक प्रकार का निजी विश्व अनुभव है, जिसे अधिकांश सूचना वैज्ञानिक अस्वीकार करते हैं। इसके अलावा, यह भी इंगित करता है कि हेलुसिनेशन बड़े भाषा मॉडलों की एक हल्की विशेषता है और कोई मौलिक समस्या नहीं है। फार्क्वार की टीम ने 'कॉनफैबुलेशन्स' नामक एक विशिष्ट श्रेणी की हेलुसिनेशन पर ध्यान केंद्रित किया।

यह तब होता है जब एक एआई मॉडल तथ्यात्मक प्रश्न पर असंगत गलत उत्तर देता है, इसके विपरीत लगातार गलत उत्तर जो मॉडल के प्रशिक्षण डेटा में समस्याओं या मॉडल की तर्क संरचना में त्रुटियों के कारण होते हैं।

कॉनफ़ैबुलेशन्स की पहचान करने की विधि अपेक्षाकृत सरल है। सबसे पहले, चैटबोट से एक ही इनपुट पर कई उत्तर देने के लिए कहा जाता है। फिर शोधकर्ता इन उत्तरों को उनकी अर्थ के आधार पर वर्गीकृत करने के लिए एक अन्य भाषा मॉडल का उपयोग करते हैं।

फिर शोधकर्ता एक सूचकांक की गणना करते हैं जिसे वे "सामांतिक एंट्रॉपी" कहते हैं - यह उत्तरों के अर्थ की समानता या असमानता का माप है। उच्च सामांतिक एंट्रॉपी इंगित करती है कि मॉडल कल्पना कर रहा है।

समान्तिक एन्ट्रॉपी की पहचान की विधि ने एआई की प्रलाप की पहचान करने के अन्य दृष्टिकोणों को पार किया। फार्क्वार के पास कुछ विचार हैं कि कैसे समान्तिक एन्ट्रॉपी प्रमुख चैटबॉट्स में प्रलाप को कम करने में मदद कर सकती है।

वह मानता है कि इससे सैद्धांतिक रूप से OpenAI में एक बटन जोड़ना संभव हो सकता है, जिससे उपयोगकर्ता उत्तर की निश्चितता का मूल्यांकन कर सकें। यह विधि अन्य उपकरणों में भी एकीकृत की जा सकती है, जो उच्च संवेदनशीलता वाली परिस्थितियों में कृत्रिम बुद्धिमत्ता का उपयोग करते हैं, जहां सटीकता महत्वपूर्ण होती है।

जबकि फारकहार आशावादी हैं, कुछ विशेषज्ञ तत्काल प्रभाव को बढ़ा-चढ़ाकर समझने के खिलाफ चेतावनी देते हैं। प्रिंसटन विश्वविद्यालय के कंप्यूटर विज्ञान के प्रोफेसर अरविंद नारायणन ने इस शोध को वास्तविक अनुप्रयोगों में एकीकृत करने की चुनौतियों पर जोर दिया।

वह इस बात की ओर इशारा करता है कि भ्रम बड़े भाषा मॉडल के संचालन की एक मौलिक समस्या है और यह निकट भविष्य में पूरी तरह से हल होने की संभावना नहीं है।

अपने जीवन के सर्वश्रेष्ठ निवेश करें
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

2 यूरो में सुरक्षित करें

समाचार