AI

माइक्रोसॉफ्ट की चैटबॉट चालबाज़ियों पर रोक

कंपनी का सह-पायलट हाल ही में अजीब, हानिकारक उत्तर दे रहा था। सुरक्षा तंत्रों को संदिग्ध गतिविधियों का पता लगाने और उन्हें रोकना चाहिए।

Eulerpool News 31 मार्च 2024, 3:01 pm

माइक्रोसॉफ्ट कॉर्प कृत्रिम बुद्धिमत्ता-चैटबॉट्स को चालाकी से असामान्य या हानिकारक व्यवहार के लिए प्रोत्साहित करने से रोकने के उपाय करता है। गुरुवार को एक ब्लॉग पोस्ट में, वाशिंगटन के रेडमंड में स्थित कंपनी ने Azure AI स्टूडियो के लिए नए सुरक्षा फीचर्स की घोषणा की। यह उपकरण डेवलपर्स को उनके अपने डाटा के साथ अनुकूलित AI सहायक बनाने की अनुमति देता है।

नए उपकरणों में "प्रॉम्प्ट-शील्ड्स" शामिल हैं, जिनका उद्देश्य जानबूझकर प्रयासों – जिन्हें प्रॉम्प्ट-इंजेक्शन हमले या जेलब्रेक्स कहा जाता है – को पहचानना और रोकना है, जो कि AI मॉडल को अनयोजित व्यवहार के लिए प्रेरित करने की कोशिश करते हैं।

माइक्रोसॉफ्ट "अप्रत्यक्ष प्रॉम्प्ट इंजेक्शन" पर भी ध्यान दे रहा है, जहां हैकर्स उन डाटा में हानिकारक निर्देश डालते हैं जिनसे एक मॉडल की ट्रेनिंग होती है, और इस तरह उसे गैर-अनुमति वाली क्रियाओं जैसे की उपयोगकर्ता की जानकारी चुराना या एक सिस्टम का कब्ज़ा करने के लिए प्रेरित करते हैं।

माइक्रोसॉफ्ट की चीफ प्रोडक्ट ऑफिसर फॉर रेस्पॉन्सिबल AI सारा बर्ड के अनुसार, ऐसे हमले एक अनोखी चुनौती और खतरा पेश करते हैं। नए रक्षात्मक उपाय इस प्रकार से डिज़ाइन किए गए हैं कि वे संदिग्ध इनपुट का पता लगा सकें और उन्हें रियल-टाइम में ब्लॉक कर सकें।

माइक्रोसॉफ्ट एक सुविधा पेश कर रहा है जो उपयोगकर्ताओं को चेतावनी देती है जब कोई मॉडल आविष्कार करता है या गलत उत्तर पैदा करता है। माइक्रोसॉफ्ट अपने जनरेटिव कृत्रिम बुद्धिमत्ता उपकरणों पर विश्वास मजबूत करने के लिए प्रयासरत है, जिनका उपयोग उपभोक्ताओं और कंपनी ग्राहकों द्वारा भी किया जाता है।

फरवरी में कंपनी ने अपने कोपायलट चैटबॉट की जांच की, जिसने अजीब से लेकर हानिकारक उत्तर पैदा किए। घटनाओं की समीक्षा के बाद, माइक्रोसॉफ्ट ने स्पष्ट किया कि उपयोगकर्ताओं ने जान-बूझकर कोपायलट को इस तरह के उत्तर देने के लिए उकसाया था।

माइक्रोसॉफ्ट OpenAI का सबसे बड़ा निवेशक है और उसने इस साझेदारी को अपनी कृत्रिम बुद्धिमत्ता रणनीति का मुख्य अंग बनाया है। बर्ड ने जोर देकर कहा कि माइक्रोसॉफ्ट और OpenAI कृत्रिम बुद्धिमत्ता के सुरक्षित उपयोग को समर्पित हैं और सुरक्षात्मक उपायों को उन बड़े भाषा मॉडेल्स में समाहित करते हैं, जो जनरेटिव कृत्रिम बुद्धिमत्ता का आधार हैं। "लेकिन मॉडल पर ही पूरी तरह भरोसा करना संभव नहीं है," उन्होंने कहा। "ये जेलब्रेक्स उदाहरण के लिए, मॉडल तकनीकी का एक अंतर्निहित दुर्बलता हैं।"

अपने जीवन के सर्वश्रेष्ठ निवेश करें
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

2 यूरो में सुरक्षित करें

समाचार