أسلوب جديد للكشف عن هلاوس الذكاء الاصطناعي مقدم

أدوات الذكاء الاصطناعي التوليدية الحديثة مثل ChatGPT لديها مشكلة: فهي تقدم معلومات خاطئة بثقة.

٢٥‏/٦‏/٢٠٢٤، ٣:١٥ م
Eulerpool News ٢٥ يونيو ٢٠٢٤، ٣:١٥ م

تحدٍ مستمر في النماذج الحالية للذكاء الاصطناعي التوليدي مثل ChatGPT يكمن في أنها غالبًا ما تزعم معلومات خاطئة بثقة. هذا السلوك، الذي يطلق عليه علماء الكمبيوتر "هلوسة"، يشكل عائقًا أساسيًا أمام فائدة الذكاء الاصطناعي.

تسببت الهلوسات بالفعل في بعض الحوادث العامة المحرجة. في فبراير، أُلزمت شركة طيران كندا من قِبَل محكمة بالاعتراف بخصم قدّمه روبوت الدردشة الخاص بخدمة العملاء عن طريق الخطأ لأحد الركاب.

اضطرّت شركة Google في شهر مايو إلى إجراء تغييرات على وظيفة البحث الجديدة "نظرات عامة على الذكاء الاصطناعي" بعد أن أبلغ الروبوت بعض المستخدمين بأن تناول الحجارة آمن.

وفي يونيو من العام الماضي، حكم قاضٍ أمريكي على محاميين بغرامة قدرها 5000 دولار بعد أن اعترف أحدهم باستخدام ChatGPT للمساعدة في إعداد شكوى. كان الروبوت قد أدرج اقتباسات مزورة في الوثيقة تشير إلى قضايا لم تكن موجودة.

خبر سار للمحامين و عمالقة محركات البحث و شركات الطيران: قد تصبح بعض أنواع هلوسات الذكاء الاصطناعي قريبًا جزءًا من الماضي. توصلت أبحاث جديدة نشرت يوم الأربعاء في المجلة العلمية "Nature" إلى وصف طريقة جديدة للكشف عن هلوسات الذكاء الاصطناعي.

يمكن للطريقة التمييز بين الإجابات الصحيحة والخاطئة التي تنتجها الذكاء الاصطناعي في حوالي 79% من الحالات – أعلى بحوالي عشرة نقاط مئوية من الطرق الرائدة الأخرى. على الرغم من أن الطريقة تعالج سببًا واحدًا فقط من أسباب "هلوسات" الذكاء الاصطناعي وتتطلب قوة حسابية تصل إلى عشرة أضعاف محادثة شات بوت القياسية، إلا أن النتائج قد تمهد الطريق لنظم الذكاء الاصطناعي الأكثر موثوقية.

هدفي هو إيجاد سبل لاستخدام النماذج اللغوية الكبيرة في المجالات التي لا تستخدم فيها حاليًا – حيث تتطلب المزيد من الموثوقية مقارنة بالمتاح حاليًا”، يقول سيباستيان فاركوهار، أحد مؤلفي الدراسة وباحث كبير في قسم علوم الحاسوب بجامعة أكسفورد، حيث أجريت البحوث.

فاركوهار هو أيضًا باحث في فريق أمان في جوجل ديب مايند. عن المحامي الذي عوقب بسبب هلوسة من تشات جي بي تي، يقول فاركوهار: "هذا كان سيساعده.

اكتسب مصطلح "هلوسة" أهمية في عالم الذكاء الاصطناعي، لكنه أيضًا مثير للجدل. فهو يشير إلى أن النماذج تمتلك نوعًا من التجربة الشخصية للعالم، وهو ما ينفيه معظم علماء الحاسوب. بالإضافة إلى ذلك، يوحي بأن الهلوسات هي سمة قابلة للحل وليست مشكلة أساسية في النماذج اللغوية الكبيرة. ركز فريق فاركوهار على فئة محددة من الهلوسات التي يسمونها "تزييفات".

يحدث هذا عندما يقدم نموذج الذكاء الاصطناعي إجابات خاطئة غير متسقة على سؤال واقعي، على عكس الإجابات الخاطئة المتسقة التي تعود عادةً إلى مشاكل في بيانات تدريب النموذج أو أخطاء هيكلية في منطق النموذج.

طريقة اكتشاف التلفيقات بسيطة نسبياً. أولاً، يُطلب من الروبوت الرد على نفس السؤال عدة مرات. ثم يستخدم الباحثون نموذج لغوي آخر لتصنيف هذه الردود بناءً على معناها.

يحسب الباحثون بعد ذلك رقمًا يطلقون عليه "الاضطراب الدلالي" – وهو مقياس لمدى تشابه أو اختلاف معاني الإجابات. يشير الاضطراب الدلالي العالي إلى أن النموذج يختلق.

تفوّقت الطريقة لاكتشاف الفوضى الدلالية على الأساليب الأخرى لاكتشاف الهلوسة في الذكاء الاصطناعي. لدى فاركوار بعض الأفكار حول كيفية مساعدة الفوضى الدلالية في تقليل الهلوسات في روبوتات الدردشة الرائدة.

يعتقد أن هذا يمكن أن يجعل من الممكن نظريًا إضافة زر إلى OpenAI يمكّن المستخدمين من تقييم يقين الإجابة. يمكن أيضًا دمج هذه الطريقة في أدوات أخرى تستخدم الذكاء الاصطناعي في البيئات الحساسة للغاية حيث تكون الدقة حاسمة.

في حين أن فاركوهار متفائل، يحذر بعض الخبراء من المبالغة في تقدير التأثير الفوري. يؤكد أرفيند نارايانان، أستاذ علوم الحاسوب في جامعة برينستون، على التحديات التي تواجه دمج هذا البحث في التطبيقات الواقعية.

يشير إلى أن الهلوسات تمثل مشكلة أساسية في طريقة عمل نماذج اللغة الكبيرة وأنه من غير المحتمل أن يتم حل هذه المشكلة بالكامل في المستقبل القريب.

استثمر بأفضل طريقة في حياتك
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

بدءًا من 2 يورو

أخبار