שיטה חדשה לזיהוי הזיות של בינה מלאכותית הוצגה

הכלים הגנרטיביים של הבינה המלאכותית של היום כגון ChatGPT סובלים מבעיה: הם מספקים לעיתים קרובות מידע שגוי בביטחון עצמי.

25.6.2024, 15:15
Eulerpool News 25 ביוני 2024, 15:15

אתגר מתמשך בבינות מלאכותיות מחוללות בימינו, כגון ChatGPT, הוא בכך שהן טוענות לעיתים קרובות בטחון במידע שגוי. התנהגות זו, המכונה על ידי מדעני מחשב בשם "הלוצינציה", מהווה מכשול מהותי לשימושיות הבינה המלאכותית.

הזיות כבר הובילו לכמה תקריות מביכות בציבור. בפברואר חויבה חברת התעופה אייר קנדה על ידי בית דין להכיר בהנחה שהציע הרובוט הצ'אט של שירות הלקוחות שלה בטעות לנוסע.

במאי נאלצה גוגל לבצע שינויים בפונקציית החיפוש החדשה שלה "AI Overviews", לאחר שהבוט הודיע לחלק מהמשתמשים כי בטוח לאכול אבנים.

ובחודש יוני בשנה שעברה, שני עורכי דין נענשו בקנס של 5,000 דולר על ידי שופט אמריקאי, לאחר שאחד מהם הודה שהשתמש ב-ChatGPT כדי לסייע בהכנת כתב תביעה. הצ'טבוט הכניס ציטוטים מזויפים בהגשה, אשר התייחסו למקרים שמעולם לא היו קיימים.

ידיעה טובה לעורכי דין, ענקי חיפוש וחברות תעופה: לפחות חלק מסוגי ההזיות של הבינה המלאכותית עשויים בקרוב להיות נחלת העבר. מחקר חדש שפורסם ביום רביעי בכתב העת המדעי Nature מתאר שיטה חדשה לזיהוי הזיות בינה מלאכותית.

השיטה מסוגלת להבחין בין תשובות נכונות ולא נכונות שהופקו על ידי בינה מלאכותית בכ-79 אחוז מהמקרים – כעשרה אחוזים יותר מאשר שיטות מובילות אחרות. למרות שהשיטה מתייחסת רק לאחת מהגורמים להלוצינציות בבינה מלאכותית ודורשת פי עשרה יותר כוח חישוב מאשר שיחה רגילה עם צ'אטבוט, התוצאות עשויות לסלול את הדרך למערכות בינה מלאכותית אמינות יותר.

„המטרה שלי היא ליצור דרכים לשימוש במודלי שפה גדולים במקומות שבהם הם אינם משמשים כיום – היכן שנדרשת אמינות גבוהה יותר מזו הקיימת כיום“, אומר סבסטיאן פארקוור, אחד ממחברי המחקר ובכיר במחקר במחלקה למדעי המחשב באוניברסיטת אוקספורד, שם נערך המחקר.

פארקואר הוא גם חוקר בצוות האבטחה של גוגל DeepMind. על העורך הדין שנענש בגלל הזיה של ChatGPT, אומר פארקואר: "זה היה עוזר לו.

המונח "הזיה" צבר משמעות בעולם הבינה המלאכותית, אך הוא גם שנוי במחלוקת. הוא מרמז שלמודלים יש מעין חוויה סובייקטיבית של העולם, מה שרוב המומחים לא מסכימים איתו. בנוסף, הוא מרמז שהזיות הן תופעה פתירה ולא בעיה יסודית של מודלים לשפה גדולים. הצוות של פארקוּהאר התמקד בקטגוריה ספציפית של הזיות שהם מכנים "קונפבולציות".

זה קורה כאשר מודל בינה מלאכותית נותן תשובות שגויות לא עקביות לשאלת עובדות, בניגוד לתשובות שגויות עקביות, שהן יותר בגלל בעיות בנתוני האימון של המודל או טעויות מבניות בלוגיקה של המודל.

השיטה לזיהוי קונפבולציות היא יחסית פשוטה. ראשית, מתבקשת התוכנה ליצירת צ'אט לתת מספר תשובות לאותה קלט. לאחר מכן, החוקרים משתמשים במודל שפה אחר כדי לקבץ את התשובות שלהן לפי המשמעות.

החוקרים מחשבים לאחר מכן מדד שהם מכנים "אנטרופיה סמנטית" – מדד שמצביע על מידת הדמיון או השוני במשמעויות של התשובות. אנטרופיה סמנטית גבוהה מעידה על כך שהמודל ממציא.

השיטה לזיהוי אנטרופיה סמנטית עלתה על גישות אחרות לזיהוי הזיות של בינה מלאכותית. לפרקהאר יש כמה רעיונות כיצד אנטרופיה סמנטית יכולה לעזור להפחית הזיות בצ'אטבוטים מובילים.

הוא מאמין שזה עשוי לאפשר תאורטית להוסיף כפתור ל-OpenAI שיאפשר למשתמשים לדרג את מידת הוודאות של התשובה. ניתן לשלב את השיטה גם בכלים אחרים המשתמשים בבינה מלאכותית בסביבות רגישות במיוחד שבהן הדיוק הוא קריטי.

בזמן שפארקוור אופטימי, ישנם מומחים המזהירים מהערכת יתר של ההשפעה המיידית. ארווינוד נריאנאנן, פרופסור למדעי המחשב באוניברסיטת פרינסטון, מדגיש את האתגרים בשילוב מחקר זה ביישומים מעשיים.

הוא מציין כי הזיות מהוות בעיה יסודית בתפקוד מודלי שפה גדולים וכי לא סביר שבעיה זו תיפתר במלואה בעתיד הקרוב.

עשה את ההשקעות הטובות ביותר של חייך
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

מתחילים מ-2 אירו

חדשות