AI

קוד פתוח בינה מלאכותית: איזון בין שקיפות וביטחון

פיתוח מערכות בינה מלאכותית פתוחות צובר תאוצה, אך נתקל באתגרים בנוגע לשקיפות ובטיחות.

Eulerpool News 24 באוג׳ 2024, 15:44

הפיתוח של בינה מלאכותית בקוד פתוח (AI) צבר תאוצה משמעותית בחודשים האחרונים. בסביבה שבה חברות כמו OpenAI וגוגל משקיעות מיליארדים במערכות AI מתקדמות יותר ויותר, מודלים פתוחים השיגו התקדמות ראויה לציון. אולם למרות ההצלחה לכאורה, מתגלה חולשה מרכזית: רבים מהמערכות המכונות קוד פתוח הן למעשה פתוחות רק באופן חלקי.

להלן דוגמה בולטת: Llama של Meta. אומנם ה-"Weights" נחשפים, אשר קובעים כיצד המודל יגיב לבקשות, אך נתוני האימון הבסיסיים נשארים מוסתרים. הדבר מאפשר למפתחים להתאים את המודל, אך חסרה השקיפות הדרושה ליצירת המודל מהיסוד.

למפתחים מגבלות החשיפה הללו עדיין טומנות בחובן יתרונות

בתגובה לכך, יזמה יוזמת הקוד הפתוח, שהגדירה לפני למעלה מ-20 שנה את ההגדרה לתוכנה בקוד פתוח, את ההגדרה הכמעט סופית ל-"בינה מלאכותית בקוד פתוח". ההגדרה הזו דורשת לא רק את פרסום ה-"Weights", אלא גם מידע מספיק על נתוני האימון והקוד הבסיסי, כדי לאפשר לשחזר את המודל.

התרגום של הכותרת להלן לעברית:
תנועה זו מובילה כבר לפיצול רב יותר בעולם הבינה המלאכותית. חברות רבות נוקטות בזהירות רבה יותר בבחירת המונחים שלהן כדי להימנע מעימותים משפטיים. כך, למשל, מגדירה Mistral את המודל שלה Nemo כ"משקולות פתוחות" ומודעת להימנע מהמונח "קוד פתוח".

בעוד שמערכות פתוחות חלקית מתפשטות, נוצרות גם מודלים פתוחים לחלוטין כמו מודל השפה אולמו של מכון אלן ל-AI. אך האם הם באמת ישפיעו על עולם הבינה המלאכותית כמו התוכנה בקוד פתוח על ענף הטכנולוגיה, נותר לראות.

כדי שתהיה פריצת דרך במודלים פתוחים של בינה מלאכותית, יהיו דרושים שני דברים

שנית, תומכי הבינה המלאכותית הפתוחה צריכים להביא טיעונים משכנעים יותר עבור הביטחון שלה

עד אשר ייבחנו ביתר יסודיות הסיכונים והיתרונות הפוטנציאליים של הנגשת טכנולוגיית הבינה המלאכותית, החששות ימשיכו להתקיים.

עשה את ההשקעות הטובות ביותר של חייך

מתחילים מ-2 אירו

חדשות