ความท้าทายที่ยังคงมีอยู่ในปัญญาประดิษฐ์สร้างสรรค์สมัยใหม่ เช่น ChatGPT คือการที่มันมักจะกล่าวอ้างข้อมูลผิด ๆ อย่างมั่นใจ พฤติกรรมนี้ ซึ่งนักวิทยาศาสตร์คอมพิวเตอร์เรียกว่า "การหลอน" เป็นอุปสรรคสำคัญต่อประโยชน์ใช้สอยของปัญญาประดิษฐ์
อาการเห็นภาพหลอนนำไปสู่อุบัติเหตุสาธารณะที่น่าอับอายมาแล้วบางเหตุการณ์ ในเดือนกุมภาพันธ์ Air Canada ถูกศาลสั่งให้ยอมรับส่วนลดที่บอทแชทบริการลูกค้าเสนอให้ผู้โดยสารโดยผิดพลาด
ในเดือนพฤษภาคม Google ต้องทำการเปลี่ยนแปลงฟังก์ชันการค้นหาใหม่ "AI Overviews" หลังจากที่บอทแจ้งผู้ใช้บางคนว่าการกินหินเป็นเรื่องปลอดภัย
และในเดือนมิถุนายนปีที่แล้ว ทนายความสองคนถูกตัดสินโดยผู้พิพากษาสหรัฐให้จ่ายค่าปรับ 5,000 ดอลลาร์ หลังจากที่หนึ่งในนั้นยอมรับว่าใช้ ChatGPT เพื่อช่วยในการเขียนเอกสารคดี หุ่นยนต์แชทได้แทรกคำพูดปลอมลงในเอกสารที่อ้างอิงถึงคดีที่ไม่เคยมีอยู่จริง
ข่าวดีสำหรับทนายความ ยักษ์ใหญ่ด้านเครื่องมือค้นหา และสายการบิน: อย่างน้อยปัญหาเรื่องภาพหลอนของ AI บางประเภทอาจจะหมดไปในไม่ช้านี้ งานวิจัยใหม่ที่ตีพิมพ์เมื่อวันพุธในวารสารวิทยาศาสตร์ Nature อธิบายวิธีการใหม่ในการตรวจจับภาพหลอนของ AI
Here's the translation of the heading to Thai:
วิธีนี้สามารถแยกแยะระหว่างคำตอบที่ถูกต้องและผิดพลาดซึ่งสร้างโดยปัญญาประดิษฐ์ได้ในประมาณ 79 เปอร์เซ็นต์ของกรณี – สูงกว่าวิธีชั้นนำอื่น ๆ ประมาณสิบเปอร์เซ็นต์ แม้ว่าวิธีนี้จะจัดการกับสาเหตุของการสร้างภาพลวงตาของปัญญาประดิษฐ์เพียงอย่างเดียว และต้องการพลังการคำนวณมากกว่าการสนทนามาตรฐานของแชทบอทถึงสิบเท่า ผลลัพธ์เหล่านี้สามารถปูทางสำหรับระบบปัญญาประดิษฐ์ที่เชื่อถือได้มากขึ้น
Here is the translation of the heading to Thai:
„เป้าหมายของฉันคือการเปิดทางให้สามารถใช้โมเดลภาษาขนาดใหญ่ในที่ที่ในปัจจุบันยังไม่สามารถใช้ได้ – เมื่อจำเป็นต้องมีความน่าเชื่อถือมากกว่าที่มีอยู่ในขณะนี้“, Sebastian Farquhar หนึ่งในผู้เขียนงานวิจัยและนักวิจัยอาวุโสที่ภาควิชาวิทยาการคอมพิวเตอร์มหาวิทยาลัยออกซฟอร์ด ซึ่งงานวิจัยนี้ได้ถูกดำเนินการที่นี่กล่าว
นี่คือการแปลหัวเรื่องเป็นภาษาไทย:
ฟาร์คูฮาร์ยังเป็นนักวิจัยในทีมความปลอดภัยของ Google DeepMind เกี่ยวกับทนายความที่ถูกลงโทษเนื่องจากการเกิดภาพหลอนจาก ChatGPT ฟาร์คูฮาร์กล่าวว่า "สิ่งนี้จะช่วยเขาได้.
หัวข้อ:
แนวคิดเรื่อง "ภาพหลอน" ได้รับความสำคัญในโลกของปัญญาประดิษฐ์ แต่ก็ยังเป็นที่ถกเถียงกันอยู่ มันแสดงให้เห็นว่าโมเดลมีประสบการณ์ทางจิตแบบมีตัวตน ซึ่งนักวิทยาศาสตร์คอมพิวเตอร์ส่วนมากไม่เห็นด้วย นอกจากนี้ยังแสดงให้เห็นว่าภาพหลอนเป็นลักษณะที่สามารถแก้ไขได้และไม่ใช่ปัญหาพื้นฐานของโมเดลภาษาขนาดใหญ่ ทีมของ Farquhar มุ่งเน้นไปที่ประเภทเฉพาะของภาพหลอนที่พวกเขาเรียกว่า "การแต่งเรื่อง
สิ่งนี้เกิดขึ้นเมื่อแบบจำลอง AI ให้คำตอบที่ผิดพลาดไม่สอดคล้องกันกับคำถามข้อเท็จจริง ซึ่งแตกต่างจากคำตอบที่ผิดพลาดอย่างสม่ำเสมอซึ่งมักเป็นผลมาจากปัญหากับข้อมูลการฝึกของแบบจำลองหรือข้อผิดพลาดเชิงโครงสร้างในตรรกะของแบบจำลอง
วิธีการตรวจจับการประดิษฐ์เรื่องเป็นเรื่องง่ายค่อนข้างง่าย ก่อนอื่นจะขอให้แชทบอทตอบหลายคำตอบในคำถามเดียวกัน จากนั้นนักวิจัยจะใช้โมเดลภาษาตัวอื่นเพื่อจัดกลุ่มคำตอบเหล่านี้ตามความหมาย
นักวิจัยคำนวณค่าหนึ่งที่เรียกว่า "เอนโทรปีเชิงความหมาย" ซึ่งเป็นมาตรวัดความคล้ายคลึงหรือแตกต่างของความหมายในคำตอบ เอนโทรปีเชิงความหมายสูงบ่งชี้ว่ารุ่นกำลังประดิษฐ์เรื่องราว
วิธีการตรวจจับเอนโทรปีเชิงความหมายเหนือกว่าวิธีการอื่นในการตรวจจับการลวงของ AI ฟาร์ควาร์มีความคิดบางอย่างว่าเอนโทรปีเชิงความหมายสามารถช่วยลดการลวงในแชทบอทยอดนิยมได้อย่างไร
เขาเชื่อว่าสิ่งนี้อาจทำให้เป็นไปได้ในทางทฤษฎีที่จะเพิ่มปุ่มใน OpenAI ที่ให้ผู้ใช้ประเมินความมั่นใจตอบได้ วิธีนี้ยังสามารถรวมเข้ากับเครื่องมืออื่นๆ ที่ใช้ AI ในสภาพแวดล้อมที่มีความไวสูงซึ่งความถูกต้องแม่นยำเป็นสิ่งสำคัญได้
ในขณะที่ฟาร์คาร์มองในแง่ดี ผู้เชี่ยวชาญบางคนเตือนว่าอย่าประเมินผลกระทบในทันทีสูงเกินไป อาร์วินด์ นารายานัน ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยพรินซตัน เน้นถึงความท้าทายในการนำการวิจัยนี้ไปประยุกต์ใช้ในแอปพลิเคชันจริง
เขาชี้ให้เห็นว่าอาการประสาทหลอนเป็นปัญหาพื้นฐานในการทำงานของโมเดลภาษาขนาดใหญ่ และมีแนวโน้มว่าจะไม่สามารถแก้ไขปัญหานี้ได้อย่างสมบูรณ์ในอนาคตอันใกล้