OpenAI เปิดตัวโมเดล o1 ล่าสุดในวันพฤหัสบดี นำเสนอความก้าวหน้าที่สำคัญในด้านการคิดเชิงตรรกะ การแก้ปัญหา และการตอบคำถามทางวิทยาศาสตร์ โมเดลเหล่านี้ถูกมองว่าเป็นก้าวสำคัญสู่การพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) – เครื่องจักรที่สามารถคิดได้เหมือนมนุษย์.
ในแผนผังระบบที่แนบมา ซึ่งอธิบายการทำงานของปัญญาประดิษฐ์นั้น OpenAI ยอมรับว่ารุ่นใหม่ๆ ก็เพิ่มความเสี่ยงในการใช้งานเทคโนโลยีในทางที่ผิด โดยเฉพาะในเรื่องการผลิตอาวุธชีวภาพอย่าง “มีนัยสำคัญ” เป็นครั้งแรกที่บริษัทให้ “การประเมินระดับความเสี่ยงปานกลาง” แก่รุ่นของตนในด้านอาวุธเคมี ชีวภาพ รังสี และนิวเคลียร์ (CBRN) ซึ่งหมายความว่าเทคโนโลยีนี้พัฒนาความสามารถของผู้เชี่ยวชาญในการพัฒนาอาวุธชีวภาพอย่างมาก
ซอฟต์แวร์ AI ที่มีความก้าวหน้าและสามารถดำเนินการตรรกะขั้นตอนได้มีความเสี่ยงต่อการถูกใช้งานในทางที่ผิดมากขึ้นตามความเห็นของผู้เชี่ยวชาญ Yoshua Bengio หนึ่งในนักวิจัย AI ชั้นนำของโลกเน้นถึงความจำเป็นเร่งด่วนในการออกกฎหมายเพื่อจำกัดความเสี่ยงเหล่านี้ เขาอ้างถึงร่างกฎหมายในรัฐแคลิฟอร์เนียที่กำหนดให้บริษัทต้องใช้มาตรการรักษาความปลอดภัยเพื่อป้องกันการใช้ AI ในการพัฒนาอาวุธชีวภาพ "ยิ่ง AI ก้าวหน้าไปสู่ AGI มากขึ้นเท่าใด ความเสี่ยงก็จะยิ่งเพิ่มมากขึ้นหากไม่มีมาตรการป้องกันที่เหมาะสม" Bengio เตือน
บริษัทเทคโนโลยี เช่น Google, Meta และ Anthropic กำลังทำงานเกี่ยวกับการพัฒนาระบบปัญญาประดิษฐ์ขั้นสูง AI เอเจนต์เหล่านี้อาจช่วยให้มนุษย์ทำงานต่างๆ ได้สำเร็จ และยังเปิดโอกาสทางธุรกิจที่มีศักยภาพสำหรับบริษัทที่ต้องเผชิญกับค่าใช้จ่ายมหาศาลในการพัฒนา AI
มิรา มูราติ หัวหน้าเจ้าหน้าที่เทคโนโลยีของ OpenAI กล่าวกับ Financial Times ว่าบริษัทดำเนินการอย่างระมัดระวังเป็นพิเศษในการเปิดตัวโมเดล o1 เนื่องจากมีความสามารถที่กว้างขวาง อย่างไรก็ตาม โมเดลนี้จะสามารถเข้าถึงได้ผ่าน ChatGPT สำหรับผู้สมัครสมาชิกที่ชำระเงินและผ่าน API สำหรับโปรแกรมเมอร์ มูราติยังกล่าวเสริมว่า โมเดลได้รับการทดสอบความปลอดภัยอย่างเข้มงวดและมีผลด้านความปลอดภัยดีกว่าเวอร์ชันก่อนหน้าอย่างมาก