Phương pháp mới để phát hiện ảo tưởng của AI được giới thiệu

Các công cụ trí tuệ nhân tạo phát sinh hiện nay như ChatGPT gặp phải một vấn đề: Chúng thường tự tin đưa ra thông tin sai lệch.

15:15 25/6/2024
Eulerpool News 15:15 25 thg 6, 2024

Dịch tiêu đề sau sang tiếng Việt:
Một thách thức kéo dài đối với các trí tuệ nhân tạo tổng hợp hiện nay như ChatGPT là chúng thường tự tin khẳng định thông tin sai sự thật. Hành vi này, được các nhà khoa học máy tính gọi là "ảo giác", là một trở ngại đáng kể đối với tính hữu ích của trí tuệ nhân tạo.

Haluzinationen haben bereits zu einigen peinlichen öffentlichen Zwischenfällen geführt. Im Februar wurde Air Canada von einem Tribunal dazu verpflichtet, einen Rabatt anzuerkennen, den sein Kundenservice-Chatbot irrtümlich einem Passagier angeboten hatte.

Title in Vietnamese:
Ảo giác đã dẫn đến một số sự cố xấu hổ nơi công cộng. Vào tháng Hai, một tòa án đã buộc Air Canada phải chấp nhận một khoản giảm giá mà chatbot dịch vụ khách hàng của hãng đã nhầm cung cấp cho một hành khách.

Vào tháng 5, Google đã phải thay đổi chức năng tìm kiếm mới của mình "Tổng Quan AI" sau khi bot thông báo cho một số người dùng rằng ăn đá là an toàn.

Vào tháng 6 năm ngoái, hai luật sư đã bị một thẩm phán Mỹ phạt 5.000 USD, sau khi một trong số họ thừa nhận đã sử dụng ChatGPT để hỗ trợ soạn thảo đơn kiện. Chatbot đã chèn các trích dẫn giả vào đơn, tham chiếu đến các vụ án không tồn tại.

Tin vui cho các luật sư, gã khổng lồ công cụ tìm kiếm và các hãng hàng không: Ít nhất một số loại ảo giác của trí tuệ nhân tạo có thể sớm trở thành dĩ vãng. Nghiên cứu mới được công bố hôm thứ Tư trên tạp chí khoa học Nature mô tả một phương pháp mới để phát hiện các ảo giác của trí tuệ nhân tạo.

Here's the translation of the given heading into Vietnamese:

Phương pháp có khả năng phân biệt giữa các câu trả lời đúng và sai do AI tạo ra trong khoảng 79% trường hợp – cao hơn khoảng mười điểm phần trăm so với các phương pháp hàng đầu khác. Mặc dù phương pháp này chỉ giải quyết một trong những nguyên nhân của ảo giác AI và yêu cầu khoảng mười lần sức mạnh tính toán so với một cuộc trò chuyện chatbot tiêu chuẩn, nhưng kết quả có thể mở đường cho các hệ thống AI đáng tin cậy hơn.

Mục tiêu của tôi là mở ra những cách thức để áp dụng các mô hình ngôn ngữ lớn ở những nơi chúng hiện chưa được sử dụng – nơi cần độ tin cậy cao hơn hiện có,” Sebastian Farquhar, một trong những tác giả của nghiên cứu và là Nghiên cứu sinh Cấp cao tại Khoa Tin học của Đại học Oxford, nơi nghiên cứu được thực hiện, cho biết.

Farquhar cũng là nhà nghiên cứu trong đội an ninh của Google DeepMind. Về luật sư bị trừng phạt vì ảo giác ChatGPT, Farquhar nói: "Điều này sẽ giúp anh ấy.

Khái niệm "ảo giác" đã trở nên quan trọng trong thế giới AI, nhưng cũng gây tranh cãi. Nó gợi ý rằng các mô hình có một loại kinh nghiệm thế giới chủ quan, điều mà hầu hết các nhà khoa học máy tính phủ nhận. Ngoài ra, nó còn ám chỉ rằng ảo giác là một đặc tính có thể giải quyết được chứ không phải là một vấn đề cơ bản của các mô hình ngôn ngữ lớn. Đội ngũ của Farquhar tập trung vào một loại ảo giác cụ thể mà họ gọi là "sự tưởng tượng".

Điều này xảy ra khi một mô hình AI đưa ra câu trả lời sai không nhất quán cho một câu hỏi thực tế, trái ngược với các câu trả lời sai nhất quán có khả năng liên quan đến vấn đề với dữ liệu đào tạo của mô hình hoặc lỗi cấu trúc trong logic của mô hình.

Phương pháp phát hiện sự bịa đặt tương đối đơn giản. Trước tiên, chatbot được yêu cầu cung cấp nhiều câu trả lời cho cùng một đầu vào. Sau đó, các nhà nghiên cứu sử dụng một mô hình ngôn ngữ khác để nhóm các câu trả lời này theo ý nghĩa của chúng.

Các nhà nghiên cứu sau đó tính toán một chỉ số mà họ gọi là "độ bất định ngữ nghĩa" – một thước đo về mức độ tương tự hoặc khác biệt của các ý nghĩa trong các câu trả lời. Độ bất định ngữ nghĩa cao cho thấy mô hình đang bịa chuyện.

Phương pháp nhận diện entropy ngữ nghĩa vượt trội hơn các phương pháp nhận diện ảo giác của trí tuệ nhân tạo khác. Farquhar có một số ý tưởng về cách entropy ngữ nghĩa có thể giúp giảm ảo giác trong các chatbot hàng đầu.

Anh ấy tin rằng điều này có thể về mặt lý thuyết cho phép OpenAI thêm một nút cho người dùng để đánh giá mức độ chắc chắn của câu trả lời. Phương pháp này cũng có thể được tích hợp vào các công cụ khác sử dụng AI trong các môi trường nhạy cảm cao, nơi mà độ chính xác là quan trọng.

Mặc dù Farquhar lạc quan, một số chuyên gia cảnh báo về việc đánh giá quá cao tác động tức thời. Arvind Narayanan, Giáo sư Khoa học Máy tính tại Đại học Princeton, nhấn mạnh những thách thức trong việc tích hợp nghiên cứu này vào các ứng dụng thực tế.

Anh ấy chỉ ra rằng ảo giác là một vấn đề cơ bản của cách thức hoạt động của các mô hình ngôn ngữ lớn và rằng khó có thể giải quyết hoàn toàn vấn đề này trong tương lai gần.

Đầu tư thông minh nhất trong đời bạn
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Từ 2 € đảm bảo

Tin tức