AI

Microsoft Dừng Lừa Đảo Bằng Chatbot

Phi công tự động của công ty gần đây đã cung cấp những phản hồi kỳ lạ, có hại. Các cơ chế phòng vệ nên phát hiện và ngăn chặn hoạt động đáng ngờ.

Eulerpool News 15:01 31 thg 3, 2024

Tập đoàn Microsoft thực hiện các biện pháp để ngăn chặn việc chatbots trí tuệ nhân tạo bị dụ dỗ vào hành vi bất thường hoặc có hại. Trong một bài đăng trên blog vào thứ Năm, công ty có trụ sở tại Redmond, Washington, đã công bố các tính năng bảo mật mới cho Azure AI Studio. Công cụ này cho phép các nhà phát triển tạo ra trợ lý AI cá nhân hóa với dữ liệu riêng của họ.

Các công cụ mới bao gồm "Bảo vệ dấu nhắc", được thiết kế để phát hiện và chặn các nỗ lực cố ý - được gọi là cuộc tấn công tiêm dấu nhắc hoặc Jailbreaks - nhằm mục đích khiến mô hình AI hành xử theo cách không mong muốn.

Microsoft cũng đối phó với "việc tiêm lệnh gian xảo gián tiếp", nơi hacker chèn các chỉ thị độc hại vào dữ liệu dùng để huấn luyện mô hình, từ đó dụ dỗ mô hình thực hiện các hành động không được phép như việc ăn cắp thông tin người dùng hoặc chiếm đoạt hệ thống.

Theo Sarah Bird, Giám đốc sản phẩm chính của Microsoft về AI có trách nhiệm, những cuộc tấn công như thế là một thách thức và mối đe dọa độc nhất. Các biện pháp phòng thủ mới được thiết kế để nhận diện các nhập liệu đáng ngờ và chặn chúng ngay lập tức.

Ngoài ra, Microsoft giới thiệu tính năng cảnh báo người dùng khi một mô hình tạo ra sáng chế hoặc sinh ra câu trả lời sai lệch. Microsoft nỗ lực tăng cường niềm tin vào công cụ KI sinh sản của mình, được sử dụng bởi cả người tiêu dùng lẫn khách hàng doanh nghiệp.

Vào tháng Hai, công ty đã điều tra các sự cố với chatbot Copilot của mình, người tạo ra mọi thứ từ câu trả lời kỳ lạ đến hại. Sau khi xem xét các sự cố, Microsoft giải thích rằng người dùng đã cố tình cố gắng dụ dỗ Copilot đưa ra những câu trả lời này.

Microsoft là nhà đầu tư lớn nhất của OpenAI và đã biến mối quan hệ đối tác thành một yếu tố then chốt trong chiến lược AI của mình. Bird nhấn mạnh rằng Microsoft và OpenAI cam kết với việc sử dụng AI an toàn và tích hợp các biện pháp bảo vệ vào các mô hình ngôn ngữ lớn, nền tảng cho AI sinh sản. "Tuy nhiên, bạn không thể chỉ dựa vào mô hình một mình," cô ấy nói. "Những Jailbreaks chẳng hạn, là một điểm yếu tự nhiên của công nghệ mô hình."

Đầu tư thông minh nhất trong đời bạn
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Từ 2 € đảm bảo

Tin tức