- 1
Joined: 01/09/2017
Microsoft xác nhận AI Windows 11 'hallucinates' và tiềm ẩn rủi ro bảo mật
Trong một xác nhận gần đây, Microsoft cho biết hành vi ảo giác (hallucination) không phải là vấn đề độc nhất với sản phẩm của hãng mà là đặc tính chung của mô hình ngôn ngữ lớn (LLM) được dùng cho nhiều chatbot hiện nay. Trợ lý AI tích hợp trong Windows 11, thường được gọi là Copilot hoặc 'AI agent', có thể trả về các câu trả lời trông thuyết phục nhưng không chính xác — từ dữ liệu sai đến hướng dẫn có thể gây rủi ro. Thông tin này được đưa ra sau các thử nghiệm và báo cáo từ bên thứ ba, trong đó PC Gamer là một trong những nguồn tường thuật chi tiết về tình huống.
Những rủi ro cụ thể Microsoft nêu ra và lộ trình giảm thiểu
Theo Microsoft, các rủi ro không chỉ dừng ở mức thông tin sai lệch. Khi một trợ lý AI đưa ra nội dung không đúng, người dùng có thể bị hướng dẫn thực hiện hành động gây tổn hại — ví dụ làm theo các bước cấu hình sai, tiết lộ thông tin nhạy cảm, hoặc thậm chí cho phép phần mềm độc hại chạy trên máy. Trong môi trường doanh nghiệp, điều này còn có thể dẫn tới rò rỉ dữ liệu hoặc thực hiện lệnh không mong muốn qua các tích hợp hệ thống.
Microsoft cho biết họ đang áp dụng nhiều biện pháp giảm thiểu, bao gồm tinh chỉnh mô hình, cập nhật chính sách kiểm duyệt nội dung và tích hợp các lớp kiểm tra an ninh. Công ty cũng nhấn mạnh tầm quan trọng của việc duy trì cảnh giác từ phía người dùng: AI là công cụ hỗ trợ chứ không phải nguồn thông tin cuối cùng và cần được kiểm chứng khi thực hiện các thay đổi quan trọng.
Nguyên nhân và bối cảnh rộng hơn: vấn đề chung của LLM
Hiện tượng 'hallucination' đã được cộng đồng nghiên cứu trí tuệ nhân tạo thảo luận nhiều trong vài năm gần đây. Các mô hình lớn có thể tạo câu trả lời hợp lý nhưng không nhất thiết dựa trên sự thật; nguyên nhân đến từ cách chúng học dự đoán từ dữ liệu huấn luyện mà không có cơ chế hiểu biết thực tế hoặc xác thực nguồn thông tin. Điều này khiến việc triển khai chúng vào môi trường sản phẩm tiêu dùng, đặc biệt là hệ điều hành hay phần mềm cốt lõi, đòi hỏi thêm nhiều lớp kiểm soát và giám sát.
Phản ứng của cộng đồng và lời khuyên cho người dùng
Những thông báo như của Microsoft thường kích hoạt cả hai là sự lo ngại và kỳ vọng: lo ngại về tính an toàn, kỳ vọng về các bản vá và cải tiến nhanh. Chuyên gia an ninh khuyến cáo người dùng cần cảnh giác khi chấp nhận các lệnh do AI đưa ra, không chia sẻ mật khẩu hay dữ liệu nhạy cảm qua giao diện AI, và duy trì các biện pháp bảo mật tiêu chuẩn như cập nhật hệ điều hành, dùng phần mềm chống mã độc, và kiểm tra hai yếu tố.
Người dùng muốn đọc thêm phân tích và nguồn tin gốc có thể tham khảo bài viết gốc tại PC Gamer, hoặc các trang công nghệ lớn để có bối cảnh rộng hơn như The Verge, Ars Technica và trang chính thức của Microsoft tại Windows Blog.
Tóm lại, trong khi AI tích hợp vào Windows 11 mở ra nhiều tiện ích, người dùng và tổ chức cần giữ thái độ thận trọng: hiểu giới hạn của mô hình, áp dụng biện pháp kiểm chứng và chờ đợi các bản vá cùng cải tiến từ nhà sản xuất để giảm thiểu rủi ro bảo mật.
- 1