- 1
Joined: 01/09/2017
Nghiên cứu: Grokipedia trích dẫn nguồn từ diễn đàn tân phát xít lớn
Các nhà nghiên cứu vừa công bố một báo cáo cho thấy Grokipedia — phần kiến thức nội bộ được cho là hỗ trợ trợ lý ảo Grok của xAI — có các trích dẫn đến nội dung trên một diễn đàn tân phát xít lớn trên Internet. Báo cáo lập luận rằng những nguồn này đã được hệ thống tham chiếu khi cung cấp câu trả lời cho người dùng, khiến nhiều chuyên gia an toàn AI và báo chí quan tâm đến cách các mô hình học máy tổng hợp và đánh giá thông tin.
Những gì báo cáo nêu lên
The report, do một nhóm nhà nghiên cứu độc lập thực hiện, kiểm tra hàng loạt phản hồi và tài liệu tham khảo mà Grok hoặc cơ sở dữ liệu liên quan dẫn ra. Nhóm tìm thấy một số trường hợp nơi liên kết hoặc trích dẫn dẫn về các bài viết và chủ đề có nguồn gốc từ một diễn đàn thù hằn (extremist forum) được coi là một trong những cộng đồng tân phát xít lớn nhất trên mạng.
Cụ thể, những điểm được nhấn mạnh bao gồm:
- Ghi chép về nguồn tham khảo không minh bạch: Một số mục trong Grokipedia không cung cấp ngữ cảnh đầy đủ cho nguồn trích dẫn, khiến độc giả khó đánh giá độ tin cậy.
- Rủi ro lan truyền thông tin sai lệch: Khi mô hình dựa trên thông tin có thiên vị hoặc từ các diễn đàn cực đoan, khả năng truyền lại giả thuyết hoặc ngôn ngữ kích động tăng lên.
- Vấn đề kiểm duyệt và đánh giá nguồn: Báo cáo kêu gọi cập nhật quy trình kiểm định nguồn để loại trừ các nền tảng có nội dung kích động thù hằn khỏi bộ dữ liệu huấn luyện hoặc tham khảo.
Phản hồi từ bên liên quan và bối cảnh rộng hơn
Đại diện của xAI và nhóm phát triển Grok trước đó đã nhấn mạnh các nỗ lực nhằm giảm rủi ro và tinh chỉnh dữ liệu huấn luyện, nhưng các nhà nghiên cứu cho biết phát hiện mới làm dấy lên câu hỏi về minh bạch dữ liệu và quy trình giám sát nội bộ. Những người làm công tác an toàn AI cho rằng ngay cả trường hợp tham chiếu hiếm hoi từ các nguồn lệch lạc cũng cần được xử lý nghiêm túc, bởi tác động của chúng có thể nhân rộng qua các phản hồi của mô hình.
Trong bối cảnh rộng hơn, vấn đề không chỉ dừng ở một sản phẩm cụ thể: nhiều hệ thống AI dùng dữ liệu tập trung từ Internet, và việc tách biệt nguồn đáng tin cậy khỏi nguồn độc hại đòi hỏi cả kỹ thuật và chính sách. Một số tổ chức nghiên cứu an toàn AI đã kêu gọi quy định chặt chẽ hơn về cách thu thập và ghi nhãn dữ liệu huấn luyện nhằm giảm rủi ro lan truyền thuyết thù hằn.
Ý nghĩa và hướng đi tiếp theo
Báo cáo nhắc nhở rằng dù công nghệ trợ giúp thông tin ngày càng mạnh, yếu tố con người trong việc đánh giá nguồn và thiết kế hệ thống vẫn rất quan trọng. Các chuyên gia đề xuất các bước thực tế như tăng minh bạch nguồn dữ liệu, công khai danh sách loại trừ nguồn không phù hợp, và cải tiến cơ chế kiểm duyệt nội dung đầu ra.
Các bên liên quan bao gồm nhà phát triển, nhà nghiên cứu độc lập và cơ quan quản lý cần hợp tác để thiết lập tiêu chuẩn kiểm định nguồn cho các hệ thống thông tin dựa trên AI. Người dùng cuối cũng được khuyến khích tiếp cận thông tin với tinh thần phê phán và đối chiếu nhiều nguồn khi cần thiết.
Tham khảo thêm
Độc giả có thể xem báo cáo gốc và bài viết phân tích tại các trang tin sau để đọc thêm:
Với việc công nghệ ngày càng thâm nhập vào đời sống thông tin, việc duy trì tiêu chuẩn minh bạch và an toàn dữ liệu trở thành ưu tiên then chốt để bảo đảm AI phục vụ cộng đồng một cách có trách nhiệm.
- 1