Post #2859268 - 16/12/2025 12:00:00

Grok bị cáo buộc lan truyền thông tin sai lệch về vụ xả súng ở Bondi Beach

Grok bị cáo buộc lan truyền thông tin sai lệch

Trong những giờ sau vụ xả súng tại Bondi Beach, một mô hình ngôn ngữ do xAI phát triển, gọi là Grok, đã bị phát hiện đưa ra các thông tin không chính xác liên quan đến diễn biến và nhân thân liên quan đến sự kiện. Bài viết trên The Verge nêu nhiều ví dụ cho thấy các phản hồi của Grok đã tạo ra những khẳng định không có cơ sở, làm dấy lên lo ngại về khả năng AI củng cố và khuếch đại tin giả trong những tình huống nhạy cảm.

Grok bị cáo buộc lan truyền thông tin sai lệch về vụ xả súng ở Bondi Beach

Những điểm thông tin bị sai lệch và cách thức lan truyền

The Verge báo cáo rằng Grok đã đưa ra những mô tả chi tiết không được xác thực về kẻ tấn công, động cơ và trình tự sự kiện, nhiều lúc mâu thuẫn với thông tin từ các nguồn chính thức như cảnh sát và cơ quan y tế. Dù các mô hình ngôn ngữ thường được biết đến với khả năng suy diễn và tổng hợp văn bản, vấn đề ở đây là sự tự tin của Grok khi trình bày những giả thuyết như là sự thật, khiến người dùng dễ bị lẫn lộn nếu không kiểm chứng.

Sai lệch này không chỉ dừng lại ở một câu trả lời riêng lẻ: các kết quả có thể được sao chép, chia sẻ nhanh trên mạng xã hội và xuất hiện trong các cuộc trò chuyện tiếp theo, làm tăng phạm vi ảnh hưởng của thông tin sai lệch. Khi một hệ thống AI trả lời theo kiểu kể chuyện và cung cấp chi tiết cụ thể, người nhận thông tin có xu hướng tin tưởng nếu không có dấu hiệu rõ ràng cho thấy đó là suy đoán.

Nguyên nhân kỹ thuật và trách nhiệm của nhà phát triển

Các chuyên gia về AI thường nhắc đến hiện tượng "hallucination" — khi mô hình tạo ra thông tin tưởng tượng mà không dựa trên nguồn dữ liệu đáng tin cậy — như một trong những nguyên nhân chính. Thiết kế hội thoại và cơ chế tạo ra câu trả lời phù hợp với ngữ cảnh khiến mô hình có thể lấp đầy khoảng trống thông tin bằng các giả định, đặc biệt khi dữ liệu huấn luyện hoặc truy vấn thiếu chi tiết chính xác.

Vấn đề đặt ra là trách nhiệm của nhà phát triển và đội ngũ vận hành: cần có cơ chế kiểm soát, cảnh báo rõ ràng khi mô hình đang suy đoán và không được phép thay thế nguồn tin chính thức trong những tình huống khẩn cấp. Việc gắn nhãn, cung cấp trích dẫn nguồn đáng tin cậy hoặc tạm ngưng trả lời những truy vấn liên quan đến sự kiện đang diễn ra là một số biện pháp được các chuyên gia đề xuất.

Tác động lên công chúng và hệ sinh thái thông tin

Trong thời đại thông tin lan truyền nhanh, ngay cả một phản hồi sai lệch từ AI cũng có thể ảnh hưởng lớn: gây hoang mang, ảnh hưởng tới tâm lý cộng đồng, và làm khó khăn cho công tác đưa tin chính xác của báo chí. Sự xuất hiện của các nội dung giả mạo hoặc suy đoán được gắn mác "phân tích AI" có thể làm giảm niềm tin công chúng vào các nguồn thông tin, từ đó khiến việc phân biệt giữa báo cáo chính thức và tin giả càng trở nên khó khăn hơn.

Kết luận và lời khuyên cho độc giả

Sự kiện liên quan tới Grok là lời nhắc rằng các công cụ AI, dù hữu ích, vẫn có giới hạn và có thể sinh ra thông tin sai lệch. Độc giả và người dùng cần thận trọng: ưu tiên kiểm chứng với các nguồn chính thức như cơ quan chức năng, cơ quan y tế địa phương và các báo lớn khi tiếp cận thông tin về tai nạn hoặc sự kiện an ninh. Với người phát triển và nhà điều hành nền tảng, sự kiện này nhấn mạnh nhu cầu tăng cường biện pháp kiểm soát, minh bạch về giới hạn mô hình và cơ chế can thiệp khi có rủi ro thông tin sai lệch.

Đọc thêm báo cáo gốc của The Verge và thông tin liên quan tại các trang tin công nghệ uy tín:

🌐 Translate this article to English