Joined: 01/09/2017
Itamar Golan: An ninh AI sinh tạo cần một hạng mục, không chỉ tính năng
Itamar Golan vạch ra bức tranh mới cho an ninh AI
Trong bối cảnh mô hình ngôn ngữ lớn (LLM) và các hệ thống AI sinh tạo được triển khai rộng rãi, Itamar Golan — đồng sáng lập Prompt Security — lập luận rằng bảo mật cho AI sinh tạo cần được phát triển như một hạng mục sản phẩm độc lập chứ không phải là một tính năng bổ sung trên các nền tảng hiện có. Các rủi ro mới phát sinh từ tương tác prompt, rò rỉ dữ liệu và hành vi không mong muốn của mô hình đòi hỏi cách tiếp cận chuyên biệt, liên tục và có thể tích hợp sâu vào chuỗi cung ứng AI.
Tại sao "hạng mục" thay vì "tính năng"?
Theo Golan, nhiều giải pháp bảo mật hiện nay được đóng gói như tính năng phụ trên nền tảng hoặc plugin, dẫn đến hai vấn đề cơ bản: thiếu tiêu chuẩn hóa và thiếu khả năng mở rộng. Một tính năng có thể giảm thiểu một số rủi ro cụ thể, nhưng không giải quyết được hệ thống vấn đề liên quan tới governance, giám sát thời gian thực, kiểm soát truy cập theo ngữ cảnh và bảo vệ prompt — vốn là điểm giao tiếp trực tiếp giữa con người và mô hình. Khi bảo mật trở thành một hạng mục, nó được thiết kế từ tầng cơ sở: định nghĩa các giao diện chuẩn, quy trình kiểm thử đỏ (red teaming), kiểm toán theo dõi và tích hợp với quy trình DevOps/MLops.

Những rủi ro đặc thù của AI sinh tạo
Golan liệt kê một số mối đe dọa nổi bật: prompt injection (khi kẻ tấn công chèn lệnh vào prompt để thao túng mô hình), rò rỉ dữ liệu nhạy cảm qua đầu ra mô hình, khả năng bị lợi dụng để tạo nội dung độc hại, và rủi ro chuỗi cung ứng từ mô hình hay dữ liệu huấn luyện không đáng tin cậy. Những yếu tố này đòi hỏi giải pháp bảo mật phải theo dõi luồng prompt, áp dụng chính sách ngăn chặn và mã hóa dữ liệu, đồng thời hỗ trợ truy vết và phục hồi khi sự cố xảy ra.
Chiến lược kỹ thuật và thị trường
Golan và Prompt Security đề xuất kiến trúc bảo mật mô hình-agnostic — tức có thể làm việc với nhiều nhà cung cấp mô hình — tích hợp kiểm soát truy cập, kiểm tra đầu ra và lọc prompt ở lớp runtime. Về mặt thị trường, ông nhấn mạnh nhu cầu về tiêu chuẩn và chứng nhận để giúp các doanh nghiệp phân biệt giữa các giải pháp an toàn thực sự và các tính năng mang tính marketing. Việc phát triển một hạng mục bảo mật AI cũng mở ra cơ hội cho các nhà cung cấp tạo ra sản phẩm chuyên biệt, từ nền tảng giám sát đến dịch vụ đánh giá rủi ro và công cụ kiểm thử an toàn.
Áp dụng thực tiễn cho doanh nghiệp và đội bảo mật
Đối với các CISO và kỹ sư ML, thông điệp thực tế là: không nên xem bảo mật AI là một checklist đơn lẻ. Thay vào đó, hãy xây dựng quy trình quản trị prompt, thiết lập vùng kiểm soát dữ liệu, thực hiện red teaming định kỳ và chọn giải pháp có thể tích hợp với pipeline phát triển AI hiện tại. Đầu tư vào quan sát (observability), kiểm toán hành vi và chính sách truy cập chi tiết sẽ giúp giảm thiểu rủi ro mà các tính năng rời rạc không thể che phủ đầy đủ.
Kết luận — hướng đi cho hệ sinh thái
Tầm nhìn của Golan về “xây dựng một hạng mục” cho bảo mật AI phản ánh nhu cầu công nghiệp hóa và chuyên môn hóa khi AI sinh tạo ngày càng thâm nhập vào sản phẩm và dịch vụ. Việc xác lập tiêu chuẩn, phát triển công cụ chuyên sâu và tích hợp bảo mật từ thiết kế đến vận hành sẽ quyết định khả năng kiểm soát rủi ro cho doanh nghiệp. Ở mức hệ sinh thái, điều này cũng kích hoạt nhu cầu hợp tác giữa nhà cung cấp mô hình, nền tảng đám mây, đội bảo mật nội bộ và cơ quan quản lý để tạo ra hệ thống an toàn hơn cho “thời đại AI”.
Đọc tham khảo thêm: VentureBeat — bài phỏng vấn với Itamar Golan, VentureBeat Security, và trang chính thức của Prompt Security để xem tài liệu kỹ thuật và hướng dẫn triển khai.