AI đang dần trở nên quen thuộc trong kinh doanh, phổ biến chẳng khác gì bảng tính Excel, nhưng vấn đề an ninh thì lại chưa theo kịp. NIST (Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ) muốn thay đổi điều đó.
Trong bản báo cáo sơ bộ mới “Control Overlays for Securing AI Systems”, NIST chỉ ra rằng: AI mang đến những khả năng mới thú vị nhưng cũng đồng thời mở ra vô số rủi ro an ninh mạng.
- Người dùng có thể gặp rủi ro từ hiện tượng ảo giác (hallucination) (AI trả lời sai sự thật) hay rò rỉ dữ liệu ngoài ý muốn.
Người vận hành có thể đối diện với tấn công như “đầu độc dữ liệu” (data poisoning) hay “tiêm lệnh” (prompt injection).

Điều này buộc cách tiếp cận an ninh mạng phải thay đổi rất nhanh.
Thay vì phát minh hoàn toàn cái mới, NIST chọn cách dựa vào những thứ mà doanh nghiệp vốn đã quen. Cụ thể, họ lấy bộ kiểm soát an ninh mạng SP 800-53 vốn được dùng rộng rãi, rồi phát triển các “bộ lớp phủ” (overlays) dành riêng cho AI.
Hiện tại, NIST đang xin ý kiến về các tình huống sử dụng (use cases). Sau khi chốt, họ sẽ xây dựng thư viện các lớp phủ, để tổ chức có thể áp dụng riêng lẻ hoặc kết hợp, giúp quản trị rủi ro khi dùng và phát triển AI.
NIST đưa ra 5 kịch bản phổ biến cần hướng dẫn an ninh AI:

- Ứng dụng và triển khai AI sinh nội dung (Generative AI)
- Hệ thống tạo văn bản, hình ảnh, code… có thể được vận hành nội bộ hoặc thuê ngoài.
- Rủi ro: rò rỉ dữ liệu nhạy cảm, prompt injection, lạm dụng thông tin độc quyền.
- Sử dụng và tinh chỉnh AI dự đoán (Predictive AI)
- Hệ thống dựa trên dữ liệu lịch sử để dự báo, ví dụ chấm điểm tín dụng, lọc hồ sơ xin việc.
- Rủi ro có thể xuất hiện ở cả 3 giai đoạn: huấn luyện, triển khai và bảo trì, như dữ liệu huấn luyện bị nhiễm độc hoặc mô hình của bên thứ ba không đáng tin cậy.
- AI đơn tác nhân (Single-agent AI)
- Các hệ thống tự động hóa công việc kinh doanh với ít giám sát, như trợ lý lập trình hay quản lý email.
- Rủi ro: sai lệch mục tiêu, ảo giác.
- AI đa tác nhân (Multi-agent AI)
- Nhiều AI agent phối hợp làm việc cùng nhau, đã cho thấy kết quả bất ngờ trong y học, khoa học, nghiên cứu lỗ hổng phần mềm.
- Đây là lĩnh vực mới nổi, với bề mặt tấn công cực kỳ phức tạp.
- Kiểm soát an ninh cho nhà phát triển AI
- Dành cho các công ty tự xây dựng AI.
- NIST kết hợp nguyên tắc phát triển phần mềm an toàn với rủi ro đặc thù AI, nhằm bảo vệ tài sản quan trọng như trọng số mô hình hoặc dữ liệu huấn luyện.

NIST dự kiến công bố bản thảo đầu tiên của các lớp phủ vào đầu năm 2026. Đây mới chỉ là bước khởi đầu, trong khi thực tế là AI đã hiện diện khắp nơi và cần được bảo mật ngay hôm nay.
Để hiểu rõ hơn về rủi ro an ninh mới của AI, bạn có thể tham khảo hướng dẫn “Sử dụng ChatGPT và GenAI an toàn” và báo cáo chi tiết “Tội phạm mạng trong kỷ nguyên AI”.
Unitas cam kết đồng hành cùng doanh nghiệp, cung cấp các giải pháp và phân tích an ninh mạng tiên tiến nhất. Để nhận được tư vấn chuyên sâu hoặc hỗ trợ nhanh chóng, vui lòng liên hệ với chúng tôi qua email: info@unitas.vn hoặc Hotline: (+84) 939 586 168.