AI đang bước vào kỷ nguyên phát hiện lỗ hổng bảo mật. Aardvark – “nhà nghiên cứu an ninh tự động” dựa trên GPT-5 của OpenAI – là ví dụ mới nhất. Đây là một tác nhân AI có khả năng tự động phân tích kho mã nguồn, xác định lỗ hổng, đánh giá mức độ nghiêm trọng và hỗ trợ đề xuất bản vá.
Aardvark đại diện cho một hướng tiếp cận thú vị: một mô hình ngôn ngữ có thể đọc toàn bộ repository, xây dựng mô hình đe dọa, thử tái hiện lỗ hổng trong sandbox và thậm chí tự đề xuất cách sửa mã.
Gần đây, tôi đã bàn luận chủ đề này với ChatGPT để tìm hiểu nó ảnh hưởng như thế nào đến tư duy của chúng ta về việc phát hiện lỗ hổng.
Trước hết, theo cách tôi nhìn nhận, Aardvark được xây dựng rõ ràng cho developer.
Nó hoạt động như một phần trong quy trình kỹ thuật: đọc code, phát hiện lỗi, viết unit test, vá, commit. Aardvark thậm chí có thể hiểu ngữ cảnh runtime bằng cách đọc Dockerfile, Helm chart hoặc Terraform, rồi dựng môi trường container để tái hiện lỗi.
Nhưng dù vậy, nó vẫn vận hành trong một “vũ trụ đóng” – nơi được định nghĩa bởi repository.
Aardvark giả định môi trường trong code giống với môi trường thật – nhưng nó không thực sự chạy hay triển khai ứng dụng.
Đây chính là khoảng trống: những gì repository mô tả vs. những gì thật sự đang chạy ngoài production.
Và thực tế, môi trường đã triển khai luôn tồn tại những hành vi mà chỉ một hệ thống “quan sát từ bên ngoài” mới thấy được:
- Một service hoặc endpoint bị lộ ra Internet dù đáng lẽ không thể truy cập – do sai routing, firewall rule, hoặc lỗi proxy.
- Lỗi xác thực hoặc logic session (IDOR, thiếu header, sai cookie) chỉ xuất hiện trong môi trường chạy thực tế, không hề có trong snapshot mã nguồn.
- Lỗi liên quan đến CORS, CSP hoặc chuỗi phản hồi HTTP/TLS – chỉ nhìn thấy sau khi CDN, WAF, load balancer và các lớp edge rule xử lý.
- Sai sót hạ tầng hoặc cloud (cổng mở, bucket công khai, lộ metadata, lỗi IAM) – bất chấp Terraform nói rằng môi trường “nên” an toàn.
- Những đường tấn công nhiều bước – như SSRF truy cập metadata, hoặc kết hợp lỗi nhỏ ở một tài sản với thông tin nhạy cảm ở nơi khác – chỉ nhìn ra khi phân tích toàn bộ bề mặt tấn công dưới dạng đồ thị.
Các rủi ro này không nằm trong code, nhưng lại là thứ attacker nhìn thấy và khai thác.
Đó là nơi các external scanner và nền tảng CTEM phát huy vai trò – quan sát từ bên ngoài, quét bề mặt tấn công thực tế và xác thực xem điều gì thực sự có thể bị khai thác.
VÌ SAO CHÚNG TA CẦN HAI VÒNG LẶP (TWO LOOPS)
Theo tôi, chúng ta cần hai vòng lặp khác nhau nhưng liên kết chặt chẽ:
Loop #1: VÒNG LẶP PHÒNG THỦ (BÊN TRONG REPO)
Nơi Aardvark và các công cụ ASPM hoạt động.
Mục tiêu: bắt lỗi trước khi code được triển khai.
Quy trình:
Đọc repo → xây mô hình đe dọa → viết unit test → vá lỗi → merge.
Loop #2: VÒNG LẶP TẤN CÔNG (BÊN NGOÀI THẾ GIỚI THỰC)
Nơi các external scanner vận hành.
Mục tiêu: kiểm tra những gì attacker nhìn thấy.
Quy trình:
Khám phá tài sản → quét → xác thực khai thác → kiểm tra lại sau khi vá.
Vòng lặp thứ hai quan trọng vì ngay cả khi code “an toàn”, hệ thống triển khai thực tế có thể không an toàn. Bạn sẽ không biết cho đến khi bạn thử tấn công nó.
CÁCH TÔI HÌNH DUNG VỀ VIỆC NGHIÊN CỨU LỖ HỔNG
Nếu mô tả đơn giản, quy trình lý tưởng sẽ trông như sau:
- AI hoặc công cụ tĩnh tìm và đề xuất bản vá.
- CI chạy tái hiện lỗi và unit test.
- Bản vá được triển khai lên staging hoặc môi trường tương tự production.
- Hệ thống external scanning (ASM/DAST) tự động chạy – kiểm tra DNS, cổng, header, TLS, drift của cloud.
- Chỉ khi cả kiểm tra nội bộ và kiểm tra bên ngoài đều vượt qua, lỗi mới được xem là đã xử lý xong.
Đây là cách duy nhất để thu hẹp khoảng cách giữa “developer nghĩ đã sửa” và “attacker vẫn có thể khai thác”.
AI CẦN VÒNG LẶP THỨ HAI ĐỂ PHẢN CHIẾU THẾ GIỚI THỰC
AI đang tiến bộ rất nhanh trong phân tích code, nhưng nó vẫn hoạt động dựa trên intent – dựa trên những gì code nói rằng hệ thống nên như vậy.
Để hiểu đúng rủi ro, chúng ta cần vòng lặp thứ hai: giám sát liên tục những gì thực sự chạy trên production.
Tương lai của AI trong an ninh mạng sẽ là sự kết hợp của cả hai góc nhìn:
- Một vòng giúp ngăn lỗ hổng ngay từ khi viết code.
- Vòng còn lại đảm bảo không còn gì có thể bị khai thác sau khi triển khai.
Khi hai vòng này kết hợp, AI mới có thể cho chúng ta thấy bức tranh thật về mức độ bảo mật – không chỉ bức tranh “trong code”.
Đó chính là nơi mà lĩnh vực này đang hướng đến: AI phản chiếu thực tế, không chỉ phản chiếu ý định.
Unitas cam kết đồng hành cùng doanh nghiệp, cung cấp các giải pháp và phân tích an ninh mạng tiên tiến nhất. Để nhận được tư vấn chuyên sâu hoặc hỗ trợ nhanh chóng, vui lòng liên hệ với chúng tôi qua email: info@unitas.vn hoặc Hotline: (+84) 939 586 168.