Trong năm qua, KELA đã quan sát thấy các chiến thuật khác nhau được các tác nhân đe dọa sử dụng, khai thác các công cụ GenAI công khai đã “vượt ngục” hoặc các công cụ AI đen tối tùy chỉnh, cho phép kẻ tấn công đưa ra lệnh cho LLM về bất kỳ chủ đề hoặc tác vụ nào và nhận được nội dung độc hại. Dưới đây là các kỹ thuật tấn công chính được tội phạm mạng sử dụng để khai thác các công cụ AI:
- Lừa đảo (Phishing) và Tấn công phi kỹ thuật (Social Engineering) tự động
- Nghiên cứu lỗ hổng
- Phát triển phần mềm độc hại (Malware) và khai thác (Exploit)
- Gian lận danh tính và Tội phạm tài chính
- Tấn công mạng tự động
1. Lừa đảo (Phishing) và Tấn công phi Kỹ thuật (Social Engineering) tự động
Tội phạm mạng ngày càng tận dụng các công cụ AI để tăng cường sự tinh vi và hiệu quả của các chiến dịch lừa đảo và tấn công phi kỹ thuật thông qua văn bản, âm thanh và hình ảnh. Với AI, kẻ tấn công có thể tự động hóa việc tạo ra các email, tin nhắn, bản ghi âm giả mạo và thậm chí cả video deepfake có độ chân thực cao, bắt chước chặt chẽ các giao tiếp hợp pháp từ các nguồn đáng tin cậy, làm tăng khả năng lừa người dùng cung cấp thông tin nhạy cảm.
Ví dụ: vào ngày 7 tháng 1 năm 2025, một tác nhân đã chia sẻ trên diễn đàn tội phạm mạng nói tiếng Nga Exploit, một hướng dẫn về các chiến thuật tấn công phi kỹ thuật kết hợp với các công cụ deepfake AI để lừa nạn nhân tiết lộ thông tin nhạy cảm. Tác nhân này giải thích cách sao chép giọng nói của một cá nhân đáng tin cậy, chẳng hạn như giọng nói của một CEO, để mạo danh họ trong một vụ lừa đảo. Sau khi đạt được mục tiêu này, kẻ tấn công có thể gọi điện cho một nhân viên giả làm CEO và yêu cầu chuyển khoản gấp.
Một tác nhân giải thích cách sử dụng các công cụ deepfake âm thanh để bắt chước một CEO
Các tác nhân đe dọa liên tục tìm kiếm những cách thức mới để tự động hóa các chiến dịch lừa đảo của họ. Vào ngày 16 tháng 3 năm 2025, một tác nhân tuyên bố đã xây dựng các hệ thống Phản hồi bằng giọng nói tương tác (IVR) và callbot dựa trên AI để tự động hóa các chiến dịch lừa đảo qua điện thoại (vishing). Các công cụ này cho phép các tác nhân tự động gọi một lượng lớn số điện thoại và kết nối các cuộc gọi được trả lời với các bot AI.
Các tác nhân đe dọa có thể sử dụng các công cụ này để hỗ trợ các chiến dịch spam, lừa đảo và các hoạt động gian lận qua điện thoại của họ. Tác nhân này đã chào bán các công cụ này với giá khởi điểm từ 2000 USD.
Một tác nhân quảng bá các hệ thống IVR tăng cường bằng AI để tự động hóa các cuộc tấn công vishing
Nghiên cứu gần đây được công bố bởi Harvard Business Review cho thấy rằng các cuộc tấn công lừa đảo tự động bằng AI giúp giảm chi phí tấn công hơn 95% trong khi đạt được tỷ lệ thành công tương đương hoặc cao hơn. Điều này có nghĩa là tội phạm mạng có thể tăng đáng kể tốc độ và quy mô của các chiến dịch lừa đảo. Để chống lại điều này, các tổ chức cần hành động nhanh chóng và triển khai các biện pháp bảo mật dựa trên AI để phát hiện và chặn các mối đe dọa lừa đảo trong thời gian thực.
2. Nghiên cứu lỗ hổng
Một cách khác mà tội phạm mạng sử dụng AI để tăng cường hoạt động của chúng là thông qua quét và phân tích tự động. Kẻ tấn công tận dụng các công cụ dựa trên AI để tự động hóa kiểm thử xâm nhập, khám phá các lỗ hổng trong hệ thống phòng thủ bảo mật có thể bị khai thác dễ dàng. Điều này đẩy nhanh chu kỳ tấn công và cho phép tội phạm mạng tiến hành tấn công trước khi các nhóm bảo mật có thể phản ứng hiệu quả.
KELA đã quan sát thấy các tác nhân đe dọa cung cấp các công cụ AI độc hại hỗ trợ khai thác các lỗ hổng phần mềm. Vào ngày 16 tháng 2 năm 2025, một tác nhân đã khuyến nghị sử dụng mô hình của Trung Quốc, DeepSeek, để tìm cách khai thác lỗ hổng CVE-2025-24367, ảnh hưởng đến Cacti, một framework quản lý hiệu suất và lỗi mã nguồn mở. Vào tháng 1 năm 2025, nghiên cứu DeepSeek của KELA đã gây chú ý khi cho thấy mô hình của Trung Quốc dễ bị tấn công Prompt Injection khác nhau và là một công cụ hữu ích để tội phạm mạng tận dụng cho các mục đích độc hại.
3. Phát triển phần mềm độc hại (Malware) và khai thác (Exploit)
Tội phạm mạng ngày càng sử dụng AI để tăng cường phát triển phần mềm độc hại, làm cho nó dễ thích ứng hơn và khó bị phát hiện hơn. Các tác nhân đe dọa tối ưu hóa payload của họ bằng cách sử dụng các công cụ AI để được hỗ trợ trong việc tạo các tập lệnh độc hại và các kỹ thuật né tránh.
Các tác nhân đe dọa đã thảo luận về cách khai thác mô hình của Trung Quốc, DeepSeek, cho các mục đích này. Một tác nhân quan tâm đến một công cụ AI mũ đen (một công cụ AI không bị kiểm duyệt, không có rào cản bảo vệ) để tạo phần mềm độc hại. Một tác nhân khác trả lời rằng anh ta có thể sử dụng DeepSeek để tạo payload độc hại, hướng dẫn chatbot đưa ra các hướng dẫn từng bước.
Tội phạm mạng cũng sử dụng các công cụ tùy chỉnh để tạo phần mềm độc hại. Một tác nhân tuyên bố đã phát triển phần mềm độc hại đánh cắp thông tin (infostealer), đánh cắp tất cả thông tin đăng nhập từ các máy bị nhiễm bằng một công cụ AI có tên là EvilAI. Tác nhân này đã chia sẻ thông tin liên hệ của mình và mời những người dùng khác mua quyền truy cập vào bot AI Telegram của mình. Theo tác nhân này, EvilAI là LLM dựa trên các mô hình GPT4 và Mistral và được đào tạo trên các tập lệnh phần mềm độc hại và các trang lừa đảo, cho phép bot tạo ra bất kỳ loại nội dung độc hại nào. Giá của chatbot dao động từ 10 USD đến 60 USD tùy thuộc vào các tính năng đi kèm. Tác nhân này tuyên bố trên kênh Telegram của mình rằng những người dùng quảng cáo và quảng bá bot này trên kênh Telegram của họ sẽ được truy cập miễn phí.
Một tác nhân khác giải thích cách tạo ransomware bằng các công cụ AI. Tác nhân này gợi ý đào tạo các mô hình AI tùy chỉnh cho các tác vụ này, đề cập đến các dự án mã nguồn mở như PentestGPT, 0dAI và EvilGPT. Tác nhân này đã cung cấp một ví dụ bằng cách sử dụng mô hình Dolphin Mixtral 7B (một biến thể của mô hình ngôn ngữ Mixtral) trong framework Ollama để tạo ransomware. Tác nhân này đã thành công trong việc tạo mã ransomware sau khi hướng dẫn mô hình rằng nó chỉ dành cho mục đích giáo dục:
4. Gian lận danh tính và Tội phạm tài chính
Vào tháng 12 năm 2024, FBI đã cảnh báo rằng tội phạm mạng ngày càng khai thác AI tạo sinh để tăng cường các kế hoạch gian lận, làm cho chúng thuyết phục hơn và lan rộng hơn. KELA quan sát thấy rằng các tác nhân có động cơ tài chính quảng bá các công cụ AI độc hại tập trung vào các hoạt động gian lận và lừa đảo. Vào tháng 7 năm 2023, FraudGPT đã được tác nhân “canadiankingpin” quảng bá trên các diễn đàn tội phạm mạng, cung cấp chatbot AI với nhiều khả năng độc hại khác nhau, từ tạo các trang lừa đảo đến tìm VBV BINs, có nghĩa là số thẻ tín dụng chưa được đăng ký trong hệ thống xác thực 3D Secure của Visa. Điều này cho phép những kẻ gian lận sử dụng chi tiết thẻ bị đánh cắp mà không kích hoạt các bước kiểm tra bảo mật bổ sung.
FraudGPT được bán theo hình thức đăng ký, cho phép người dùng truy cập vào chatbot. Giá cho công cụ này dao động từ 89 USD mỗi tháng hoặc đăng ký trọn đời với giá 199 USD. Công cụ này đã được lan truyền trên các diễn đàn tội phạm mạng vào năm 2024, gây ra sự quan tâm trong giới các tác nhân đe dọa. Vào ngày 10 tháng 11 năm 2024, một tác nhân đe dọa “Ghost06220” tuyên bố đã sử dụng FraudGPT để tạo các tập lệnh tùy chỉnh. Tác nhân này đã tạo một payload cho USB Rubber Ducky, một công cụ kiểm thử xâm nhập được sử dụng để tự động hóa các cuộc tấn công chèn phím. Thiết bị này có thể hoạt động như một bàn phím và thực thi các tập lệnh được viết sẵn trên một máy mục tiêu khi được cắm vào.
Một chiến thuật hữu ích khác cho những kẻ gian lận là sử dụng các công cụ deepfake để vượt qua các bước kiểm tra xác minh và thực hiện các hoạt động gian lận, chẳng hạn như mở tài khoản ngân hàng, đăng ký vay hoặc thực hiện các giao dịch mua trái phép. Trong bối cảnh này, hình ảnh deepfake cho phép kẻ tấn công tạo ra những hình ảnh có độ chân thực cao nhưng hoàn toàn là tổng hợp, có thể được sử dụng cho các hoạt động gian lận.
Vào năm 2024, có nhu cầu và nguồn cung lớn về các công cụ deepfake trong giới tội phạm mạng ngầm, cho phép các tác nhân vượt qua KYC (Know Your Customer), quy trình xác minh được sử dụng cho gian lận tài chính. KYC là một quy trình bảo mật được các ngân hàng và nền tảng tài chính sử dụng để xác minh danh tính người dùng trước khi cho phép truy cập vào các dịch vụ như chuyển tiền, tạo tài khoản và rút tiền. Các tác nhân thao túng các công cụ AI để thành công và vượt qua các công cụ bảo mật để thực hiện hành vi lừa đảo của chúng.
Một ví dụ thực tế khác minh họa sự nguy hiểm của trò lừa đảo deepfake đã được ngăn chặn nhờ sự nhạy bén của một giám đốc điều hành Ferrari. Vào tháng 7 năm 2024, một giám đốc điều hành Ferrari đã nhận được tin nhắn WhatsApp từ một số lạ mạo danh CEO Benedetto Vigna, thúc giục ông ký một thỏa thuận không tiết lộ cho một vụ mua lại lớn được cho là sắp diễn ra. Kẻ tấn công đã sử dụng deepfake âm thanh để bắt chước giọng miền nam nước Ý của Vigna, khiến trò lừa đảo trở nên rất thuyết phục.
Điều thú vị là, vị giám đốc điều hành đã thử thách người gọi bằng một câu hỏi cá nhân mà chỉ Vigna mới biết, vạch trần hành vi gian lận và ngăn chặn tổn thất tài chính và thiệt hại uy tín tiềm ẩn.
5. Tội phạm mạng Tấn công tự động
Các công cụ AI độc hại cho phép kẻ tấn công tự động hóa và thực hiện các cuộc tấn công dễ dàng hơn. Bẻ khóa mật khẩu là một ví dụ, các mô hình học máy có thể được đào tạo trên các cơ sở dữ liệu mật khẩu bị rò rỉ để dự đoán các mật khẩu hoặc mẫu mật khẩu có khả năng, tăng tốc đáng kể các nỗ lực brute-force của chúng. Các công cụ AI cũng có thể cải thiện credential stuffing (sử dụng tự động các mật khẩu bị đánh cắp trên nhiều trang web). Trong lĩnh vực tấn công mạng, AI giúp tối ưu hóa các chiến lược Tấn công từ chối dịch vụ phân tán (DDoS). Tóm lại, bất kỳ cuộc tấn công nào dựa trên số lượng lớn, sự lặp lại hoặc thử và sai đều có thể trở nên mạnh mẽ hơn nhiều khi được hướng dẫn bởi các công cụ AI học được phương pháp tối ưu.
KELA đã quan sát thấy các tác nhân đe dọa khác nhau sử dụng các công cụ và kỹ thuật AI để tự động hóa các cuộc tấn công của họ. Ví dụ: vào ngày 11 tháng 1 năm 2025, một tác nhân đã đăng một chủ đề có tên “DDoS Tornado”, chia sẻ một đoạn mã JavaScript được cho là cho phép nó làm ngập mục tiêu bằng các yêu cầu quá mức và có khả năng vượt qua các biện pháp bảo vệ như Cloudflare.
Ngoài ra, các nhóm hacktivist đã sử dụng AI để tiến hành các cuộc tấn công DDoS thành công hơn. Nhóm hacktivist Moroccan Soldiers đã chia sẻ một bản cập nhật về botnet của họ, VirusC2, tuyên bố rằng họ sử dụng các kỹ thuật né tránh dựa trên AI để vượt qua các biện pháp bảo mật, điều này làm cho các cuộc tấn công DDoS hiệu quả hơn.
Tác nhân đe dọa Moroccan Soldiers tuyên bố sử dụng AI bypass để tiến hành một cuộc tấn công DDoS
Một tác nhân khác đã chia sẻ công cụ OSINT tiếng Tây Ban Nha dựa trên AI, được cho là cho phép khả năng tìm kiếm nhanh hơn trên các nhật ký đánh cắp thông tin (stealer logs). Công cụ này, DarkGPT, là một phiên bản “vượt ngục” của GPT4, được thiết kế để thực hiện các truy vấn trên các nhật ký infostealer. Sau khi một máy bị nhiễm phần mềm độc hại infostealer, kẻ tấn công sẽ giành quyền kiểm soát tất cả các nhật ký thu thập được. Thông thường, kẻ tấn công sẽ phân phối các nhật ký này trên các kênh Telegram và các nền tảng tội phạm mạng đã biết. Công cụ này tự động hóa quy trình cho các tác nhân đe dọa, giúp xác định các dịch vụ bị xâm nhập có giá trị, chẳng hạn như tài khoản và thông tin đăng nhập của công ty, có thể được sử dụng làm điểm xâm nhập cho các chiến dịch lừa đảo và tấn công phi kỹ thuật.
Báo cáo đầy đủ bằng Tiếng Anh tại đây.
Unitas là đối tác tin cậy hàng đầu, được ủy quyền phân phối chính thức các giải pháp bảo vệ và giám sát dữ liệu Kela Cyber. Với kinh nghiệm và sự am hiểu sâu sắc, Unitas cam kết mang đến cho khách hàng những sản phẩm chất lượng cùng dịch vụ hỗ trợ chuyên nghiệp. Hãy lựa chọn Unitas để đảm bảo bạn nhận được giải pháp tối ưu và đáng tin cậy nhất cho nhu cầu của mình.
Liên hệ Unitas ngay hôm nay để được tư vấn chi tiết!
Thông tin hãng cung cấp giải pháp
