Tóm tắt về mỗi đe dọa từ AI:
AI đang phát triển nhanh chóng, và việc lạm dụng nó cũng vậy. Trong khi các công ty chạy đua đổi mới, tội phạm mạng không ngừng tìm kiếm những cách thức mới để khai thác nó, phá vỡ các biện pháp bảo vệ bằng kỹ thuật “vượt ngục” (jailbreaking) và triển khai các công cụ trí tuệ thông minh độc hại (dark AI) để hỗ trợ các cuộc tấn công của chúng. Ai sẽ thắng trong cuộc chiến này? Sự tinh vi ngày càng tăng của những mối đe dọa này cho thấy rằng các rủi ro liên quan đến AI sẽ tiếp tục tồn tại và leo thang vào năm 2025, đòi hỏi các giải pháp bảo mật mạnh mẽ hơn và quản trị đạo đức.
Trong báo cáo này, KELA đã phân tích các kỹ thuật và mô hình tấn công được các tác nhân đe dọa sử dụng trong giới tội phạm mạng ngầm, sử dụng các công cụ trí tuệ nhân tạo độc hại. Tội phạm mạng đang làm việc nhanh chóng để đẩy nhanh các cuộc tấn công của chúng thông qua các chiến dịch lừa đảo (phishing), nghiên cứu lỗ hổng, tạo phần mềm độc hại (malware), tấn công mạng tự động và tội phạm tài chính. Kẻ tấn công đang hành động nhanh chóng để khai thác AI, và điều này đòi hỏi một tư duy mới, nơi các tổ chức phải hành động nhanh chóng tương tự để đi trước một bước.
Những phát hiện đáng chú ý:
- Các phương pháp “vượt ngục” (jailbreaking) đang phát triển nhanh chóng: Các tác nhân đe dọa liên tục tinh chỉnh các kỹ thuật “vượt ngục” AI để vượt qua các hạn chế bảo mật trong các hệ thống trí tuệ nhân tạo công khai. KELA đã quan sát thấy sự gia tăng 52% trong các cuộc thảo luận liên quan đến các phương pháp “vượt ngục” trên các diễn đàn tội phạm mạng vào năm 2024 so với năm trước.
- Các tác nhân đe dọa ngày càng tận dụng AI trong các diễn đàn tội phạm mạng: Nền tảng của KELA đã ghi nhận sự gia tăng 200% trong số lần đề cập đến các công cụ AI độc hại vào năm 2024, làm nổi bật một thị trường ngầm đang phát triển cho tội phạm mạng được hỗ trợ bởi AI.
- Các công cụ AI đen tối (dark AI) đang lan rộng: Tội phạm mạng đang phân phối và bán các mô hình AI “vượt ngục” và các công cụ AI độc hại tùy chỉnh, chẳng hạn như WormGPT và FraudGPT, để tự động hóa các hoạt động lừa đảo, tạo phần mềm độc hại và gian lận.
- Các chiến dịch lừa đảo (phishing) do AI điều khiển đang trở nên tinh vi hơn: Các chiến thuật lừa đảo và kỹ thuật kỹ nghệ xã hội (social engineering) do trí tuệ nhân tạo tạo ra đã tăng hiệu quả, với công nghệ deepfake được sử dụng để mạo danh các giám đốc điều hành và lừa nhân viên thực hiện các giao dịch gian lận.
- Việc phát triển phần mềm độc hại (malware) đang trở nên hiệu quả hơn với sự hỗ trợ của AI: Các tác nhân đe dọa đang sử dụng các công cụ AI để tạo ra phần mềm độc hại tinh vi, khó phát hiện, bao gồm ransomware và infostealers, khiến việc phát hiện và giảm thiểu trở nên khó khăn hơn đối với các nhóm bảo mật.
- Các tổ chức phải áp dụng các biện pháp phòng thủ do AI điều khiển để chống lại các mối đe dọa AI: Sự phát triển nhanh chóng của các cuộc tấn công mạng được hỗ trợ bởi trí tuệ nhân tạo đòi hỏi một cách tiếp cận chủ động, tận dụng AI để phát hiện mối đe dọa theo thời gian thực, phân tích dự đoán và các cơ chế phản ứng tự động để chống lại các mối đe dọa mới nổi một cách hiệu quả.
Xem đầy đủ báo cáo bằng Tiếng Anh tại đây.
Thông tin hãng cung cấp giải pháp
