Khoảng trống kiểm soát AI và nguy cơ vũ khí hóa trí tuệ nhân tạo từ DIG AI

Một công cụ trí tuệ nhân tạo (AI) không kiểm duyệt hoạt động trên Dark Web, có tên DIG AI, đang nhanh chóng thu hút sự quan tâm của giới tội phạm mạng. Các chuyên gia an ninh cảnh báo, công cụ này sẽ thúc đẩy sự phát triển các hoạt động phi pháp, từ phát tán mã độc, lừa đảo trực tuyến đến tuyên truyền cực đoan trong năm 2026.

09:04, 25/12/2025
Ảnh minh họa. AdobeStock
Ảnh minh họa. AdobeStock

Theo công ty an ninh mạng Resecurity, DIG AI cho phép người dùng tạo ra mã độc, kịch bản lừa đảo và nhiều loại nội dung trái phép khác mà gần như không cần kiến thức kỹ thuật chuyên sâu. Đây là một ví dụ điển hình cho xu hướng “vũ khí hóa AI”, khi các rào cản an toàn vốn có trên những nền tảng phổ biến như ChatGPT, Claude hay Gemini bị loại bỏ hoàn toàn.

“AI sẽ tạo ra những mối đe dọa và thách thức an ninh mới, cho phép các đối tượng xấu mở rộng quy mô tấn công và vượt qua các cơ chế bảo vệ nội dung”, các nhà nghiên cứu của Resecurity nhận định.

Sự hình thành và phát triển của “AI tội phạm”

DIG AI được xếp vào nhóm công cụ “AI phục vụ tội phạm”, được thiết kế có chủ đích để né tránh các biện pháp kiểm duyệt nội dung và chuẩn mực đạo đức mà các nền tảng AI chính thống đang áp dụng. Tốc độ lan tỏa của công cụ này cho thấy AI hiện đại có thể bị sử dụng cho mục đích phi pháp nhanh hơn rất nhiều so với khả năng thích ứng của các hệ thống phòng thủ.

Resecurity cho biết công ty phát hiện DIG AI từ tháng 9/2025 và ghi nhận mức tăng trưởng sử dụng mạnh trong quý IV, đặc biệt vào mùa nghỉ lễ cuối năm, thời điểm các hoạt động phi pháp trên toàn cầu thường gia tăng. Những phát hiện này xuất hiện trong bối cảnh thế giới chuẩn bị cho các sự kiện lớn như Thế vận hội mùa đông Milan hay World Cup, luôn đi kèm nguy cơ cao về an ninh mạng và an ninh xã hội trên thực tế.

Khác với các nền tảng hợp pháp, DIG AI không yêu cầu đăng ký tài khoản và có thể truy cập trực tiếp qua trình duyệt Tor chỉ trong vài bước. Qua thử nghiệm, các chuyên gia Resecurity xác nhận công cụ này có thể tạo nội dung thuộc nhiều lĩnh vực bất hợp pháp, từ gian lận tài chính, phát triển mã độc, đến hướng dẫn sản xuất chất cấm và thực hiện các cuộc tấn công tuyên truyền cực đoan.

Đáng chú ý, DIG AI có thể tạo ra các đoạn mã độc hoạt động thực tế, đủ khả năng cài “cửa hậu” vào ứng dụng web dễ bị tổn thương hoặc tự động hóa các chiến dịch lừa đảo quy mô lớn. Khi kết hợp với các giao diện cho phép các phần mềm tự động kết nối và trao đổi dữ liệu (API) bên ngoài, tội phạm mạng có thể giảm chi phí vận hành nhưng tăng đáng kể số lượng các cuộc tấn công. Nhà vận hành DIG AI, sử dụng bí danh “Pitch”, tuyên bố nền tảng này được xây dựng trên cơ sở ChatGPT Turbo nhưng đã loại bỏ toàn bộ các ràng buộc an toàn.

Mối đe dọa liên quan đến nội dung xâm hại trẻ em do AI tạo ra

Một trong những phát hiện đáng lo ngại nhất là khả năng DIG AI bị lạm dụng để hỗ trợ tạo ra hoặc thao túng nội dung xâm hại tình dục trẻ em (CSAM) do AI tạo sinh. Các công nghệ AI hiện nay có thể tạo ra hình ảnh và nội dung tổng hợp có độ chân thực cao, gây khó khăn lớn cho việc phát hiện và xử lý.

Resecurity cho biết DIG AI có thể hỗ trợ tạo hoặc chỉnh sửa các nội dung nhạy cảm liên quan đến trẻ vị thành niên. Trên thực tế, cơ quan thực thi pháp luật tại nhiều quốc gia đã ghi nhận sự gia tăng mạnh các vụ việc CSAM liên quan đến AI, bao gồm cả nội dung tổng hợp dùng cho mục đích tống tiền hoặc quấy rối.

Dù nhiều khu vực như Liên minh châu Âu, Anh và Australia đã ban hành luật hình sự hóa CSAM do AI tạo ra, việc thực thi vẫn gặp nhiều khó khăn khi các công cụ này được vận hành ẩn danh trên Dark Web.

Khoảng trống kiểm soát và quản lý AI trên Dark Web

Các nhà cung cấp AI chính thống hiện phụ thuộc vào hệ thống kiểm duyệt nội dung, chịu sự chi phối của luật pháp và các quy định như Đạo luật AI của EU. Nhưng những biện pháp này gần như không có tác dụng đối với các dịch vụ hoạt động ngoại biên pháp lý như DIG AI.

Giới tội phạm đang ngày càng tinh chỉnh các mô hình mã nguồn mở, loại bỏ bộ lọc an toàn và huấn luyện AI trên các tập dữ liệu “ô nhiễm” để tạo ra nội dung phi pháp theo yêu cầu. Từ đó hình thành một nền kinh tế ngầm AI độc hại cho thuê “AI-as-a-service”, vận hành tương tự mô hình kinh doanh bất hợp pháp nhưng tiềm ẩn những nguy cơ cho xã hội lớn hơn nhiều.

Những nguyên tắc cơ bạn giảm thiểu rủi ro từ mối đe dọa AI “tội phạm”

Các chuyên gia khuyến nghị tổ chức, doanh nghiệp cần chủ động nâng cao năng lực phòng thủ trước các cuộc tấn công được hỗ trợ bởi AI, bao gồm:

Tăng cường giám sát, nhanh chóng phát hiện các hình thức lừa đảo, mã độc, tấn công tự động có dấu hiệu sử dụng AI.

Mở rộng thu thập thông tin tình báo mối đe dọa, theo dõi Dark Web và các công cụ AI tội phạm.

Siết chặt quản lý danh tính và truy cập, áp dụng MFA chống lừa đảo, nguyên tắc đặc quyền tối thiểu và mô hình zero trust.

Đào tạo nhân sự nhận diện nội dung giả mạo do AI tạo ra, bao gồm deepfake và các chiêu thức xã hội kỹ thuật số mới.

Tăng cường khả năng ứng phó sự cố mạng, nhanh chóng áp dụng các công cụ an ninh mạng hỗ trợ AI, thực hiện diễn tập an ninh mạng theo quy trình giám sát, phân tích và ứng phó sự cố an ninh mạng (SOC).

Công cụ AI đang tái định hình các mối đe dọa trong không gian mạng

DIG AI không phải hiện tượng đơn lẻ, mà là dấu hiệu sớm cho thấy AI vũ khí hóa đang tái định hình toàn bộ không gian đe dọa mạng. Khi các nhóm tội phạm và cực đoan áp dụng hệ thống AI tự động, các đội ngũ an ninh sẽ phải đối mặt với các cuộc tấn công có quy mô, tốc độ và hiệu quả vượt xa những mô hình truyền thống.

Trong bối cảnh đó, việc chuyển sang tư duy zero trust và phòng thủ chủ động đang trở thành nền tảng quan trọng để hạn chế rủi ro và giảm thiểu tác động từ các mối đe dọa do AI thúc đẩy.

An Lâm (Theo eSecurity Planet)

Bình luận