Lỗ hổng từ AI mã nguồn mở đang mở đường cho tội phạm mạng

Các chuyên gia bảo mật vừa đưa ra lời cảnh báo về việc tin tặc và tội phạm có thể dễ dàng chiếm quyền điều khiển các máy tính chạy mô hình ngôn ngữ lớn (LLM) nguồn mở, lách qua các rào cản an ninh của những nền tảng lớn để tạo ra các lỗ hổng bảo mật nghiêm trọng.

15:30, 30/01/2026

Một nghiên cứu kéo dài 293 ngày, thực hiện bởi hai công ty bảo mật danh tiếng SentinelOne và Censys (được chia sẻ độc quyền với hãng tin Reuters), đã hé lộ một "góc khuất" đáng ngại của cuộc cách mạng AI.

Từ công cụ cá nhân đến vũ khí của tội phạm mạng

Khác với các nền tảng AI lớn (như ChatGPT) vốn có hệ thống "rào chắn" (guardrails) nghiêm ngặt để ngăn chặn nội dung độc hại, các mô hình mã nguồn mở cho phép người dùng tự vận hành trên thiết bị cá nhân.

Nghiên cứu chỉ ra rằng, tội phạm mạng đang ráo riết nhắm mục tiêu vào các hệ thống máy tính này nhằm trục lợi và thực hiện các hành vi gây hại trên quy mô lớn. Cụ thể, chúng tận dụng sức mạnh của AI để tự động hóa các chiến dịch lừa đảo (phishing) tinh vi và phát tán thư rác tràn lan, đồng thời dàn dựng các chiến dịch tin giả (disinformation) nhằm thao túng dư luận. 

Nguy hiểm hơn, những mô hình này còn bị lợi dụng để sản xuất hàng loạt nội dung độc hại, từ ngôn từ thù ghét, hình ảnh bạo lực cho đến các tài liệu xâm hại trẻ em, gây ra những hệ lụy nghiêm trọng cho an ninh mạng và đạo đức xã hội.

Dù có hàng ngàn biến thể AI mã nguồn mở, phần lớn các máy chủ bị phát hiện đang chạy các phiên bản của Llama (Meta) hoặc Gemma (Google DeepMind). Đáng lo ngại hơn, các nhà nghiên cứu đã tìm thấy hàng trăm trường hợp mà các lớp bảo vệ an toàn của mô hình đã bị chủ động gỡ bỏ hoàn toàn.

Ông Juan Andres Guerrero-Saade, Giám đốc nghiên cứu bảo mật tại SentinelOne, ví tình trạng này như một "tảng băng trôi" mà ngành công nghệ đang lờ đi. "Các cuộc thảo luận về kiểm soát an ninh AI hiện nay đang phớt lờ phần năng lực dư thừa đang bị lợi dụng cho đủ loại mục đích, từ hợp pháp đến tội phạm”, ông Guerrero-Saade nhấn mạnh.

Nghiên cứu phân tích các triển khai LLM mã nguồn mở có thể truy cập công khai, được vận hành thông qua Ollama - một công cụ cho phép cá nhân và tổ chức tự chạy các phiên bản mô hình ngôn ngữ lớn của riêng mình. Kết quả cho thấy: Khoảng 1/4 các mô hình để lộ "lệnh hệ thống" (system prompts) - bộ quy tắc điều khiển hành vi của AI. Trong số đó, có tới 7,5% cấu hình cho phép thực hiện các hoạt động gây hại. Về địa lý, khoảng 30% các máy chủ này đặt tại Trung Quốc và 20% tại Hoa Kỳ.

Trách nhiệm thuộc về ai?

Vấn đề này đang làm dấy lên cuộc tranh cãi về trách nhiệm của các “ông lớn” công nghệ khi tung ra các mô hình mã nguồn mở.

Bà Rachel Adams (CEO Trung tâm Quản trị AI Toàn cầu) cho rằng trách nhiệm thuộc về cả hệ sinh thái. Các phòng thí nghiệm AI không thể dự đoán mọi sự lạm dụng, nhưng họ có nghĩa vụ dự báo các tác hại có thể xảy ra và cung cấp công cụ giảm thiểu rủi ro.

Đại diện Microsoft hẳng định AI mã nguồn mở rất quan trọng nhưng cũng thừa nhận rủi ro bị đối thủ lợi dụng là hiện hữu. Microsoft tuyên bố luôn đánh giá rủi ro kỹ lưỡng trước khi phát hành và theo dõi sát sao các mối đe dọa mới.

Phía Meta từ chối trả lời các câu hỏi liên quan đến trách nhiệm của nhà phát triển trong việc xử lý nguy cơ lạm dụng mô hình mã nguồn mở, nhưng cho biết công ty đã cung cấp bộ công cụ Llama Protection cho nhà phát triển và Hướng dẫn sử dụng có trách nhiệm Meta Llama.

Hiện tại, phía Ollama, Google và Anthropic vẫn chưa đưa ra phản hồi chính thức về vấn đề này.

Lệ Thanh (theo Reuters)

Bình luận