OpenAI cảnh báo mô hình AI mới có thể gây “rủi ro cao” về an ninh mạng

Công ty trí tuệ nhân tạo OpenAI mới đây đã tuyên bố các thế hệ mô hình AI tiếp theo mà họ đang phát triển có thể mang đến rủi ro an ninh mạng ở mức cao, do khả năng của chúng ngày càng mạnh mẽ có thể bị lợi dụng để tạo ra lỗ hổng hoặc hỗ trợ các cuộc tấn công mạng phức tạp.

14:17, 12/12/2025
 

OpenAI cho biết với sự tiến bộ nhanh chóng của các mô hình mới, chúng có thể phát triển các mã khai thác lỗ hổng “zero-day” hoạt động trên những hệ thống được bảo vệ nghiêm ngặt, hoặc hỗ trợ kẻ xấu trong việc xâm nhập vào các hệ thống doanh nghiệp, cơ sở hạ tầng công nghiệp và thậm chí gây ra những tác động thực tế ngoài đời.

Để đối phó rủi ro này, OpenAI đang triển khai một chiến lược an ninh nhiều lớp, bao gồm kiểm soát quyền truy cập, gia cố hạ tầng, thiết lập cơ chế giám sát hoạt động và các biện pháp hạn chế sử dụng sai mục đích. Công ty cũng đặt trọng tâm phát triển các ứng dụng AI phục vụ mục tiêu phòng thủ, như công cụ kiểm tra mã và vá lỗ hổng bảo mật.

Trong bối cảnh đó, OpenAI dự định ra mắt chương trình cấp quyền truy cập theo cấp độ cho những người dùng đủ điều kiện - đặc biệt là các chuyên gia và tổ chức củng cố an ninh mạng - để họ có thể sử dụng các tính năng nâng cao hỗ trợ phòng ngừa, đồng thời giảm nguy cơ bị lạm dụng.

Để tăng cường phản ứng với các nguy cơ liên quan đến trí tuệ nhân tạo, OpenAI cũng thành lập Hội đồng Rủi ro Tiên phong (Frontier Risk Council). Nhóm chuyên gia này sẽ bước đầu tập trung vào các vấn đề an ninh mạng, trước khi mở rộng phạm vi xem xét các rủi ro khác xuất hiện cùng với sự phát triển nhanh chóng của AI.

Cảnh báo mới của OpenAI xuất hiện trong bối cảnh công nghệ AI - dù mang lại nhiều cơ hội về đổi mới và hiệu quả - cũng ngày càng được nhận diện là con dao hai lưỡi trong an ninh mạng toàn cầu, khi khả năng tự động hóa, tìm kiếm lỗ hổng và tối ưu hóa tấn công cũng gia tăng tương ứng.

(tổng hợp)

Bình luận