![]() |
| Công ty bảo mật Radware vừa công bố phát hiện một lỗ hổng nghiêm trọng trong tính năng Deep Research của ChatGPT, có khả năng dẫn đến rò rỉ dữ liệu cá nhân từ tài khoản Gmail của người dùng. Ngay sau đó, OpenAI đã tiến hành khắc phục sự cố và cam kết tăng cường bảo mật cho hệ thống trí tuệ nhân tạo của mình. |
Theo báo cáo từ Radware, lỗ hổng được đặt tên là ShadowLeak thuộc loại “zero-click server-side prompt injection” – một dạng tấn công không yêu cầu người dùng phải tương tác (như nhấp chuột hay mở liên kết) nhưng vẫn có thể bị khai thác.
Cụ thể, tin tặc có thể gửi email chứa lệnh ẩn (prompt injection) được ngụy trang khéo léo (chẳng hạn chữ trắng trên nền trắng, kích cỡ cực nhỏ) tới tài khoản Gmail của người dùng. Nếu tài khoản này đã cấp quyền cho ChatGPT Deep Research truy cập, hệ thống có thể vô tình đọc các lệnh ẩn đó và thực hiện hành vi ngoài ý muốn, như truy xuất thông tin cá nhân rồi gửi dữ liệu về máy chủ do tin tặc kiểm soát.
Ra mắt từ đầu năm 2025, Deep Research là tính năng cao cấp của ChatGPT, cho phép thực hiện các tác vụ nghiên cứu chuyên sâu, tổng hợp dữ liệu trực tuyến và thậm chí truy xuất nội dung từ tài khoản Gmail của người dùng (nếu được cấp quyền). Đây là một trong những công cụ mạnh nhất do OpenAI phát triển, được tích hợp vào phiên bản ChatGPT sử dụng trình duyệt và API nâng cao.
Chính vì khả năng truy cập sâu vào dữ liệu cá nhân, bất kỳ lỗ hổng nào trong Deep Research đều có thể trở thành mối đe dọa nghiêm trọng với người dùng cá nhân và cả doanh nghiệp.
Radware cho biết họ đã thông báo lỗ hổng tới OpenAI vào cuối tháng 8 theo quy trình công bố có trách nhiệm (responsible disclosure). Sau quá trình đánh giá nội bộ, OpenAI xác nhận đã vá lỗ hổng vào ngày 3/9/2025, đồng thời phát hành cập nhật để vô hiệu hóa nguy cơ khai thác từ phía máy chủ.
Phía OpenAI khẳng định: “Chúng tôi luôn đặt sự an toàn của người dùng lên hàng đầu và cam kết không ngừng cải tiến hệ thống bảo mật nhằm ứng phó với các mối đe dọa trong kỷ nguyên AI.”
Dù lỗ hổng được đánh giá là nghiêm trọng, cả Radware và OpenAI đều xác nhận chưa ghi nhận bất kỳ trường hợp khai thác nào xảy ra trên thực tế tính đến thời điểm công bố. Tuy nhiên, các chuyên gia cảnh báo rằng sự việc này cho thấy rõ mối nguy tiềm tàng của các công cụ AI có khả năng tự động hóa cao, đặc biệt khi chúng được tích hợp với dữ liệu cá nhân hoặc hệ thống doanh nghiệp.
Ông Pascal Geenens, Giám đốc nghiên cứu mối đe dọa tại Radware, nhận định: “Nếu một tài khoản Gmail doanh nghiệp bị khai thác theo cách này, tổ chức đó có thể không hề biết dữ liệu đang âm thầm bị rò rỉ.”
Sự cố lần này là lời nhắc cảnh báo cho người dùng cá nhân và tổ chức khi sử dụng các công cụ AI tích hợp sâu với dữ liệu nhạy cảm. Việc cấp quyền truy cập email, tài liệu, hoặc hệ thống nội bộ cần đi kèm với sự hiểu biết rõ ràng về rủi ro và cơ chế bảo vệ dữ liệu.
Khôi Nguyên









Bình luận