Các nhà nghiên cứu của Cybernews đã phát hiện ra một trường hợp đó là công cụ tìm kiếm và phân tích dữ liệu lớn Elasticsearch không được bảo vệ và có liên quan đến Vyro AI, công ty đứng sau một số công cụ AI tạo sinh được tải xuống nhiều nhất trên nền tảng hệ điều hành cho thiết bị di động Android và iOS.
![]() |
Máy chủ mở của Vyro AI này đã rò rỉ 116GB nhật ký người dùng theo thời gian thực từ ba ứng dụng của công ty gồm ImagineArt (hơn 10 triệu lượt tải xuống trên Google Play), Chatly (hơn 100 nghìn lượt tải xuống) và Chatbotx, một chatbot dựa trên web với khoảng 50 nghìn lượt truy cập hàng tháng.
Được biết, công ty có trụ sở tại Pakistan này đã tuyên bố có hơn 150 triệu lượt tải xuống ứng dụng trong danh mục đầu tư của mình và cho biết các sản phẩm của họ tạo ra 3,5 triệu hình ảnh mỗi tuần.
Vụ rò rỉ bao gồm cả môi trường sản xuất và phát triển, lưu trữ nhật ký của khoảng 2–7 ngày. Các nhà nghiên cứu cho biết, cơ sở dữ liệu này lần đầu tiên được các công cụ tìm kiếm IoT lập chỉ mục vào giữa tháng 2 năm nay, nghĩa là kẻ tấn công có thể đã nhìn thấy nó trong nhiều tháng.
Viro AI đã làm rò rỉ dữ liệu gồm Lời nhắc AI mà người dùng đã nhập vào ứng dụng; Mã thông báo xác thực của người mang và Tác nhân người dùng
"Vụ rò rỉ này rất nghiêm trọng vì nó cho phép theo dõi hành vi người dùng, trích xuất thông tin nhạy cảm mà người dùng chia sẻ với các mô hình AI và cho phép chiếm đoạt tài khoản người dùng", các nhà nghiên cứu của Cybernews giải thích.
Chỉ riêng quy mô của ImagineArt đã khiến sự cố này trở nên đáng báo động. Với hơn 10 triệu lượt cài đặt Android và hơn 30 triệu người dùng hoạt động, các mã thông báo bị rò rỉ là một “kho báu” cho những kẻ tấn công chiếm đoạt tài khoản. Kẻ tấn công có thể dễ dàng khai thác dữ liệu bị rò rỉ để khóa người dùng khỏi tài khoản của họ và chiếm đoạt tài khoản.
"Việc chiếm đoạt có thể dẫn đến việc truy cập vào toàn bộ lịch sử trò chuyện, truy cập vào hình ảnh được tạo hoặc có thể bị lạm dụng để mua mã thông báo AI bất hợp pháp, sau đó có thể được sử dụng cho các mục đích xấu", nhóm nghiên cứu cho biết thêm.
Việc rò rỉ các lời nhắc do người dùng cung cấp cho AI cũng rất rắc rối. Các cuộc trò chuyện với AI thường chứa đựng thông tin riêng tư, vì vậy việc rò rỉ lời nhắc có thể tiết lộ những điều mà mọi người sẽ không bao giờ đăng công khai.
Bảo mật AI vẫn chưa phải là ưu tiên hàng đầu
Vụ rò rỉ này nhấn mạnh lỗ hổng bảo mật ngày càng gia tăng trong lĩnh vực AI đang bùng nổ. Khi các công ty khởi nghiệp AI chạy đua giành thị phần, đôi khi họ lại bỏ qua khâu bảo mật. Nhưng khi ngày càng nhiều người cung cấp suy nghĩ, ý tưởng và thậm chí cả dữ liệu mật của họ vào các hệ thống AI tạo sinh, thì rủi ro ngày càng tăng.
Vào tháng 8 vừa qua, người dùng đã rất sốc khi các cuộc trò chuyện của họ với ChatGPT và Grok bị rò rỉ trên Google Search. Nguyên nhân của vụ rò rỉ là do một tính năng không an toàn cho phép người dùng chia sẻ các cuộc trò chuyện. Khi họ tạo liên kết chia sẻ, nội dung có thể được các công cụ tìm kiếm thu thập thông tin. OpenAI sau đó đã xóa tính năng này.
Gần đây, nghiên cứu của Cybernews cho thấy, một chatbot AI do gã khổng lồ du lịch Expedia ra mắt, với các lời nhắc phù hợp, có thể hướng dẫn người dùng cách chế tạo bom xăng. Tình huống này cho thấy các chatbot hỗ trợ khách hàng được phát hành mà không có các biện pháp bảo vệ phù hợp có thể khiến các công ty gặp rủi ro về pháp lý, tài chính và uy tín.
Mặc dù chatbot AI thường được lập trình sẵn để tránh các chủ đề nhạy cảm hoặc có hại, nhưng việc thiếu các biện pháp an toàn đáng tin cậy có thể khiến các mô hình AI hoạt động không bình thường.
Việc thiếu các rào cản bảo vệ ngay cả với những gã khổng lồ AI như OpenAI, vốn cũng đang gặp khó khăn trong việc xây dựng các rào cản bảo vệ hiệu quả, cũng gây ảnh hưởng. Sau khi công ty ra mắt mô hình chatbot mới nhất là GPT-5, một số nhóm bảo mật đã bẻ khóa nó trong vòng chưa đầy 24 giờ.
Hà Linh
Bình luận