![]() |
| Ảnh minh họa. The Hacker News |
OpenAI thừa nhận các mô hình mới có khả năng gây rủi ro an ninh mạng “cao”
OpenAI vừa đưa ra cảnh báo hiếm hoi về chính công nghệ của doanh nghiệp, cho biết các mô hình ngôn ngữ lớn (LLM) thế hệ tiếp theo có thể tạo ra rủi ro an ninh mạng “cao” nếu bị lạm dụng. Những mô hình mạnh này, về mặt lý thuyết, có thể hỗ trợ tạo zero-day exploit (lỗ hổng chưa được vá) hoặc giúp tin tặc tiến hành các chiến dịch tấn công mạng tinh vi và khó bị phát hiện hơn trước.
Trong bối cảnh ChatGPT và các công cụ AI đang được sử dụng rộng rãi, cảnh báo này thu hút sự chú ý lớn. OpenAI thừa nhận khả năng “kỹ thuật số hóa kiến thức tấn công mạng” của AI đang tăng nhanh, và điều này buộc công ty phải chủ động siết chặt an toàn trước khi rủi ro trở thành hiện thực.
Tuy vậy, hãng cũng nhấn mạnh mặt tích cực: chính sự tiến bộ này lại giúp AI trở thành trợ lý đắc lực cho phòng thủ an ninh mạng, từ rà soát mã, phát hiện lỗ hổng đến hỗ trợ vá lỗi nhanh hơn.
Sẵn sàng cho những mối đe dọa mới trong tương lai
Để giảm thiểu nguy cơ lạm dụng, OpenAI cho biết đang tập trung tăng cường khả năng phòng thủ cho thế hệ mô hình mới, bao gồm kiểm soát truy cập, giám sát chặt chẽ các câu lệnh nhạy cảm và siết luồng dữ liệu đầu ra. Hãng cũng chuẩn bị triển khai một chương trình chuyên biệt, cho phép các nhóm an ninh mạng tiếp cận những tính năng nâng cao theo từng cấp độ đánh giá rủi ro.
Bên cạnh đó, OpenAI sẽ thành lập Hội đồng Rủi ro Biên giới (Frontier Risk Council), quy tụ các chuyên gia an ninh mạng nhằm đánh giá ranh giới giữa khả năng AI hữu ích và nguy cơ bị lạm dụng. Những khuyến nghị từ hội đồng này sẽ được tích hợp trực tiếp vào quá trình phát triển mô hình trong tương lai.
OpenAI cũng khẳng định đây không phải vấn đề riêng của doanh nghiệp. Bất kỳ mô hình AI mạnh nào trên thị trường đều có thể bị khai thác theo cách tương tự. Vì vậy, hãng đang hợp tác với các công ty công nghệ lớn trong Frontier Model Forum, liên minh phát triển Trí tuệ Nhân tạo, được lập năm 2023 bởi OpenAI, Google, Microsoft và Anthropic - nhằm chia sẻ kinh nghiệm, thống nhất chuẩn an toàn và đánh giá rủi ro cho những mô hình AI tiên tiến nhất. Liên minh này được xem như “bàn tròn an toàn AI”, nơi các công ty lớn cùng thiết lập các quy chuẩn để ngăn AI bị lạm dụng.
Trong bối cảnh AI ngày càng trở thành công cụ phổ biến, cảnh báo lần này cho thấy các hãng công nghệ đang nghiêm túc nhìn nhận những rủi ro mới. Sự chủ động từ phía các nhà phát triển sẽ là yếu tố then chốt nhằm đảm bảo AI tiếp tục phát triển theo hướng an toàn - minh bạch - phục vụ con người, thay vì trở thành công cụ cho các cuộc tấn công mạng trong tương lai.
An Lâm (Theo TechRadar)


Bình luận