Vì sao AI vừa là vũ khí phòng thủ, vừa có thể thành điểm yếu mới?

Trí tuệ nhân tạo (AI) đang mở ra khả năng rút ngắn thời gian phát hiện, phân tích và ứng phó sự cố an ninh mạng. Tuy nhiên, cùng với cơ hội, các chuyên gia cũng cảnh báo một rủi ro mới: nếu chỉ tập trung dùng AI để bảo vệ hệ thống mà xem nhẹ việc bảo vệ chính các mô hình AI, tổ chức có thể tự tạo ra lỗ hổng ngay trong “lá chắn” của mình.

AI có thể là một "tấm khiên" có lỗ hổng

Chia sẻ với báo giới bên lề hội thảo AI for Security do Hiệp hội An ninh mạng quốc gia (NCA) phối hợp với Check Point Software Technologies tổ chức, ông Vũ Duy Hiền, Phó Tổng thư ký kiêm Chánh văn phòng NCA, nêu một thực tế đáng chú ý: nhiều tổ chức đang dồn nguồn lực để ứng dụng công nghệ bảo vệ hệ thống, nhưng lại chưa dành sự quan tâm tương xứng cho việc bảo vệ chính “bộ não công nghệ” là các hệ thống AI.

Theo ông, trong bối cảnh nguồn lực của nhiều tổ chức tại Việt Nam còn hạn chế, ranh giới giữa “dùng AI để bảo mật” và “bảo mật cho AI” là rất mong manh; nếu không xác định rõ thứ tự ưu tiên, đơn vị triển khai có thể vô tình tạo ra lỗ hổng ngay trong cơ chế phòng thủ của mình.

Theo ông Vũ Duy Hiền (ngồi giữa), ranh giới giữa “dùng AI để bảo mật” và “bảo mật cho AI” là rất mong manh

Từ vấn đề được đặt ra, các chuyên gia tham dự hội thảo đã tập trung vào hai câu hỏi lớn: làm thế nào để AI thực sự trở thành công cụ hỗ trợ an ninh mạng hiệu quả, và phải thiết kế cơ chế quản trị ra sao để chính AI không trở thành điểm yếu mới của hệ thống.

Hai mặt của bài toán: bảo vệ AI và dùng AI để bảo vệ hệ thống

Đại tá Nguyễn Hồng Quân, Phó Cục trưởng Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (A05), Bộ Công an, cho rằng khi nói đến AI trong an ninh mạng cần nhìn rõ hai khía cạnh song song. Một là bảo vệ chính các hệ thống AI; hai là sử dụng AI như một công cụ để ngăn chặn, phát hiện và ứng phó với các hoạt động tấn công mạng. Theo ông, AI về bản chất đang tham gia ngày càng sâu vào quá trình ra quyết định, nên có thể hình dung như một “bộ não” thứ hai của con người và tổ chức. Nếu “bộ não” đó bị tấn công, bị đầu độc dữ liệu hoặc bị làm sai lệch, nó sẽ dẫn đến các quyết định sai và kéo theo rủi ro rất lớn trong vận hành.

Từ góc nhìn này, Đại tá Nguyễn Hồng Quân nhấn mạnh rằng yêu cầu đầu tiên là phải bảo đảm hệ thống AI vận hành an toàn, đủ tin cậy để hỗ trợ đưa ra quyết định đúng và nhanh. Theo ông, nhanh là cần thiết, nhưng nhanh mà sai thì có thể dẫn đến hậu quả nghiêm trọng, thậm chí là “thảm họa”. Ở chiều ngược lại, chính năng lực xử lý dữ liệu và nhận diện mẫu tấn công với tốc độ rất cao của AI lại mở ra khả năng mới cho công tác phòng, chống tấn công mạng, giúp việc phát hiện và ứng phó sự cố diễn ra nhanh hơn nhiều so với trước.

Đại tá Nguyễn Hồng Quân (thứ ba từ trái sang) nhấn mạnh yêu cầu đầu tiên là phải bảo đảm hệ thống AI vận hành an toàn, đủ tin cậy để hỗ trợ đưa ra quyết định đúng và nhanh

Ông Quân cũng cho rằng với doanh nghiệp, đặc biệt là doanh nghiệp nhỏ và vừa, thứ tự ưu tiên hợp lý trong giai đoạn đầu không hẳn là chạy theo các công cụ AI phức tạp để phục vụ bảo mật, mà trước hết phải bảo đảm bản thân công cụ AI được đưa vào sử dụng là công cụ an toàn. Theo ông, về lâu dài sẽ cần có những quy định, tiêu chí hoặc chuẩn mực rõ ràng hơn để người dùng và doanh nghiệp biết đâu là công cụ AI đủ mức an toàn để ứng dụng trong hoạt động sản xuất, kinh doanh.

Mối đe dọa mới đòi hỏi cách tiếp cận toàn diện

Ở góc độ doanh nghiệp công nghệ, bà Ruma Balasubramanian, Chủ tịch khu vực châu Á - Thái Bình Dương và Nhật Bản của Check Point Software Technologies, cho biết những mối đe dọa nhắm vào AI đang có quy mô và tốc độ lớn hơn đáng kể so với nhiều kiểu đe dọa truyền thống. Theo bà, các rủi ro đặc thù với AI có thể chia thành một số nhóm chính, trong đó nổi bật là nguy cơ dữ liệu bị đầu độc, nguy cơ bị chèn lệnh hoặc thao túng đầu vào khiến mô hình xử lý sai, và nguy cơ can thiệp vào quy trình làm việc có sự tham gia của AI.

Bà Ruma Balasubramanian cho rằng để đối phó với các rủi ro này, tổ chức không thể chỉ vá từng lỗ hổng riêng lẻ mà cần một cách tiếp cận toàn diện hơn. Trong đó, lớp bảo vệ đầu tiên là kiểm soát việc nhân sự sử dụng các công cụ AI trong môi trường làm việc, nhất là các công cụ AI cá nhân hoặc những nền tảng chưa được tổ chức kiểm kê đầy đủ. Theo bà, điều cốt lõi là phải biết tổ chức đang dùng những công cụ AI nào, công cụ nào đã được nhận diện, công cụ nào chưa được nhận diện, đồng thời xây dựng chính sách quản trị đi kèm và ngăn chặn nguy cơ rò rỉ dữ liệu trong quá trình sử dụng.

Lớp bảo vệ thứ hai, theo đại diện Check Point, là bảo đảm các mô hình AI, các tác tử AI và các hệ thống vận hành liên quan hoạt động đúng với cách thức mà tổ chức thiết kế ban đầu. Nói cách khác, AI không chỉ cần mạnh mà còn phải có khả năng vận hành đúng mục tiêu, đúng quyền hạn và đúng kịch bản an toàn. Từ đó, bà cho rằng cách tiếp cận toàn diện theo hệ thống vẫn là phương án phù hợp nhất để giảm thiểu rủi ro cho toàn bộ tổ chức trước các mối đe dọa mới xuất hiện cùng với AI.

Dòng chảy dữ liệu xuyên biên giới

Một nội dung lớn khác được chia sẻ tại buổi họp báo là bài toán dòng chảy dữ liệu xuyên biên giới trong thời đại AI. Đại tá Nguyễn Hồng Quân nhìn nhận đây là câu chuyện rất khó, bởi giữa một bên là nhu cầu phát triển, đổi mới sáng tạo dựa trên dữ liệu và một bên là yêu cầu bảo vệ chủ quyền dữ liệu, quyền riêng tư luôn tồn tại sự giằng co. Theo ông, nếu cản trở quá mức dòng chảy dữ liệu, hoạt động phát triển có thể bị ảnh hưởng; nhưng nếu để dữ liệu lưu chuyển một cách không kiểm soát, chủ quyền dữ liệu sẽ bị đe dọa. Ông cho rằng đây sẽ là vấn đề các cơ quan quản lý và hoạch định chính sách phải tiếp tục nghiên cứu kỹ để tìm ra mức độ cân bằng phù hợp.

Bổ sung từ góc nhìn quốc tế, bà Ruma Balasubramanian cho rằng muốn xử lý tốt bài toán này, trước tiên phải bảo đảm “tính khả kiến”, tức là biết rõ tổ chức đang có những công cụ AI nào và các công cụ đó đang được phép tiếp cận loại dữ liệu nào. Kế đến là vấn đề quản trị: phải quy định rõ mô hình nào được tiếp cận dữ liệu nào, mức sử dụng nào là chấp nhận được. Cuối cùng là áp dụng nguyên tắc gần với “zero trust”, theo đó các tác tử AI, máy chủ hay hệ thống liên quan chỉ được trao mức đặc quyền tối thiểu cần thiết để thực hiện công việc. Theo bà, việc phân loại dữ liệu theo từng lớp khác nhau sẽ giúp vừa tạo không gian cho đổi mới sáng tạo, vừa duy trì được yêu cầu bảo vệ dữ liệu và chủ quyền số.

Check Point
Bà Ruma Balasubramanian cho rằng muốn xử lý tốt bài toán này, trước tiên phải bảo đảm “tính khả kiến”

AI có thể thay thế con người trong an ninh mạng hay không?

Đại tá Nguyễn Hồng Quân cho rằng AI đã và đang hỗ trợ rất mạnh cho các chuyên gia, nhất là trong việc xử lý khối lượng dữ liệu lớn, phân tích log, nhận diện hành vi lặp lại và rút ngắn đáng kể thời gian phát hiện, phân tích sự cố. Những công việc từng phải làm trong nhiều giờ, thậm chí nhiều tuần, nay có thể rút xuống chỉ còn vài phút, thậm chí vài giây.

Tuy nhiên, theo ông, AI chưa thể thay thế chuyên gia an ninh mạng, nhất là trong các cuộc tấn công có chủ đích, liên quan đến động cơ chính trị, tài chính hoặc những tình huống cần kinh nghiệm thực chiến và quyết định tức thời. Ở những trường hợp đó, phán đoán của con người vẫn là mắt xích không thể thay thế.

Các chuyên gia đều có chung nhận định, AI đang trở thành công cụ ngày càng quan trọng của an ninh mạng hiện đại, nhưng AI không phải “lá chắn vạn năng”. Muốn khai thác hiệu quả công nghệ này, tổ chức phải đồng thời giải được bài toán công nghệ, quản trị, dữ liệu và trách nhiệm con người. Nói cách khác, trong kỷ nguyên số, năng lực phòng thủ không chỉ được đo bằng việc có ứng dụng AI hay không, mà còn ở chỗ biết bảo vệ AI, kiểm soát AI và đặt AI đúng vị trí trong toàn bộ cấu trúc an ninh mạng.

Đăng Khoa