![]() |
Trí tuệ nhân tạo (AI) không chỉ hỗ trợ con người mà đang làm thay đổi tận gốc cách thức vận hành của hệ thống an ninh mạng. Theo Reuters, việc ứng dụng AI thiếu kiểm soát đang mở rộng “bề mặt tấn công” – tức toàn bộ các điểm có thể bị xâm nhập khi doanh nghiệp triển khai công nghệ quá nhanh nhưng thiếu quy chuẩn giám sát. Gần 61% lãnh đạo an ninh trên thế giới thừa nhận AI đang tạo ra những “điểm mù mới” mà họ chưa kịp kiểm soát.
Tội phạm mạng nay có thể dùng mô hình sinh ngôn ngữ (LLM) để tự động hóa hành vi lừa đảo, viết mã độc không có chữ ký hoặc phân tích hành vi người dùng để vượt qua lớp bảo mật. Các công cụ deepfake được thương mại hóa khiến việc giả mạo giọng nói hay khuôn mặt để đánh lừa hệ thống xác thực trở nên dễ dàng hơn bao giờ hết. Europol đã cảnh báo tội phạm có tổ chức đang tận dụng AI để mở rộng quy mô hoạt động, giảm chi phí và tăng độ tinh vi — biến AI thành “động cơ cho tội phạm” chứ không chỉ là công cụ hỗ trợ.
Thực tế đã chứng minh mối lo này. Tháng 10/2025, vụ tấn công vào tập đoàn F5 – nhà cung cấp tường lửa và hạ tầng ứng dụng cho hơn 80% doanh nghiệp Fortune 500 – đã gây chấn động toàn cầu. Tin tặc được cho là đã đánh cắp mã nguồn và cấu hình phần mềm, khiến hàng trăm tổ chức đối tác phải rà soát hệ thống. Giới chuyên môn ví đây là “phiên bản thu nhỏ” của sự cố SolarWinds năm 2020, cho thấy ngay cả nhà cung cấp an ninh hàng đầu cũng có thể trở thành mắt xích yếu nhất trong chuỗi bảo mật. Khi niềm tin trở thành lỗ hổng, chuỗi cung ứng phải được xem là rủi ro có thể đo đếm, không thể coi là vùng an toàn mặc định.
Theo Cơ quan An ninh mạng quốc gia Anh (NCSC), các sự cố “rất nghiêm trọng” đã tăng 50% chỉ trong một năm. Nhiều tổ chức tài chính, y tế và giáo dục buộc phải tạm ngừng hoạt động do bị mã độc tống tiền. IBM cho biết chi phí trung bình của một vụ vi phạm dữ liệu năm 2025 lên tới 4,44 triệu USD, trong khi Verizon ghi nhận hơn 60% vụ tấn công xuất phát từ việc đánh cắp thông tin đăng nhập.
Bất chấp nhận thức về rủi ro, nhiều doanh nghiệp vẫn bị động trước các mối đe dọa mới. Nguyên nhân chủ yếu gồm: triển khai AI quá nhanh mà thiếu khung quản trị; yếu tố con người vẫn là “lỗ hổng lớn nhất” khi phishing và giả mạo giọng nói trở nên tinh vi; chuỗi cung ứng kỹ thuật phức tạp khiến doanh nghiệp không kiểm soát hết các điểm liên kết; và cuối cùng là khoảng cách giữa đầu tư công nghệ và năng lực vận hành thực tế.
Để đối phó, chuyên gia khuyến nghị chiến lược ba lớp: kiểm soát danh tính, quản trị vòng đời AI, và ứng phó phục hồi nhanh. Việc áp dụng xác thực đa yếu tố, mô hình “Zero Trust” và giám sát liên tục giúp giảm thiểu rủi ro truy cập trái phép. Đồng thời, cần có quy trình phê duyệt mô hình AI, tách biệt môi trường huấn luyện và vận hành, gắn nhãn dữ liệu rõ ràng và lưu vết truy cập để phát hiện bất thường sớm. Khi sự cố xảy ra, tốc độ phản ứng là yếu tố quyết định: cô lập hệ thống, thông báo minh bạch, khôi phục dữ liệu và phối hợp cơ quan chức năng phải được thực hiện theo kịch bản đã diễn tập trước.
Cùng với đó, hợp tác công – tư và chia sẻ thông tin về mối đe dọa giữa các tổ chức là xu hướng tất yếu. Nhiều quốc gia châu Âu, Bắc Mỹ đã chứng minh hiệu quả của các mạng lưới cảnh báo sớm, giúp doanh nghiệp phát hiện và ngăn chặn tấn công trước khi lan rộng.
Đối với Việt Nam và khu vực Đông Nam Á – nơi chuyển đổi số đang diễn ra mạnh mẽ – việc ứng dụng AI trên quy mô lớn cũng đồng nghĩa bề mặt tấn công mở rộng đáng kể. Ba ưu tiên hàng đầu cần được đặt ra là: nâng chuẩn quản trị AI, bảo mật danh tính và chuỗi cung ứng, và tăng cường chia sẻ thông tin giữa các tổ chức.
Khi ranh giới giữa tấn công và phòng thủ ngày càng mờ, an ninh mạng phải được coi là năng lực cốt lõi quốc gia. Mỗi doanh nghiệp số không chỉ bảo vệ chính mình, mà còn góp phần bảo vệ chuỗi giá trị Việt Nam trong nền kinh tế toàn cầu. Chỉ khi đó, chuyển đổi số mới thực sự an toàn, bền vững và có khả năng chống chịu trước những biến động mà trí tuệ nhân tạo đang mang lại.
An Lâm









Bình luận