AI fuzzing: Lợi thế phòng vệ hay mũi nhọn tấn công mới?

Sự trỗi dậy của AI fuzzing đang làm thay đổi cách các tổ chức kiểm thử và phòng vệ hệ thống thông tin. Công nghệ này hứa hẹn tăng tốc độ lẫn độ bao phủ kiểm thử, song lại đồng thời mở ra những phương thức tấn công chưa từng có, đặt hệ thống AI trước thách thức bảo mật mới.

17:08, 21/01/2026
AI giúp công việc kiểm thử phòng vệ hệ thống trở nên dễ dàng hơn (ảnh minh hoạ: The Hacker News)
AI giúp công việc kiểm thử phòng vệ hệ thống trở nên dễ dàng hơn (ảnh minh hoạ: The Hacker News)

Từ kỹ thuật ít phổ biến đến công cụ kiểm thử mở rộng nhờ AI tạo sinh

Trong nhiều năm, fuzzing vẫn được đánh giá là một kỹ thuật quan trọng trong an ninh mạng nhưng ít phổ biến trong doanh nghiệp vì khó triển khai và tốn thời gian. Phương pháp này dựa trên việc tạo ra lượng lớn dữ liệu đầu vào khác nhau, từ đó quan sát xem hệ thống có gặp lỗi hay bị sập hay không. Mỗi ứng dụng lại có cơ chế tiếp nhận dữ liệu riêng, khiến các nhóm kiểm thử thường phải thiết lập thủ công rất nhiều yếu tố mới có thể chạy được các bài kiểm tra. Các trường hợp kiểm thử (test case) ban đầu chủ yếu là sự kết hợp giữa input dự kiến, biến thể ngẫu nhiên và dữ liệu gây lỗi đã biết. Do số biến thể gần như vô hạn, machine learning từng được kỳ vọng có thể giúp tạo ra các trường hợp kiểm thử dễ phát hiện lỗi nhất.

Tuy nhiên, với các hệ thống phức tạp hơn, nơi một thông tin nhập ở màn hình này có thể tạo ra lỗ hổng khi đến một luồng thao tác khác, vai trò của con người vẫn không thể thay thế. Các chuyên gia thâm nhập luôn được huy động để suy luận và thử nghiệm những kịch bản bất ngờ ngoài khung lập trình. Chỉ đến khi Generative AI (AI tạo sinh) xuất hiện, khả năng tự động hóa tư duy này mới có cơ hội được thay thế một phần bằng công nghệ.

Generative AI cho phép hệ thống không chỉ tạo dữ liệu đầu vào mà còn hiểu được ngữ cảnh, cấu trúc luồng xử lý và các hành vi tiềm ẩn trong ứng dụng. Điều này khiến fuzzing trở nên thực tế hơn với các doanh nghiệp vốn trước đây ngại thử nghiệm vì thiếu thời gian và nhân sự. Song cũng chính vì có thể mô phỏng được tư duy tấn công, công nghệ này tạo ra một nghịch lý: những gì giúp doanh nghiệp tăng cường bảo vệ cũng có thể trở thành vũ khí mạnh mẽ trong tay hacker.

AI giúp phòng thủ mạnh hơn và nhanh hơn

Trong lĩnh vực phòng thủ, những minh chứng của AI fuzzing đang ngày càng rõ ràng. Dự án OSS-Fuzz của Google là ví dụ tiêu biểu. Khởi động từ năm 2016 nhằm hỗ trợ cộng đồng mã nguồn mở phát hiện lỗi trước tin tặc, dự án này đến tháng 8/2023 đã giúp sửa hơn 10.000 lỗ hổng và 36.000 lỗi phần mềm trên 1.000 dự án. Sau khi bổ sung khả năng dựa trên LLM, đến tháng 5/2025 con số đã tăng lên 13.000 lỗ hổng và 50.000 lỗi, bao gồm cả lỗi mới trên các dự án đã được fuzz hàng trăm nghìn giờ như CVE-2024-9143 trong OpenSSL.

Không chỉ Google, các tổ chức tư vấn và kiểm thử cũng đang áp dụng Generative AI để tăng độ bao phủ. EY cho biết họ đang sử dụng AI để bổ sung và sinh ra thêm test case dựa trên các hành vi thực tế. Sau mỗi cuộc điều tra sự cố bảo mật, thông tin về cách kẻ tấn công xâm nhập được đưa vào mô hình AI để sản sinh thêm kịch bản mới. Theo EY, điều này giúp mở rộng phạm vi kiểm thử ra nhiều luồng xử lý mà các hệ thống tự động trước đây không thể bao quát. Trước kia, số lượng test case bị giới hạn bởi số người tham gia và thời gian kiểm thử; nay AI cho phép mở rộng theo chiều rộng mà không cần tăng tương ứng chi phí nhân lực.

Các chuyên gia cũng ghi nhận khả năng đặc biệt hiệu quả của LLM khi kiểm thử API - vốn là bề mặt tấn công ngày càng quan trọng trong kiến trúc hiện đại. Trong khi bộ test truyền thống chỉ bao phủ tập hợp kịch bản hữu hạn, LLM có thể liên tục suy luận ra các biến thể mới và tìm ra các trường hợp góc (corner cases) mà con người khó hình dung.

Một hướng cải tiến được kỳ vọng là AI có thể tự động tạo ra các fuzz harness - cơ chế đưa dữ liệu kiểm thử vào sâu trong ứng dụng. Đây vốn là phần việc đòi hỏi nhiều công sức thủ công nhất trong quá trình fuzzing và nếu được tự động hóa sẽ có thể mở rộng đáng kể phạm vi phát hiện lỗ hổng. Tuy nhiên, các tổ chức thừa nhận vẫn còn nhiều thách thức kỹ thuật cần vượt qua để hiện thực hóa điều này.

AI giúp hacker nhanh hơn, rẻ hơn và nguy hiểm hơn

Tác động của AI không chỉ nằm ở phía phòng thủ. Kể từ khi ChatGPT xuất hiện cuối năm 2022, cộng đồng hacker đã nhanh chóng khai thác công nghệ này. Chưa đầy hai tuần sau khi ra mắt, các nhóm hacker Nga đã thảo luận cách vượt chặn địa lý để truy cập mô hình. Những năm sau đó, khi các mô hình AI ngày càng mạnh hơn, các chiến dịch tấn công cũng trở nên tinh vi hơn.

Theo khảo sát của Wakefield với hơn 1.600 lãnh đạo CNTT và an ninh, 58% tin rằng các hệ thống AI tác tử sẽ là công cụ chính trong hơn một nửa số cuộc tấn công trong năm tới. Một ví dụ được Anthropic công bố cho thấy một nhóm được cho là có liên hệ với nhà nước Trung Quốc đã sử dụng Claude Code để tấn công gần 30 mục tiêu trên toàn cầu, bao gồm công ty công nghệ, tổ chức tài chính và cơ quan chính phủ. Theo báo cáo, AI đã tạo ra hàng nghìn yêu cầu mỗi giây - tốc độ mà một nhóm hacker người thật “không thể đạt được”.

Bảo đảm hệ thống CNTT của doanh nghiệp hoạt động  trơn tru, ngăn chặn hacker xâm nhập (ảnh minh hoạ do AI tạo ra)
Bảo đảm hệ thống CNTT của doanh nghiệp hoạt động trơn tru, ngăn chặn hacker xâm nhập (ảnh minh hoạ do AI tạo ra)

Trong quá trình đó, tin tặc thậm chí còn phải “lừa” chính AI, bằng cách yêu cầu trợ giúp dưới danh nghĩa chuyên gia kiểm thử bảo mật. Đây được xem là một dạng “jailbreak”, tương tự kỹ thuật social engineering nhưng với nạn nhân là mô hình AI. Do các mô hình thương mại như ChatGPT hay Claude ngày càng siết chặt rào chắn, hacker nhanh chóng chuyển sang mô hình mã nguồn mở hoặc phiên bản uncensored được chia sẻ trên Internet. Một số nhóm thậm chí tự huấn luyện các mô hình như GhostGPT, WormGPT hay FraudGPT chuyên phục vụ hoạt động tội phạm.

Thách thức mới: bảo vệ chính AI khỏi prompt injection

Nếu thế hệ phần mềm trước phải chống SQL injection, thì thế hệ hiện tại phải chống prompt injection - dạng tấn công dựa trên thao túng ngôn ngữ tự nhiên. Theo OWASP Top 10 for LLMs, đây là loại tấn công phổ biến nhất hiện nay đối với hệ thống AI. Mức độ phức tạp của prompt injection cao hơn nhiều so với SQL injection vì mô hình AI không tách biệt được rõ ràng đâu là dữ liệu, đâu là lệnh. Một yêu cầu vừa là thông tin vừa là chỉ thị, khiến cơ chế kiểm soát trở nên khó khăn.

Theo báo cáo của Cơ quan An ninh mạng Anh, prompt injection có thể sẽ không bao giờ được loại bỏ hoàn toàn như SQL injection vì bản chất hoạt động của mô hình AI không cho phép phân tách dữ liệu và hành vi. Do đó, các tổ chức buộc phải sử dụng chính AI để kiểm thử AI, từ tạo biến thể prompt, mô phỏng hành vi jailbreak đến xây dựng tập dữ liệu kiểm thử động. Đây không phải nhiệm vụ có thể thực hiện một lần mà đòi hỏi cập nhật liên tục theo thời gian.

Kỷ nguyên AI fuzzing

AI fuzzing đang định hình lại môi trường an ninh theo ba hướng song song: giúp doanh nghiệp phát hiện lỗi tốt hơn, giúp kẻ tấn công mở rộng quy mô hoạt động, và buộc chính hệ thống AI phải bước vào cuộc chiến phòng thủ mới. Trong bối cảnh tốc độ tấn công tăng theo cấp số nhân nhờ tự động hóa, các chuyên gia đều chung nhận định rằng muốn tồn tại, hệ thống phòng thủ cũng phải vận hành ở tốc độ tương tự. Cuộc chơi không còn xoay quanh việc ai có nhiều nhân lực hơn, mà là mô hình AI nào thông minh hơn, linh hoạt hơn và được cập nhật nhanh hơn.

Xem thêm:

Đăng Khoa

Bình luận