Trợ lý AI có thể phát tán phần mềm độc hại ?

Thời gian gần đây, AI (Công nghệ trí tuệ nhân tạo) là một khái niệm không còn mới mẻ với nhiều người. Sự xuất hiện của AI đã góp phần làm thay đổi khá nhiều các quy trình làm việc, đây được xem là những trợ lý đắc lực cho nhiều người, cho nhiều lĩnh vực ngành nghề, nhưng ở đó cũng tiềm ẩn những mối nguy hiểm khôn lường.

11:52, 17/09/2025

Các nhà nghiên cứu bảo mật của Unit 42 cảnh báo rằng, tin tặc có thể xâm nhập các công cụ AI khi lấy dữ liệu từ các nguồn bên ngoài.

 

Theo các chuyên gia nghiên cứu, trợ lý mã AI kết nối với các môi trường phát triển tích hợp dưới dạng tiện ích mở rộng (plugin), chẳng hạn như GitHub Copilot. Mặc dù hữu ích, nhưng chúng ta vẫn cần phải cẩn trọng khi sử dụng chúng. Các chuyên gia bảo mật của Unit 42 thuộc công ty Palo Alto Networks, đã công bố một bài nghiên cứu về mối đe dọa mới này.

Các nhà nghiên cứu cảnh báo: "Cả người dùng và kẻ tấn công đều có thể sử dụng sai các tính năng của trợ lý mã như trò chuyện, tự động hoàn thành và viết bài kiểm tra đơn vị cho các mục đích gây hại. Việc sử dụng sai này bao gồm chèn cửa hậu, làm rò rỉ thông tin nhạy cảm và tạo ra nội dung độc hại".

Nghiên cứu cũng đã nêu chi tiết một số cuộc tấn công khác nhau mà tội phạm mạng có thể khai thác để nhắm mục tiêu vào các nhà phát triển. Chèn lời nhắc gián tiếp là một trong những lỗ hổng bảo mật dễ thấy nhất. Cụ thể, tin tặc có thể nhúng các lời nhắc độc hại vào hàng nghìn nguồn trực tuyến, bao gồm các trang web, kho lưu trữ, tài liệu hoặc giao diện lập trình ứng dụng (API), mà trợ lý AI có thể truy cập và xử lý.

Trong trường hợp này, tin tặc sẽ không cần truy cập ban đầu vào máy tính của nạn nhân mà thay vào đó sẽ dựa vào các mô hình ngôn ngữ lớn (LLM) hữu ích để lấy nội dung bị nhiễm độc và thực thi các lệnh độc hại. LLM không thể phân biệt đâu là điều đáng tin cậy giữa lệnh hệ thống và lời nhắc.

"LLM xử lý cả lệnh và dữ liệu đầu vào của người dùng theo cùng một cách. Hành vi này khiến chúng dễ bị tiêm lời nhắc, khi kẻ tấn công tạo ra các dữ liệu đầu vào để thao túng LLM thành hành vi không mong muốn", Đơn vị 42 cảnh báo.

Do bị giới hạn về kiến ​​thức và thiếu các thông tin mới nhất, nên hầu hết các LLM cũng cung cấp cho người viết mã các tính năng để cung cấp nội dung bên ngoài một cách rõ ràng, chẳng hạn như liên kết đến kho lưu trữ, tệp, thư mục cụ thể…

Điều này mở ra một hướng tấn công thứ hai, đó là các tệp đính kèm ngữ cảnh cũng có thể bị lạm dụng. Bản thân người dùng có thể vô tình cung cấp các nguồn ngữ cảnh mà tin tặc đã làm nhiễm độc. Việc các tác nhân đe dọa chiếm đoạt ngay cả một số kho lưu trữ phổ biến nhất là điều thường thấy.

Các nhà nghiên cứu cho biết: "Khi người dùng thêm ngữ cảnh vào một lệnh, mô hình sẽ xử lý ngữ cảnh này như một lời nhắc trước lời nhắc thực tế của người dùng".

Các chuyên gia đã chứng minh rằng, ngay cả một bài đăng trên mạng xã hội bị nhiễm độc cũng có thể trở thành một lời nhắc nhở, khiến chatbot phát tán phần mềm độc hại. Một trợ lý AI được giao nhiệm vụ tìm nạp và phân tích một số bài viết từ mạng xã hội X đã cài đặt cửa hậu (backdoor) vào mã được tạo ra.

"Nhiều người dùng sẽ sao chép, dán mã kết quả (hoặc nhấp vào 'Áp dụng') để thực thi mã và sau đó kiểm tra xem đầu ra có chính xác không. Nhưng hành động này có thể cho phép kẻ tấn công xâm nhập vào máy tính của người dùng."

Bản thân người dùng, đôi khi không cố ý, có thể thao túng chatbot AI để tạo ra nội dung độc hại. Tin tặc cũng bẻ khóa chatbot để sử dụng cho mục đích xấu. Một mối đe dọa khác là khả năng sử dụng sai các giao diện máy khách khác nhau được trợ lý AI sử dụng.

Tin tặc, với quyền truy cập hạn chế vào hệ thống, có thể gọi các mô hình và tương tác với chatbot, bỏ qua các ràng buộc IDE. Ví dụ: chúng có thể lợi dụng các chatbot này để đánh cắp thông tin đăng nhập đám mây.

Unit 42 đã mô phỏng một tình huống trong đó người dùng trực tiếp gọi mô hình bằng một tập lệnh tùy chỉnh, sử dụng một lời nhắc hệ thống khác, thay đổi hành vi của mô hình để nghe giống như một tên gọi ấn tượng nào đó.

Các nhà nghiên cứu khuyến cáo người dùng luôn xem xét kỹ lưỡng bất kỳ mã được đề xuất nào trước khi thực thi, đặc biệt là khi sử dụng ngữ cảnh kèm theo.

"Đừng tin tưởng mù quáng vào AI. Hãy kiểm tra kỹ mã để phát hiện các hành vi bất ngờ và các mối lo ngại tiềm ẩn về bảo mật", báo cáo viết. "Hãy chú ý đến bất kỳ ngữ cảnh hoặc dữ liệu nào bạn cung cấp cho các công cụ LLM."

Các nhà nghiên cứu cũng lo ngại rằng các hình thức tấn công mới có thể xuất hiện khi các hệ thống trở nên tự chủ và tích hợp hơn.

Hà Linh

Bình luận

Tin bài khác

Cẩn trọng khi sạc điện thoại nơi công cộng: Có thể mất hết dữ liệu trong tích tắc
10:29, 26/11/2025

Cẩn trọng khi sạc điện thoại nơi công cộng: Có thể mất hết dữ liệu trong tích tắc

Những trạm sạc USB miễn phí ở sân bay, bến xe, trung tâm thương mại tưởng tiện lợi lại tiềm ẩn nguy cơ bảo mật nghiêm trọng. Chỉ một lần "cắm sạc“ có thể khiến bạn mất hết dữ liệu cá nhân.

Xem thêm
Tấn công mạng vào CodeRED, hệ thống cảnh báo khẩn cấp nước Mỹ tê liệt, lộ dữ liệu người dùng
08:18, 26/11/2025

Tấn công mạng vào CodeRED, hệ thống cảnh báo khẩn cấp nước Mỹ tê liệt, lộ dữ liệu người dùng

Một vụ tấn công mạng nghiêm trọng vừa khiến hệ thống CodeRED, nền tảng cảnh báo khẩn cấp được sử dụng rộng rãi tại Mỹ, tê liệt trên nhiều thành phố và làm lộ thông tin cá nhân của hàng nghìn người dùng đã đăng ký nhận thông báo.

Xem thêm
Người dùng cần hình thành thói quen kiểm tra, xác minh thông tin trước khi chia sẻ hay lan truyền
07:55, 26/11/2025

Người dùng cần hình thành thói quen kiểm tra, xác minh thông tin trước khi chia sẻ hay lan truyền

Đó là lời khuyên của chuyên gia Vũ Ngọc Sơn, Trưởng ban Nghiên cứu, tư vấn, phát triển công nghệ và Hợp tác quốc tế của Hiệp hội An ninh mạng quốc gia (NCA), khi nói về vấn nạn tin giả, tin xấu độc lan truyền trên không gian mạng. Ngoài ra, ông Sơn cũng đề cập đến vấn đề an ninh dữ liệu trong dự luật An ninh mạng 2025.

Xem thêm
Harvard xác nhận bị tấn công lừa đảo, nguy cơ rò rỉ dữ liệu cựu sinh viên và nhà tài trợ
07:22, 26/11/2025

Harvard xác nhận bị tấn công lừa đảo, nguy cơ rò rỉ dữ liệu cựu sinh viên và nhà tài trợ

Đại học Harvard xác nhận hệ thống của bộ phận Quan hệ Cựu sinh viên và Phát triển (Alumni Affairs and Development - AAD) đã bị xâm nhập sau một cuộc tấn công lừa đảo qua điện thoại (voice phishing). Vụ việc có thể khiến dữ liệu cá nhân của cựu sinh viên, nhà tài trợ, sinh viên, nhân viên và giảng viên bị lộ.

Xem thêm
SitusAMC bị hack, dữ liệu khách hàng của loạt ngân hàng lớn Mỹ có nguy cơ bị lộ
18:47, 25/11/2025

SitusAMC bị hack, dữ liệu khách hàng của loạt ngân hàng lớn Mỹ có nguy cơ bị lộ

Dữ liệu khách hàng của JPMorgan Chase, Citi, Morgan Stanley cùng một số ngân hàng lớn khác có thể đã bị truy cập trái phép trong một vụ tin tặc tấn công vào hệ thống của một nhà cung cấp công nghệ.

Xem thêm
Mỹ kêu gọi điều tra Meta sau cáo buộc thu 16 tỷ USD từ quảng cáo lừa đảo
18:46, 25/11/2025

Mỹ kêu gọi điều tra Meta sau cáo buộc thu 16 tỷ USD từ quảng cáo lừa đảo

Một nhóm thượng nghị sĩ Mỹ đã chính thức kêu gọi Ủy ban Thương mại Liên bang (FTC) và Ủy ban Chứng khoán và Giao dịch (SEC) mở cuộc điều tra đối với Meta Platforms, sau khi xuất hiện cáo buộc cho rằng tập đoàn này thu khoảng 16 tỷ USD trong năm 2024 từ các quảng cáo mang tính chất lừa đảo hoặc vi phạm pháp luật.

Xem thêm
Rò rỉ dữ liệu 237.000 khách hàng, Comcast chịu phạt 1,5 triệu USD
13:33, 25/11/2025

Rò rỉ dữ liệu 237.000 khách hàng, Comcast chịu phạt 1,5 triệu USD

Ngày 24/11, Ủy ban Truyền thông Liên bang Mỹ (FCC) thông báo Comcast sẽ phải nộp khoản tiền phạt 1,5 triệu USD sau khi một vụ rò rỉ dữ liệu từ nhà cung cấp bên thứ ba làm lộ thông tin cá nhân của 237.000 khách hàng đang và đã từng sử dụng dịch vụ của công ty.

Xem thêm