Australia phát triển công cụ AI ngăn chặn deepfake độc hại

Đại học Monash đã phối hợp Cảnh sát Liên bang Australia ra mắt công cụ trí tuệ nhân tạo mới giúp làm chậm và phát hiện các hình ảnh, video deepfake nguy hiểm phục vụ phòng chống tội phạm kỹ thuật số.

22:47, 10/11/2025
Trí tuệ Nhân tạo Silverer được phát triển nhằm làm chậm và ngăn chặn tội phạm tạo ra các hình ảnh deepfake độc hại.
Trí tuệ Nhân tạo Silverer được phát triển nhằm làm chậm và ngăn chặn tội phạm tạo ra các hình ảnh deepfake độc hại.

Đại học Monash cùng Cảnh sát Liên bang Australia (AFP) đang hợp tác phát triển một công nghệ trí tuệ nhân tạo mang tên Silverer (tạm dịch “Người tráng bạc”), nhằm ngăn chặn và làm chậm quá trình tạo ra hình ảnh deepfake độc hại cũng như tài liệu AI lạm dụng trẻ em. Dự án thuộc Phòng thí nghiệm AI vì Thực thi Pháp luật và An toàn Cộng đồng (AiLECS) - một liên minh nghiên cứu chiến lược giữa AFP và Đại học Monash, do nghiên cứu sinh Elizabeth Perry chủ trì.

Cơ chế chính của Silverer dựa trên kỹ thuật “đầu độc dữ liệu” (Data Poisoning) như một kỹ thuật cốt lõi trong công cụ mới này. Đây là kỹ thuật liên quan đến việc thay đổi một cách tinh vi dữ liệu nguồn trực tuyến, khiến cho các mô hình AI và Học máy (MLs) gặp khó khăn đáng kể trong việc tạo ra, thao túng và sử dụng sai mục đích các hình ảnh hoặc video. Do các công cụ AI cần lượng lớn dữ liệu nguồn, việc đầu độc dữ liệu sẽ khiến mô hình tạo ra kết quả không chính xác, bị lệch hoặc bị hỏng, từ đó giúp dễ dàng phát hiện hình ảnh hoặc video giả mạo do tội phạm tạo ra.

Nghiên cứu sinh Perry giải thích rằng người dùng có thể sử dụng Silverer để chỉnh sửa hình ảnh trước khi tải lên mạng xã hội hoặc Internet. Điều này sẽ thay đổi các điểm ảnh (pixels) để đánh lừa mô hình AI, khiến sản phẩm đầu ra của chúng bị biến dạng, phủ đầy các "biến dạng" hoặc hoàn toàn không thể nhận dạng được.

Phó Giáo sư Campbell Wilson, đồng Giám đốc AiLECS, nhận định các hình ảnh giả mạo ngày càng gia tăng do công nghệ AI mở dễ dàng được sử dụng sai mục đích, dẫn đến các mối nguy về an ninh và pháp luật. Đặc biệt, AFP ghi nhận sự tăng đột biến các tài liệu AI khiêu dâm lạm dụng trẻ em được tạo ra và phát tán trên mạng.

Mục tiêu của Silverer là phát triển công cụ thân thiện với người dùng, giúp người dân Australia bảo vệ thông tin cá nhân khi sử dụng mạng xã hội. Hiện phiên bản thử nghiệm của Silverer đang được xem xét áp dụng trong nội bộ AFP nhằm đánh giá độ hiệu quả.

Khôi Nguyên

Bình luận