AI và Deepfake: Vũ khí mới trong các chiến dịch lừa đảo, thao túng thông tin tại Việt Nam

Công nghệ AI và Deepfake đang mở ra kỷ nguyên mới cho tội phạm mạng tại Việt Nam, biến mọi hình ảnh, giọng nói thành công cụ lừa đảo, tống tiền và thao túng dư luận. Khi ranh giới giữa thật - giả ngày càng mờ nhạt, xã hội đối mặt với thách thức chưa từng có về bảo mật, niềm tin và an ninh thông tin.

08:46, 15/07/2025
 

Deepfake - Khi AI trở thành “con dao hai lưỡi”

Deepfake là thuật ngữ kết hợp giữa “deep learning” (học sâu) và “fake” (giả mạo), sử dụng Trí tuệ nhân tạo (AI) để tạo ra hình ảnh, video, âm thanh giả nhưng cực kỳ chân thực. Công nghệ này ban đầu phục vụ giải trí, điện ảnh, nhưng đã nhanh chóng bị các nhóm tội phạm mạng lợi dụng để thực hiện các chiến dịch lừa đảo, tống tiền và lan truyền thông tin sai lệch.

Theo ông Nguyễn Minh Đức, Giám đốc Công ty Cổ phần An toàn Thông tin CyRadar, lừa đảo trực tuyến hiện nay là sự kết hợp giữa các kịch bản đánh vào lòng tham, sự nhẹ dạ và việc sử dụng công nghệ cao như Deepfake. Kẻ xấu xây dựng các trang web, fanpage mạo danh, nhắn tin, chat hoặc gọi điện để lừa đảo. Ông Đức cảnh báo: “Deepfake ngày càng nguy hiểm hơn khi những người sở hữu công nghệ này lạm dụng nó nhằm phục vụ cho mục đích lừa đảo tài chính”.

Bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky, chia sẻ trên tờ Pháp luật TP HCM: “Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện đang khai thác trí tuệ nhân tạo (AI) để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm, hoặc phát tán thông tin sai lệch, gây tổn hại đến danh tiếng cá nhân, tổ chức”.

Lừa đảo tài chính, chiếm đoạt tài sản

Deepfake đã biến các biện pháp xác thực tưởng chừng như chắc chắn, như gọi video, xác minh khuôn mặt trở nên vô hiệu. Nhiều nạn nhân nhận được cuộc gọi video từ tài khoản Facebook của bạn bè, người thân, với khuôn mặt và giọng nói giống hệt, nên dễ dàng tin tưởng chuyển tiền. Sau đó mới phát hiện mình bị lừa, vì tài khoản đã bị hack và đối tượng dùng AI tạo video giả mạo.

Ông Nguyễn Quang Huy, Giám đốc Nền tảng định danh và xác thực điện tử VNPT, cho biết: “Tội phạm sử dụng công nghệ deepfake ứng dụng AI, học máy để phân tích khuôn mặt và giọng nói, tái tạo hình ảnh động giả dạng khuôn mặt, giọng nói, cử chỉ của một người. Các hình thức giả mạo ngày càng phức tạp, từ in giấy 2D, mặt nạ silicon đến deepfake hoàn toàn bằng AI”.

 

Tống tiền, bôi nhọ danh dự, xâm phạm quyền riêng tư

Deepfake còn được dùng để tạo ra hình ảnh, video nhạy cảm nhằm tống tiền, bôi nhọ danh dự cá nhân, doanh nghiệp hoặc cán bộ nhà nước. Những video này có thể được lan truyền trên mạng xã hội, gây tổn hại nghiêm trọng đến uy tín, sự nghiệp và đời sống của nạn nhân.

Cũng đã xuất hiện tình trạng nhiều ca sĩ, người nổi tiếng bị hacker dùng công nghệ deepfake để lừa đảo người tiêu dùng thông qua các chiêu trò quảng cáo online, bán hàng trực tuyến. Tháng 12/2023, ca sĩ P.M.C. phải lên tiếng phủ nhận mình là nhân vật xuất hiện trong một clip nhạy cảm lan truyền trên mạng (bị deepfake can thiệp), đồng thời gửi đơn trình báo đến cơ quan chức năng.

Thao túng dư luận, lan truyền tin giả

Deepfake là công cụ nguy hiểm cho các chiến dịch thao túng thông tin, lan truyền tin giả trên mạng xã hội, đặc biệt trong các sự kiện chính trị, xã hội nhạy cảm. “Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo ngày càng khó khăn”, đại diện Phòng Cảnh sát hình sự, Công an TP.HCM nhận định.

Còn theo ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm nghiên cứu mã độc của BKAV: “Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo sẽ khó khăn hơn đối với người dùng”.

Tại sao Việt Nam trở thành “miền đất hứa” của Deepfake?

Nguyên nhân deepfake có thể “nở rộ” tại Việt Nam là do một số yếu tố sau đây:

Ý thức bảo mật thấp, chia sẻ tràn lan: Tại Việt Nam, thói quen chia sẻ hình ảnh, video cá nhân trên mạng xã hội rất phổ biến, tạo nguồn dữ liệu dồi dào cho kẻ xấu khai thác, huấn luyện AI. Tiến sĩ Đinh Viết Sang, Phó Giám đốc Trung tâm Nghiên cứu quốc tế về AI, Đại học Bách Khoa Hà Nội, chia sẻ trên tờ Vietnam Plus: “Việc đăng tải hình ảnh, video của cá nhân hoặc người thân lên mạng xã hội là nguồn thông tin đầu vào để kẻ xấu lợi dụng, nhằm tạo ra những video, hình ảnh giả thực hiện hành vi lừa đảo”.

Công nghệ phát triển nhanh, nhận thức xã hội chưa theo kịp: AI và Deepfake phát triển vượt bậc, nhưng nhận thức của người dùng, doanh nghiệp, thậm chí cả một số cơ quan chức năng về các nguy cơ, dấu hiệu nhận biết Deepfake vẫn còn hạn chế.

Ông Nguyễn Minh Đức (CyRadar) nhấn mạnh: “Bất cứ công nghệ mới nào cũng tồn tại hai mặt và Deepfake chỉ là một trong những mặt trái dễ thấy nhất của AI. Sẽ còn có rất nhiều mối nguy cơ bảo mật đến từ AI”.

Hệ thống pháp lý, kỹ thuật đang theo sau: Mặc dù Việt Nam đã ban hành nhiều quy định về bảo vệ dữ liệu cá nhân, quyền riêng tư và an ninh mạng, song tốc độ phát triển của Deepfake khiến các cơ quan chức năng gặp nhiều thách thức trong kiểm soát, phát hiện và xử lý các vụ việc liên quan.

Một chuyên gia an ninh mạng của VNPT chia sẻ: “Kẻ gian thường khai thác lỗ hổng có sẵn trên ứng dụng, do giải pháp bảo vệ ứng dụng di động hiện chưa được áp dụng phổ biến tại Việt Nam. Doanh nghiệp và tổ chức cần nâng cao hàng rào bảo mật thông qua các công cụ bảo vệ nhiều lớp, đồng thời có biện pháp phát hiện, theo dõi nguy cơ tấn công tới người dùng”.

Giải pháp nào để đối phó với Deepfake?

Các chuyên gia khuyến cáo người dùng cần cảnh giác trước mọi yêu cầu chuyển tiền hoặc yêu cầu cung cấp thông tin cá nhân qua mạng, kể cả khi nhận được cuộc gọi video từ người quen. “Người dùng nên gọi video hoặc Facetime đến số điện thoại mà họ gọi đến cho bạn. Duy trì cuộc gọi ít nhất là một phút. Kiểm tra bằng cách hỏi một số câu hỏi để nghe giọng nói đó là của người thật hay do AI tạo ra” - chuyên gia Ngô Minh Hiếu (Hiếu PC) khuyến nghị.

Bà Võ Dương Tú Diễm (Kaspersky) nói rằng người dùng cá nhân và các doanh nghiệp có thể dùng chính các công cụ AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo. Nên sử dụng phần mềm phát hiện nội dung do AI tạo ra, phân tích mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh. Một số công cụ như Intel FakeCatcher, Microsoft Video Authenticator… đã được ứng dụng trên thế giới.

Việt Nam cần tiếp tục hoàn thiện hệ thống pháp luật về bảo vệ dữ liệu cá nhân, quyền riêng tư, đồng thời đầu tư mạnh vào nghiên cứu, phát triển các thuật toán phát hiện Deepfake “Make in Vietnam”.

AI và Deepfake là bước tiến công nghệ lớn, nhưng cũng là thách thức an ninh thông tin chưa từng có tại Việt Nam. Khi mọi hình ảnh, giọng nói đều có thể bị làm giả, mỗi cá nhân, tổ chức cần chủ động trang bị kiến thức, cảnh giác và ứng dụng công nghệ hiện đại để tự bảo vệ mình trước những “chiến dịch lừa đảo 4.0”. Đó không chỉ là trách nhiệm của mỗi người, mà còn là nhiệm vụ cấp thiết của toàn xã hội trong kỷ nguyên số.

Đăng Khoa

Bình luận

Tin bài khác

Loạt hội đồng London bị tấn công mạng, kích hoạt tình trạng khẩn cấp
10:33, 26/11/2025

Loạt hội đồng London bị tấn công mạng, kích hoạt tình trạng khẩn cấp

Các hội đồng Kensington và Chelsea, Hammersmith và Fulham, cùng Westminster City cho biết họ đã phải ứng phó với một “sự cố an ninh mạng” từ sáng thứ Hai (24/11).

Xem thêm
Tấn công mạng vào CodeRED, hệ thống cảnh báo khẩn cấp nước Mỹ tê liệt, lộ dữ liệu người dùng
08:18, 26/11/2025

Tấn công mạng vào CodeRED, hệ thống cảnh báo khẩn cấp nước Mỹ tê liệt, lộ dữ liệu người dùng

Một vụ tấn công mạng nghiêm trọng vừa khiến hệ thống CodeRED, nền tảng cảnh báo khẩn cấp được sử dụng rộng rãi tại Mỹ, tê liệt trên nhiều thành phố và làm lộ thông tin cá nhân của hàng nghìn người dùng đã đăng ký nhận thông báo.

Xem thêm
Kaspersky: ngành sản xuất toàn cầu thiệt hại 18 tỷ USD từ các cuộc tấn công ransomware
08:12, 26/11/2025

Kaspersky: ngành sản xuất toàn cầu thiệt hại 18 tỷ USD từ các cuộc tấn công ransomware

Kaspersky, công ty an ninh mạng của Nga, vừa công bố một báo cáo nghiên cứu mới, làm sáng tỏ những rủi ro tài chính khổng lồ từ các cuộc tấn công tống tiền “ransomware” gây ra trong ngành sản xuất trong năm 2025.

Xem thêm
Harvard xác nhận bị tấn công lừa đảo, nguy cơ rò rỉ dữ liệu cựu sinh viên và nhà tài trợ
07:22, 26/11/2025

Harvard xác nhận bị tấn công lừa đảo, nguy cơ rò rỉ dữ liệu cựu sinh viên và nhà tài trợ

Đại học Harvard xác nhận hệ thống của bộ phận Quan hệ Cựu sinh viên và Phát triển (Alumni Affairs and Development - AAD) đã bị xâm nhập sau một cuộc tấn công lừa đảo qua điện thoại (voice phishing). Vụ việc có thể khiến dữ liệu cá nhân của cựu sinh viên, nhà tài trợ, sinh viên, nhân viên và giảng viên bị lộ.

Xem thêm
Mỹ kêu gọi điều tra Meta sau cáo buộc thu 16 tỷ USD từ quảng cáo lừa đảo
18:46, 25/11/2025

Mỹ kêu gọi điều tra Meta sau cáo buộc thu 16 tỷ USD từ quảng cáo lừa đảo

Một nhóm thượng nghị sĩ Mỹ đã chính thức kêu gọi Ủy ban Thương mại Liên bang (FTC) và Ủy ban Chứng khoán và Giao dịch (SEC) mở cuộc điều tra đối với Meta Platforms, sau khi xuất hiện cáo buộc cho rằng tập đoàn này thu khoảng 16 tỷ USD trong năm 2024 từ các quảng cáo mang tính chất lừa đảo hoặc vi phạm pháp luật.

Xem thêm
Singapore yêu cầu Apple và Google ngăn chặn giả mạo cơ quan nhà nước trên nền tảng nhắn tin
18:43, 25/11/2025

Singapore yêu cầu Apple và Google ngăn chặn giả mạo cơ quan nhà nước trên nền tảng nhắn tin

Ngày 25/11/2025, Bộ Nội vụ Singapore cho biết lực lượng cảnh sát nước này đã yêu cầu Apple và Google ngăn chặn việc giả mạo cơ quan nhà nước trên các nền tảng tin nhắn của họ theo quy định tại Online Criminal Harms Act.

Xem thêm
Cần chấn chỉnh hành vi quảng cáo “lệch chuẩn” trên không gian mạng
10:25, 25/11/2025

Cần chấn chỉnh hành vi quảng cáo “lệch chuẩn” trên không gian mạng

Quảng cáo “lệch chuẩn” với nội dung thô tục, nhố nhăng, phản cảm, cổ xúy và truyền bá những tư tưởng lệch lạc, tiêu cực... trên không gian mạng hiện đang trở thành vấn nạn nhức nhối gây bức xúc dư luận và ảnh hưởng trực tiếp đến nhận thức xã hội.

Xem thêm