Khi hình ảnh nhà báo bị lợi dụng cho các quảng cáo giả mạo
Đầu tháng 10, trang Nieman Lab đưa tin, phóng viên truyền hình Pooja Shali của kênh India Today gần đây phát hiện hình ảnh của mình bị sử dụng trong một đoạn video lan truyền trên mạng xã hội. Video mở đầu bằng phần cô dẫn bản tin thật, nhưng ngay sau đó chuyển cảnh sang lời kêu gọi đầu tư vào một ứng dụng tài chính - hoàn toàn do trí tuệ nhân tạo tạo ra. Giọng nói, biểu cảm và phong thái đều giống thật đến mức khó nhận ra là giả mạo.
![]() |
Pooja Shali, người dẫn chương trình của India Today. Ảnh chụp màn hình. |
Theo điều tra của Nieman Lab, nhiều video tương tự đang xuất hiện trên các nền tảng như Instagram và Facebook, trong đó hình ảnh của các nhà báo từ Ấn Độ, Anh, Canada và Mỹ bị biến thành công cụ để bán sản phẩm hoặc mời chào đầu tư. Không ít người xem tin rằng các ứng dụng được “đưa tin chính thống” và đã chuyển tiền, đầu tư vào các nền tảng tài chính không có thật.
Tiến sĩ Julie Posetti, Giám đốc nghiên cứu toàn cầu của tổ chức International Center for Journalists (ICFJ), cho biết: “Những video deepfake này cực kỳ nguy hiểm vì chúng khai thác uy tín và gương mặt quen thuộc của các nhà báo - những người vốn được xem là đại diện cho sự thật. Khi người xem mất niềm tin vào hình ảnh đó, họ sẽ mất niềm tin vào truyền thông nói chung"
Tại Mỹ, các vụ việc tương tự đã nhắm vào những người dẫn chương trình nổi tiếng như Al Roker và Gayle King. Các video này quảng bá nhiều loại sản phẩm, nhưng thường liên kết đến thủ đoạn lừa đảo tiền điện tử, nhóm đầu tư tài chính có thu phí, ứng dụng cờ bạc hoặc thuốc giả.
“Báo chí phát thanh là một trong những hình thức truyền thông dễ bị lợi dụng nhất,” bà Kiran Nazish, người sáng lập và giám đốc Liên minh Phụ nữ trong Báo chí (CFWIJ), cho biết. “Vì phạm vi tiếp cận rộng và mức độ nhận diện cao, các nhà báo truyền hình thường xuyên bị nhắm mục tiêu hơn.”
Nazish cho biết, từ năm 2019, khi tổ chức bắt đầu theo dõi các vụ quấy rối trực tuyến đối với nhà báo nữ, deepfake mới chỉ ở dạng hình ảnh tĩnh chỉnh sửa thủ công. Tuy nhiên, với sự xuất hiện của AI tạo hình và công cụ giá rẻ sẵn có, kẻ xấu giờ có thể sao chép giọng nói và biểu cảm khuôn mặt chỉ trong vài phút.
Theo Women Press Freedom, số vụ deepfake nhắm vào nhà báo nữ đã tăng từ 7 vụ năm 2023 lên 20 vụ năm 2024, và chỉ trong 9 tháng đầu năm 2025 đã ghi nhận hơn 150 trường hợp. Ngoài những video lừa đảo thương mại, nhiều nhà báo còn là nạn nhân của deepfake khiêu dâm, tống tiền hoặc thao túng chính trị.
Các nền tảng mạng xã hội hụt hơi trong cuộc đua với deepfake
Tình trạng deepfake giả mạo nhà báo không phải mới, nhưng điều đáng lo là tốc độ lan truyền và khả năng sinh lợi của video giả mạo. Các nhóm tội phạm thường sử dụng video quảng cáo có trả phí trên Facebook và Instagram để tiếp cận hàng triệu người. Một số video đã tồn tại hàng tuần trước khi bị gỡ bỏ, dù người bị giả mạo hoặc cơ quan báo chí đã báo cáo vi phạm.
Theo chuyên gia truyền thông Martin Wolf của Financial Times, từng là nạn nhân của chiến dịch deepfake tương tự, những nền tảng này có thể kiếm tiền từ quảng cáo chứa nội dung giả mạo, trong khi nạn nhân phải vật lộn chứng minh mình không liên quan. Cơ chế gỡ bỏ hiện tại quá chậm và gần như không có biện pháp bảo vệ chủ động.
Báo cáo của Meedan - tổ chức chuyên nghiên cứu chống thông tin sai lệch cho hay, chỉ khoảng 38% video deepfake bị gỡ bỏ trong vòng 72 giờ kể từ khi người dùng tố cáo, phần còn lại tiếp tục được chia sẻ qua tài khoản mới. Nhiều nền tảng thậm chí không yêu cầu xác thực danh tính người mua quảng cáo, khiến việc truy dấu thủ phạm gần như bất khả thi.
Tiến sĩ Posetti cảnh báo thêm: “Nếu các nền tảng không coi deepfake là mối đe dọa nghiêm trọng, thì chẳng bao lâu nữa, chúng ta sẽ phải nghi ngờ mọi thứ mình nhìn thấy. Khi sự thật và dối trá hòa làm một, không chỉ báo chí, mà cả nền dân chủ sẽ bị lung lay.”
Giới chuyên gia nhận định, việc tội phạm mạng chuyển sang mạo danh các nhân vật truyền thông cho thấy giai đoạn mới của lừa đảo deepfake không chỉ gây thiệt hại kinh tế mà còn đe dọa nhân phẩm con người.
Thực tế này đòi hỏi các quốc gia phải có khung pháp lý mạnh mẽ với sản phẩm do AI tạo ra, đồng thời các nền tảng cần tăng cường năng lực xác thực nguồn tin, nhận diện và loại bỏ các video giả mạo.
(Theo Nieman Lab)
Bình luận