Cách nhận biết video AI và deepfake trên mạng xã hội

Sự xuất hiện của Sora AI cho phép bất cứ ai tạo ra các video giả lập siêu thực, biến việc phân biệt đâu là nội dung gốc, đâu là deepfake thành kỹ năng quan trọng để sống an toàn trên môi trường số.

10:07, 27/10/2025
Các công cụ video AI khiến việc xác định đâu là video thật trở nên khó khăn hơn bao giờ hết.
Các công cụ video AI khiến việc xác định đâu là video thật trở nên khó khăn hơn bao giờ hết.

Người dùng mạng xã hội hiện nay dễ dàng tiếp cận các video hoặc hình ảnh được AI tạo ra, từ những nội dung vui nhộn như cảnh thỏ nhảy trampoline lan truyền khắp nơi, đến các sản phẩm giả lập ngày càng khó phân biệt thật - giả. Sora, ứng dụng nối tiếp ChatGPT của OpenAI, chính là công cụ đưa công nghệ video AI lên một cấp độ mới, thách thức người dùng nhận diện sự khác biệt.

Ra mắt năm 2024 và mới cập nhật bản Sora 2, ứng dụng này có giao diện hiện đại giống TikTok, cho phép tất cả nội dung đều được tạo tự động bằng AI. Không chỉ vậy, tính năng “cameo” còn giúp người dùng chèn ảnh nhân vật thật vào video giả lập, tạo ra những đoạn phim sống động, khó nhận biết bằng mắt thường.

Lo ngại trước nguy cơ deepfake tràn lan, nhiều chuyên gia cảnh báo Sora có thể thúc đẩy việc phát tán thông tin sai lệch và làm mờ ranh giới thật-giả. Những nhân vật nổi tiếng đặc biệt trở nên dễ bị tổn thương bởi video giả mạo, khiến các tổ chức như SAG-AFTRA lên tiếng đòi hỏi OpenAI tăng cường bảo vệ quyền hình ảnh.

Việc nhận diện các sản phẩm AI là thách thức không nhỏ, ngay cả với các nền tảng công nghệ lớn, mạng xã hội lẫn người dùng thông thường. Tuy nhiên, vẫn tồn tại một số phương pháp giúp người dùng tự kiểm tra tính xác thực của video do Sora tạo ra.

1Kiểm tra watermark Sora

Sora Watermark (mũi tên xanh chỉ vào) là dấu hiệu nhận biết video do công cụ nào tạo ra.
Sora Watermark (mũi tên xanh chỉ vào) là dấu hiệu nhận biết video do công cụ nào tạo ra.

Các video được xuất từ ứng dụng Sora trên iOS thường gắn watermark - biểu tượng đám mây màu trắng chuyển động quanh cạnh video, tương tự như watermark TikTok. Đây là dấu hiệu trực quan nhận diện nội dung AI. Tuy nhiên, watermark không phải lúc nào cũng đáng tin cậy vì có thể bị xóa hoặc cắt bỏ nếu ở dạng tĩnh và thậm chí watermark động cũng có nguy cơ bị xử lý bởi phần mềm chuyên dụng.

CEO OpenAI - Sam Altman - cho rằng xã hội cần thích ứng với việc bất cứ ai cũng có khả năng tạo ra video giả mạo thực tế. Sora là bước tiến mới, mang tới khả năng tiếp cận dễ dàng, phổ biến mà không yêu cầu kỹ năng phức tạp, do đó cần có giải pháp xác thực đa tầng.

Kiểm tra siêu dữ liệu video

Kiểm tra siêu dữ liệu – bước quan trọng giúp xác định video có phải do AI tạo ra, như Sora.
Kiểm tra siêu dữ liệu - bước quan trọng giúp xác định video có phải do AI tạo ra, như Sora.

Siêu dữ liệu là thông tin tự động gắn vào nội dung số khi được tạo ra, bao gồm loại thiết bị, địa điểm, thời gian quay, tên tệp. Đối với sản phẩm do AI tạo, siêu dữ liệu thường đính kèm thông tin xác thực nguồn phát sinh.

OpenAI hiện là thành viên sáng lập Liên minh chứng thực nội dung C2PA, do đó các video Sora đều có siêu dữ liệu C2PA. Người dùng có thể kiểm tra theo các bước sau:

  • Truy cập verify.contentauthenticity.org

  • Tải lên video cần kiểm tra

  • Nhấn “Mở” và xem chi tiết ở bảng thông tin bên phải

Nếu video phát sinh bởi AI, phần tóm tắt sẽ hiển thị rõ ràng nội dung đó, bao gồm dòng “do OpenAI phát hành” xác nhận sản phẩm từ Sora. Tất cả video Sora đều bắt buộc có siêu dữ liệu này để truy xuất nguồn gốc.

Trong môi trường số ngày càng nhiều nội dung giả lập, việc chủ động kiểm tra watermark và siêu dữ liệu sẽ giúp người dùng hạn chế bị đánh lừa bởi deepfake, đồng thời góp phần bảo vệ thông tin cá nhân và cộng đồng.

Đình Hiếu

Bình luận

Tin bài khác

YouTube triển khai công nghệ tự động nhận diện và chặn deepfake AI
09:24, 27/10/2025

YouTube triển khai công nghệ tự động nhận diện và chặn deepfake AI

Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đã khiến các video deepfake xuất hiện ngày càng nhiều trên mạng.

Xem thêm
Thương hiệu đồ chơi Toys “R” Us Canada bị tấn công mạng, rò rỉ dữ liệu hàng chục nghìn khách hàng
10:15, 25/10/2025

Thương hiệu đồ chơi Toys “R” Us Canada bị tấn công mạng, rò rỉ dữ liệu hàng chục nghìn khách hàng

Công ty bán lẻ đồ chơi nổi tiếng Toys “R” Us Canada vừa xác nhận xảy ra một vụ xâm phạm dữ liệu quy mô lớn, khiến thông tin cá nhân của khách hàng bị truy cập trái phép và rò rỉ trên các diễn đàn ngầm.

Xem thêm
Phát hiện lỗ hổng 0-day nghiêm trọng trên Samsung Galaxy S25
10:09, 25/10/2025

Phát hiện lỗ hổng 0-day nghiêm trọng trên Samsung Galaxy S25

Một nhóm chuyên gia an ninh mạng quốc tế vừa phát hiện lỗ hổng bảo mật nghiêm trọng trên dòng điện thoại Galaxy S25 của Samsung, cho phép tin tặc từ xa truy cập camera, theo dõi vị trí và chiếm quyền điều khiển thiết bị mà không cần sự tương tác của người dùng.

Xem thêm
YouTube ra mắt công cụ nhận diện deepfake, bảo vệ danh tính số của người sáng tạo
14:49, 24/10/2025

YouTube ra mắt công cụ nhận diện deepfake, bảo vệ danh tính số của người sáng tạo

YouTube giới thiệu công cụ nhận diện deepfake, giúp người sáng tạo bảo vệ hình ảnh và giọng nói trước nguy cơ giả mạo lan rộng trên môi trường số.

Xem thêm
IoT bùng nổ trong bất động sản: Tiện nghi đi kèm rủi ro an ninh
14:34, 24/10/2025

IoT bùng nổ trong bất động sản: Tiện nghi đi kèm rủi ro an ninh

Hàng loạt vụ tấn công vào hệ thống IoT (Internet of Things - Internet vạn vật) trong bất động sản đang cho thấy một thực tế: ngôi nhà càng thông minh, kẻ gian càng có nhiều “đường vào”...

Xem thêm
Gia tăng lừa đảo công nghệ tại Anh, thiệt hại ước tính vượt 629 triệu bảng
14:26, 24/10/2025

Gia tăng lừa đảo công nghệ tại Anh, thiệt hại ước tính vượt 629 triệu bảng

Tội phạm mạng tại Anh đang ngày càng lợi dụng công nghệ trí tuệ nhân tạo (AI) để mở rộng quy mô và mức độ tinh vi trong các vụ lừa đảo, đặc biệt là trong lĩnh vực đầu tư và tình cảm. Sự bùng phát này khiến số vụ gian lận tài chính tại quốc gia này tăng vọt trong nửa đầu năm 2025.

Xem thêm
Úc mạnh tay với chatbot AI: Yêu cầu giải trình biện pháp bảo vệ trẻ em
14:15, 24/10/2025

Úc mạnh tay với chatbot AI: Yêu cầu giải trình biện pháp bảo vệ trẻ em

Chính phủ Úc vừa yêu cầu bốn doanh nghiệp phát triển chatbot trí tuệ nhân tạo (AI) phải giải trình cụ thể các biện pháp nhằm bảo vệ trẻ em khỏi việc tiếp xúc với nội dung khiêu dâm hoặc các hành vi khuyến khích tự hại.

Xem thêm