Tại sao có hiện tượng AI lừa dối người dùng?
AI vốn dĩ là một lĩnh vực khoa học máy tính nhằm giúp máy móc có thể “suy nghĩ”, “học hỏi” và “ra quyết định” ở một mức độ nào đó. Được nghiên cứu từ những năm 50 của thế kỷ trước, nhưng AI chỉ thực sự đạt được đột phá từ những năm 2010 nhờ cơ sở dữ liệu lớn, khả năng tính toán và học sâu. Cột mốc đánh dấu sự xâm nhập của AI vào đời sống là khi Chat GPT của Open AI ra đời và gây ấn tượng nhờ khả năng đối thoại tự nhiên với người dùng vào năm 2022. Từ đó, các công cụ AI bắt đầu bùng nổ trong tất cả các mặt của đời sống xã hội với tầm ảnh hưởng ngày càng lớn. Sự “dễ phổ biến” của các công cụ AI khiến cho bất cứ ai cũng có thể tạo ra nội dung đến mức Diễn đàn Kinh tế Thế giới (WWF) cảnh báo rằng, đến năm 2026, khoảng 90% nội dung trực tuyến sẽ được tạo ra bởi máy.
![]() |
Tuy nhiên, chúng ta cần hiểu rằng AI được huấn luyện dựa trên dữ liệu khổng lồ từ internet, và cơ chế hoạt động của nó không nhằm phân biệt đúng sai mà tối ưu phản hồi để thuyết phục hoặc đáp ứng yêu cầu người dùng. Giáo sư Stuart Russell, chuyên gia về AI tại Đại học California, từng cảnh báo: “AI không có khái niệm về sự thật, nó chỉ có khái niệm về tính xác suất của ngôn ngữ. Khi mô hình được huấn luyện để tối đa hóa sự thuyết phục, hiện tượng ảo giác hay lừa dối là điều không thể tránh khỏi”.
Báo cáo năm 2024 của MIT Technology Review (tạp chí chuyên về công nghệ của Viện công nghệ Massachusetts -MIT) cho thấy khoảng 38% các phản hồi từ những hệ thống AI ngôn ngữ lớn chứa yếu tố sai lệch hoặc chưa được xác minh, trong đó có 12% mang tính “bịa đặt thuyết phục”. Sự nguy hiểm nằm ở chỗ, thay vì thừa nhận không biết, AI thường “ngụy tạo” dữ kiện sao cho người đọc dễ tin. Khi khả năng xử lý ngôn ngữ và hình ảnh của AI ngày càng tinh vi, người dùng càng dễ bị dẫn dắt bởi nội dung giả mạo.
Ngoài ra, một số công ty khởi nghiệp công nghệ đã cố ý khai thác yếu tố “lừa dối” của AI để phục vụ lợi nhuận. Bằng việc tạo ra các mô hình chatbot giả danh chuyên gia, họ mở đường cho hàng loạt hình thức gian lận trực tuyến mới. Gartner (công ty chuyên tư vấn về công nghệ hàng đầu tại Mỹ) ước tính đến năm 2026, hơn 20% các vụ gian lận tài chính toàn cầu sẽ có yếu tố liên quan đến AI tạo sinh.
Rủi ro trong kinh doanh
Báo cáo Rủi ro Toàn cầu năm 2024 của WEF đã xác định thông tin gian lận là rủi ro toàn cầu cao nhất, thậm chí còn cao hơn cả căng thẳng về khí hậu và địa chính trị. Với các doanh nghiệp, mối đe dọa từ AI lừa dối không chỉ nằm ở việc khách hàng bị đánh lừa mà còn trực tiếp ảnh hưởng đến uy tín, giá trị thương hiệu và cả cấu trúc quản trị nội bộ. Một nghiên cứu của Công ty Kiểm toán PwC về AI và gian lận trong kinh doanh năm 2024 cho biết 72% giám đốc điều hành toàn cầu lo ngại deepfake sẽ trở thành công cụ tấn công chủ đạo vào danh tiếng doanh nghiệp. Chỉ cần một đoạn video giả mạo lãnh đạo cấp cao phát ngôn sai lệch về tài chính, thị trường chứng khoán có thể biến động tức thì, kéo theo những khoản tiền lớn bị bốc hơi. Tháng 4/2024, Sàn giao dịch chứng khoán quốc gia Ấn Độ (NSE) đã phải đưa ra đính chính với các nhà đầu tư về các video deepfake ghi lại cảnh giám đốc điều hành của sàn đưa ra khuyến nghị về cổ phiếu dẫn đến những biến động thị trường lớn.
Trong môi trường kinh doanh toàn cầu, việc quản lý chuỗi hệ thống cũng trở nên mong manh trước hiểm họa AI lừa dối. Giả mạo hợp đồng, hóa đơn hay email điều hành chuỗi cung ứng bằng AI đã tạo ra một “thế hệ mới” của tấn công lừa đảo. Một vụ việc nổi tiếng được ghi nhận vào giữa tháng 1/2024 khi Công ty Thiết kế Arup nổi tiếng của Anh bị thiệt hại 25,6 triệu USD. Bọn lừa đảo đã giả danh giám đốc tài chính công ty để gửi email và dàn dựng cuộc họp giả với nhân viên tại chi nhánh Hồng Kông kèm theo lệnh chuyển khoản bắt buộc dành cho chi nhánh này. Vụ việc chỉ được phát hiện sau đó khi nhân viên chi nhánh liên hệ với quản lý trực tiếp của mình và báo cảnh sát. Ngoài ra, còn có nhiều vụ việc khác không được thừa nhận chính thức do những lo ngại của giới kinh doanh về “hình ảnh” của công ty trong mắt công chúng. Công ty An ninh mạng Proofpoint ghi nhận chỉ riêng nửa đầu năm 2025 đã có hơn 3,2 tỷ USD thiệt hại toàn cầu liên quan đến gian lận email ứng dụng deepfake giọng nói và văn bản AI.
Đối với thị trường người tiêu dùng, thách thức càng nặng nề hơn. Một khảo sát của Công ty Edelman tại Mỹ cho thấy 59% người tiêu dùng sẵn sàng từ bỏ thương hiệu nếu phát hiện thương hiệu này lan truyền thông tin sai lệch do AI. Trong thời đại mà niềm tin trở thành “tài sản vô hình” quan trọng nhất, nguy cơ mất lòng tin từ khách hàng có thể khiến doanh nghiệp phá sản nhanh chóng, bất kể họ có hệ thống tài chính mạnh mẽ đến đâu.
![]() |
Khả năng tạo ra tin giả nhiều lớp khiến cho AI ngày càng trở nên nguy hiểm đối với công chúng. |
Một cuộc chiến không cân sức ?
Khi đã nhận diện được thách thức, các công ty kinh doanh cũng phải đưa ra những phương án bảo vệ chính mình. Hàng tỷ USD đã được đổ ra cho những kế hoạch như vậy. Hiện nay, cuộc chiến này diễn ra trên hai mặt trận: công nghệ phòng thủ và xây dựng “miễn dịch nhận thức” cho cộng đồng.
Về công nghệ, nhiều công ty đã phát triển giải pháp xác thực nội dung, như Watermark AI (phương thức gắn dấu nhận diện không thể xóa vào dữ liệu sinh ra bởi máy) giúp phân biệt nội dung do AI và con người tạo ra. Các công ty lớn như OpenAI, Google và Microsoft đều tuyên bố sẽ triển khai các chuẩn mực minh bạch hóa nguồn gốc dữ liệu.
Tuy nhiên, tiến sĩ Hany Farid, chuyên gia hàng đầu về nhận diện hình ảnh giả tại Đại học California, nhấn mạnh: “Không có công nghệ nào là tuyệt đối. Luôn tồn tại cuộc chạy đua vũ trang giữa kẻ tấn công và hệ thống phòng thủ”. Điều đó có nghĩa, dù giải pháp công nghệ là cần thiết, nó không thể thay thế nhận thức cộng đồng. Vì vậy, xây dựng khả năng “miễn dịch nhận thức” trở thành yếu tố trọng yếu. Giống như tiêm vaccine để chống lại virus sinh học, xã hội cần trang bị kỹ năng phân biệt thông tin thật – giả để đối phó “virus sai lệch” từ AI. Chuyên gia tâm lý học truyền thông Claire Wardle, nhà sáng lập tổ chức First Draft, khẳng định: “Chúng ta không thể ngăn mọi deepfake, nhưng có thể xây dựng cộng đồng đủ tỉnh táo để đặt câu hỏi trước khi tin”.
Hiện nhiều quốc gia đã khởi động chiến dịch nâng cao năng lực số cho công dân. Chính phủ Phần Lan triển khai chương trình giáo dục kỹ năng nhận diện thông tin giả cho học sinh từ cấp tiểu học. Kết quả khảo sát năm 2024 cho thấy 83% thanh thiếu niên Phần Lan có thể nhận diện chính xác các đoạn video deepfake phổ biến trên mạng xã hội. Đây được coi là minh chứng rõ ràng rằng, miễn dịch nhận thức hoàn toàn khả thi nếu được đầu tư đúng hướng.
Thực tế cho thấy, cuộc chiến nhận thức không bao giờ dễ dàng nhất là khi doanh nghiệp phải đối diện với áp lực kép vừa đầu tư công nghệ bảo mật, vừa đào tạo nhân viên và khách hàng về nhận thức số. Theo Công ty Tư vấn McKinsey, chi phí trung bình cho một chương trình phòng chống deepfake và gian lận AI tại các tập đoàn đa quốc gia có thể lên tới 15 - 20 triệu USD/ năm, chưa kể tổn thất gián tiếp do mất niềm tin khách hàng. Nhưng có lẽ thách thức lớn nhất nằm ở sự “bất cân xứng quyền lực”. Các nhóm tội phạm mạng sử dụng AI lừa dối có thể linh hoạt, sáng tạo và ít bị ràng buộc bởi luật pháp. Trong khi đó, doanh nghiệp và chính phủ phải tuân thủ quy trình phức tạp, khiến tốc độ phản ứng thường chậm hơn. Đây là lý do khiến nhiều chuyên gia kêu gọi một cơ chế hợp tác quốc tế mạnh mẽ hơn. Liên minh châu Âu (EU) đã đi đầu với “Đạo luật AI” yêu cầu minh bạch dữ liệu, nhưng việc áp dụng rộng rãi trên toàn cầu vẫn là câu hỏi bỏ ngỏ.
Tái khẳng định giá trị của sự thật trong thời đại AI sẽ là cuộc chiến mà tất cả chúng ta cùng phải tham gia. Giáo sư Shoshana Zuboff, Trường kinh doanh Harvard, tác giả cuốn sách nổi tiếng “Thời đại của chủ nghĩa tư bản giám sát” cho rằng: “Trong thế kỷ 21, cuộc đấu tranh lớn nhất của chúng ta không phải là công nghệ kiểm soát con người, mà là khả năng con người kiểm soát niềm tin của chính mình”. Cuộc chiến này mới chỉ bắt đầu và nó sẽ không chỉ thuộc về các doanh nghiệp.
Tiểu Phong
Bình luận