![]() |
| Ảnh minh họa |
Sự bùng nổ của AI tạo sinh (Generative AI) không chỉ mang lại tiện ích vượt trội mà còn vô tình trao cho tội phạm mạng những công cụ lừa đảo công nghệ cao. Từ những email giả mạo không tì vết đến các cuộc gọi video deepfake giống như thật, dưới đây là 4 chiêu thức lừa đảo nguy hiểm mà bạn cần biết để tự bảo vệ bản thân.
Email giả mạo hoàn hảo không còn lỗi chính tả
Trước đây, người dùng dễ dàng phát hiện email lừa đảo (phishing) nhờ các lỗi ngữ pháp hay cách dùng từ ngô nghê. Nhưng nay, bằng cách huấn luyện các mô hình ngôn ngữ lớn (LLM) với dữ liệu từ các doanh nghiệp uy tín, kẻ gian có thể tạo ra những email giả mạo hoàn hảo, bắt chước giọng điệu của ngân hàng hay đối tác một cách đáng kinh ngạc.
Để phòng chống, hãy so sánh email đáng ngờ với các email cũ từ cùng một đơn vị để tìm sự khác biệt nhỏ trong văn phong. Quan trọng nhất, luôn kiểm tra kỹ địa chỉ email người gửi - đây là yếu tố then chốt mà AI chưa thể che giấu hoàn toàn.
Kẻ lừa đảo "cào" dữ liệu để giăng bẫy cá nhân hóa
Kẻ lừa đảo không còn rải lưới ngẫu nhiên. Chúng sử dụng AI để "cào" toàn bộ thông tin bạn công khai trên mạng xã hội, từ đó tạo ra các kịch bản lừa đảo được "đo ni đóng giày" dành cho riêng bạn. Thậm chí, chúng có thể tạo ra các nhân vật ảo có cùng sở thích để tiếp cận, làm quen và dẫn dụ nạn nhân vào các bẫy đầu tư tài chính hoặc tiền ảo.
Để phòng chống chiêu trò này, hãy giữ thái độ hoài nghi lành mạnh với bất kỳ người lạ nào nhắn tin tư vấn đầu tư. Thiết lập kênh liên lạc phụ với người thân để xác minh chéo khi có nghi ngờ.
Giọng nói người thân bị đánh cắp và nhân bản
Đây là hình thức lừa đảo gây hoang mang nhất hiện nay. Chỉ cần một vài đoạn video bạn đăng trên TikTok hay Facebook, AI có thể sao chép (clone) giọng nói của bạn giống đến 99%. Kẻ gian dùng giọng nói này để gọi điện vay tiền bạn bè, hoặc tồi tệ hơn là dàn dựng các vụ bắt cóc tống tiền giả mạo nhắm vào người cao tuổi trong gia đình.
Để tự bảo vệ, hãy thiết lập một "mật khẩu gia đình" (safe word) - một từ khóa bí mật mà chỉ người nhà mới biết. Nếu nhận được cuộc gọi khẩn cấp, hãy hỏi từ khóa này. Nếu đầu dây bên kia ấp úng hoặc không trả lời, hãy cúp máy ngay lập tức.
Video call deepfake: Khuôn mặt giả nhưng rất thuyết phục
Không chỉ giọng nói, AI còn có thể tạo ra khuôn mặt giả (deepfake) trong các cuộc gọi video. Kẻ lừa đảo thường dùng hình ảnh người nổi tiếng hoặc giả danh sếp, người thân để tạo lòng tin với nạn nhân.
Mặc dù vậy, vẫn có cách lật tẩy chiêu trò này. AI hiện tại vẫn rất kém trong việc xử lý các chuyển động vật lý phức tạp. Nếu nghi ngờ, hãy yêu cầu người gọi quay đầu sang hai bên hoặc khua tay trước mặt. Khuôn mặt hoặc bàn tay của deepfake sẽ bị biến dạng (glitch) hoặc mờ đi khi thực hiện các động tác này.
Trong kỷ nguyên AI, nguyên tắc vàng là "chậm lại và xác minh". Đừng để nỗi sợ hãi hay sự cấp bách mà kẻ gian tạo ra khiến bạn mất cảnh giác. Bằng cách này, bạn sẽ giảm đáng kể nguy cơ trở thành nạn nhân của những chiêu lừa đảo công nghệ cao này.
Khôi Nguyên (tổng hợp)


Bình luận