![]() |
| Khi trí tuệ nhân tạo bị biến thành công cụ phi đạo đức |
Trong khi các công nghệ AI thông thường như ChatGPT, Gemini hay Claude được lập trình để tuân thủ nguyên tắc đạo đức, bảo vệ người dùng, thì các phiên bản “đen” lại hoạt động hoàn toàn ngược lại. Chúng được huấn luyện bằng dữ liệu mã độc, kịch bản lừa đảo và kỹ thuật tấn công mạng, cho phép tội phạm tạo email lừa đảo, lập trang web giả, viết mã độc, thậm chí giả mạo giọng nói và hình ảnh người thật chỉ trong vài giây.
Một ví dụ điển hình là WormGPT, được rao bán trên mạng tối với giá chỉ vài USD, nhưng có thể tạo ra hàng nghìn email lừa đảo cá nhân hóa chỉ trong vài phút. Tiếp sau đó là FraudGPT, công cụ mạnh hơn, được thiết kế như một “chatbot không giới hạn” cho phép người dùng tạo mã độc, quét lỗ hổng hệ thống và lập kế hoạch tấn công mạng trọn gói. Những công cụ này đang biến tội phạm công nghệ cao từ cá nhân đơn lẻ thành những “doanh nghiệp tội phạm” thực thụ.
Báo cáo của nhiều tổ chức an ninh mạng quốc tế cho thấy, trong năm 2024, có tới hơn 70% email lừa đảo trên toàn cầu được tạo hoặc chỉnh sửa bởi AI. Đáng lo ngại hơn, các hệ thống AI này không chỉ hỗ trợ ngôn ngữ toàn cầu mà còn có khả năng dịch tự động, điều chỉnh giọng điệu theo văn hóa từng quốc gia, khiến nạn nhân khó phân biệt thật, giả.
Một trong những chiêu thức nguy hiểm nhất là giả mạo giọng nói và khuôn mặt bằng công nghệ deepfake. Tại châu Âu, một công ty đã mất 25 triệu USD chỉ vì giám đốc tài chính nghe “cuộc gọi khẩn” từ giọng nói giống hệt lãnh đạo cấp cao được tạo bởi AI. Các vụ việc tương tự đang xuất hiện tại nhiều quốc gia châu Á, trong đó có Việt Nam.
Tại Việt Nam, trong thời gian gần đây, lực lượng công an liên tục cảnh báo về tình trạng AI bị lợi dụng để lừa đảo và thao túng nhận thức. Chỉ tính riêng trong quý III/2025, hàng loạt vụ việc có yếu tố “AI giả mạo” đã bị phát hiện. Từ giả danh người thân gọi điện mượn tiền, giả giọng công an dọa nạt để chiếm đoạt tài sản, cho đến tạo video kêu gọi đầu tư “ảo” trên mạng xã hội. Ở nhiều địa phương, các đối tượng còn sử dụng công nghệ AI để điều khiển hệ thống “bot” tự động nhắn tin, kết bạn và dụ dỗ người dùng đầu tư vào tiền ảo, sàn chứng khoán quốc tế giả mạo.
Các chuyên gia cho rằng, sự nguy hiểm của loại tội phạm này nằm ở tính tự động và quy mô lan tỏa khổng lồ. Trước đây, một email lừa đảo cần cả ngày để soạn và gửi thủ công. AI có thể tự động tạo hàng nghìn email chỉ trong vài phút, kèm giọng nói và hình ảnh thuyết phục. Khi người dùng nhận được tin nhắn “từ người quen”, một cuộc gọi “từ công an” hay một video “lãnh đạo doanh nghiệp kêu gọi đầu tư”, rất khó để họ kịp phân biệt đâu là thật, đâu là sản phẩm của máy móc.
Các cơ quan an ninh mạng quốc tế đã cảnh báo về xu hướng “AI phi đạo đức” đang lan nhanh. Một số diễn đàn trên mạng tối hiện rao bán dịch vụ “AI lừa đảo theo yêu cầu”, cung cấp cả gói từ viết email, làm web giả, đến dựng video deepfake, chỉ cần nhập tên nạn nhân. Đây là mối đe dọa không chỉ với cá nhân mà cả với các tổ chức tài chính, doanh nghiệp và hệ thống nhà nước.
Trí tuệ nhân tạo là thành tựu vĩ đại của con người, nhưng nếu thiếu đạo đức và kiểm soát, nó có thể trở thành con dao hai lưỡi. “AI phi đạo đức” không chỉ đe dọa túi tiền của người dân, mà còn có thể làm lung lay niềm tin xã hội, gây hỗn loạn thông tin và bất ổn an ninh.
Cuộc chiến với tội phạm công nghệ cao không còn là cuộc đua về kỹ thuật, mà là cuộc chiến về ý thức và trách nhiệm. Khi mỗi người dùng biết cách nhận diện, mỗi doanh nghiệp tăng cường bảo mật, và mỗi cơ quan có khung pháp lý rõ ràng, đó mới là “lá chắn” vững chắc chống lại làn sóng lừa đảo công nghệ cao từ AI phi đạo đức.
Thanh Huyền









Bình luận