Báo cáo từ Europol được Wall Street Journal đăng tải cho hay, tháng 3/2023, một công ty năng lượng lớn của Anh đã bị lừa chuyển hơn 240.000 USD cho một tài khoản lừa đảo, sau khi giám đốc tài chính của công ty nhận được một cuộc gọi video Zoom từ người mà ông tin là CEO trụ sở chính ở Đức.
Video có giọng nói và hình ảnh trùng khớp với CEO thật, nhưng sau điều tra, cảnh sát phát hiện đó là deepfake video được tạo bởi một hệ thống AI - có khả năng học theo mẫu giọng và hình ảnh từ các video công khai.
![]() |
Thông tin do AI tạo dựng đã xâm nhập vào mọi ngóc ngách của mạng xã hội: Facebook, YouTube, TikTok, TripAdvisor và Pinterest. |
Trong báo cáo hồi tháng 12/2023, hãng bảo mật Symantec cũng cảnh báo việc tin tặc dùng AI để tăng tốc mã hóa dữ liệu trong tấn công ransomware.
Cụ thể, nhóm BlackCat (ALPHV) và Cl0p đã bắt đầu tích hợp mô-đun AI để: ưu tiên mã hóa các tập tin giá trị cao như dữ liệu tài chính, khách hàng, bí mật thương mại… bằng cách nhận dạng cấu trúc tập tin; tối ưu thời gian mã hóa, giúp ransomware lây lan và hoàn tất quá trình trước khi bị phát hiện.
Đầu năm 2024, Cục An ninh mạng Singapore (CSA) cảnh báo một hình thức lừa đảo mới: hacker dùng chatbot AI giả mạo nhân viên ngân hàng, tích hợp trên trang web giả, để dụ nạn nhân cung cấp thông tin cá nhân và mã OTP. Trong một vụ điển hình, một nạn nhân đã trò chuyện với chatbot trong 8 phút, cung cấp toàn bộ thông tin tài khoản và bị rút sạch tiền chỉ vài phút sau.
Thậm chí, AI còn bị lạm dụng để tạo deepfake chính trị nhằm can thiệp bầu cử. Tháng 2/2024, Công ty Graphika và nhóm nghiên cứu của Đại học Stanford (Mỹ) phát hiện một chiến dịch có tên "Spamouflage" sử dụng deepfake AI để giả giọng các chính trị gia Mỹ nhằm phát tán thông tin sai lệch trên YouTube và TikTok, tác động đến cử tri gốc Á trước bầu cử sơ bộ. Các video do AI tổng hợp được mô tả là “gần như hoàn hảo” và chỉ bị phát hiện sau khi phân tích dữ liệu sóng âm và biểu cảm không tự nhiên.
![]() |
Nhiều bài đăng do AI dựng lên trên mạng xã hội đang sử dụng hình ảnh vụ bạo loạn ở Điện Capitol để phá hoại nền dân chủ Mỹ. |
Quý 4/2024, các nhà nghiên cứu tại Check Point phát hiện nhiều đoạn mã độc được AI tạo ra tự động và tung lên GitHub dưới dạng thư viện mã "hữu ích". Tin tặc lợi dụng các mô hình AI mã nguồn mở để tạo hàng loạt biến thể trojan và ransomware, khiến chúng khó bị phát hiện bằng các công cụ chống virus truyền thống.
Trước đó, các nhà nghiên cứu tại SlashNext cũng phát hiện một công cụ có tên WormGPT, được bán trên các diễn đàn darknet. Đây là một mô hình ngôn ngữ lớn được huấn luyện đặc biệt để viết email lừa đảo tinh vi, tự động hóa mã độc, và tạo chiến dịch spear-phishing.
Không giống ChatGPT bị ràng buộc bởi chính sách đạo đức, WormGPT không có rào cản kiểm duyệt, cho phép tin tặc tạo nội dung nguy hiểm theo yêu cầu. Công ty Mandiant (thuộc Google) thì cho hay, nhóm tin tặc APT42 (được cho là có liên hệ với Iran) đã sử dụng mã độc có khả năng "tự học" để thay đổi hành vi theo phản ứng của hệ thống an ninh.
Cụ thể, malware được lập trình để phân tích hệ thống tường lửa và chương trình chống virus tại mục tiêu, sau đó tự động biến đổi để né tránh, thay vì bị chặn ngay từ đầu…
Đạo luật AI: Yêu cầu cấp thiết trong thời đại trí tuệ nhân tạo
Để hạn chế mặt trái của AI trong bảo mật số, các tổ chức quốc tế và chính phủ đang xúc tiến xây dựng khung kiểm soát. Năm 2023, Liên minh châu Âu đã thông qua Đạo luật AI (EU AI Act), trong đó quy định rõ các cấp độ rủi ro và nghĩa vụ của nhà phát triển lẫn người sử dụng.
Tại Mỹ, từ thời chính quyền Tổng thống Joe Biden, Lệnh Hành pháp về AI (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) đã được ban hành vào tháng 10/2023, yêu cầu các công ty công nghệ lớn minh bạch về dữ liệu huấn luyện và thực hiện đánh giá rủi ro an ninh mạng với các mô hình AI quy mô lớn.
![]() |
Năm 2023, Liên minh châu Âu đã thông qua Đạo luật AI (EU AI Act). |
Trung Quốc cũng tiếp cận AI bằng mô hình kiểm soát chặt chẽ nội dung và thuật toán. Năm 2022, Cục Quản lý Không gian mạng Trung Quốc ban hành Quy định về Quản lý Dịch vụ Đề xuất Thuật toán trên Internet, yêu cầu các nền tảng phải đảm bảo sự công bằng, không kỳ thị và cho phép người dùng từ chối các dịch vụ dựa trên thuật toán. Các mô hình AI tạo sinh như chatbot hoặc công cụ sáng tạo nội dung phải được kiểm duyệt trước khi triển khai công khai.
![]() |
Tháng 10/2023, Tổng thống Joe Biden ký Lệnh Hành pháp về AI tại Phòng Đông của Nhà Trắng, với sự chứng kiến của Phó Tổng thống Kamala Harris (bên phải). |
Nhật Bản và Singapore lựa chọn cách tiếp cận mềm dẻo hơn. Nhật Bản ban hành Hướng dẫn Đạo đức AI từ năm 2019, khuyến khích doanh nghiệp tự nguyện tuân thủ các nguyên tắc về minh bạch và công bằng. Singapore nổi bật với Mẫu Khung Quản trị AI (Model AI Governance Framework), liên tục được cập nhật, mới nhất vào năm 2024, bổ sung các quy định quản lý rủi ro đối với AI tạo sinh.
Ngoài khía cạnh pháp lý, khía cạnh đạo đức cũng rất quan trọng. Viện Nghiên cứu AI Montreal (Mila) và Google DeepMind đều đồng thuận rằng các mô hình AI mạnh cần có "cơ chế ngắt khẩn cấp", kiểm toán độc lập và thiết kế không khuyến khích lạm dụng.
Huyền Chi
Bình luận