Trao đổi với phóng viên Tạp chí điện tử An ninh mạng, Luật sư Hoàng Văn Hà - Giám đốc Công ty Luật TNHH ARC Hà Nội (HNLAW) cho rằng pháp luật hiện hành đã có nhiều công cụ để xử lý các hành vi lợi dụng AI, từ xử phạt hành chính đến trách nhiệm dân sự và hình sự.
AI tạo nội dung sai sự thật: trách nhiệm pháp lý thuộc về người sử dụng
![]() |
| Ảnh minh họa. Nguồn Internet. |
Phóng viên: Thưa luật sư, khi cá nhân hoặc doanh nghiệp sử dụng AI để tạo và phát tán nội dung sai sự thật trên mạng, pháp luật hiện hành xử lý như thế nào?
Luật sư Hoàng Văn Hà: Luật Trí tuệ nhân tạo 2025 ra đời trong bối cảnh AI đang trở thành một hạ tầng công nghệ quan trọng của nền kinh tế số. Luật không cấm sử dụng AI, nhưng đặt ra các nguyên tắc quản trị rủi ro bắt buộc như minh bạch, an toàn, bảo vệ dữ liệu và kiểm soát bởi con người.
Theo đó, khi một cá nhân hoặc doanh nghiệp sử dụng AI để tạo ra nội dung sai lệch như video giả mạo, bài viết bịa đặt, hình ảnh chỉnh sửa nhằm gây hiểu nhầm thì trách nhiệm pháp lý không thuộc về thuật toán mà thuộc về chủ thể sử dụng hoặc phát tán nội dung.
Tùy vào tính chất và hậu quả, hành vi này có thể bị xử lý trên ba bình diện.
Thứ nhất là xử phạt hành chính. Các hành vi cung cấp hoặc chia sẻ thông tin sai sự thật trên mạng có thể bị xử phạt theo các nghị định quản lý lĩnh vực viễn thông và công nghệ thông tin. Mức phạt đối với cá nhân có thể lên đến 100 triệu đồng, đối với tổ chức có thể lên đến 200 triệu đồng, kèm theo các biện pháp khắc phục như buộc gỡ bỏ thông tin, cải chính công khai hoặc thu hồi lợi ích thu được từ hành vi vi phạm.
Thứ hai là trách nhiệm dân sự. Khi nội dung do AI tạo ra gây thiệt hại cho danh dự, uy tín hoặc tài sản của cá nhân, tổ chức, người phát tán phải bồi thường theo quy định của Bộ luật Dân sự 2015. Trong nhiều vụ việc, thiệt hại không chỉ là vật chất mà còn bao gồm tổn thất tinh thần, chi phí khắc phục và tổn hại lâu dài đến thương hiệu.
Thứ ba là trách nhiệm hình sự. Nếu việc sử dụng AI gây hậu quả nghiêm trọng như kích động gây rối trật tự xã hội, phát tán thông tin sai lệch gây thiệt hại lớn hoặc phục vụ mục đích lừa đảo, người vi phạm có thể bị truy cứu theo Bộ luật Hình sự 2015. Trong trường hợp pháp nhân thương mại thực hiện hành vi phạm tội, mức phạt có thể lên tới hàng tỷ đồng, kèm theo hình phạt bổ sung như đình chỉ hoạt động hoặc cấm kinh doanh trong một số lĩnh vực.
Điểm đáng chú ý của Luật Trí tuệ nhân tạo 2025 là yêu cầu các tổ chức triển khai hệ thống AI phải đánh giá rủi ro, thiết lập cơ chế kiểm soát nội dung và bảo đảm sự giám sát của con người đối với các quyết định quan trọng. Điều này nhằm ngăn chặn việc đổ lỗi cho công nghệ khi xảy ra sai phạm.
Deepfake và website giả: rủi ro pháp lý lớn trong kỷ nguyên AI
Phóng viên: Thực tế cho thấy nhiều vụ lừa đảo hiện nay sử dụng deepfake hoặc website ngân hàng giả. Những hành vi này được pháp luật xử lý ra sao?
Luật sư Hoàng Văn Hà: Deepfake đang trở thành một công cụ nguy hiểm nếu bị lợi dụng. Công nghệ này cho phép tạo ra video hoặc giọng nói giả mạo người thật với độ chân thực rất cao, khiến nạn nhân khó nhận biết. Trong các vụ lừa đảo tài chính, đối tượng thường sử dụng AI để giả mạo lãnh đạo doanh nghiệp, nhân viên ngân hàng hoặc chuyên gia tài chính nhằm thuyết phục nạn nhân chuyển tiền.
Về mặt pháp lý, những hành vi này có thể bị xử lý theo nhiều tội danh trong Bộ luật Hình sự.
Nếu mục đích là chiếm đoạt tài sản, người phạm tội có thể bị truy cứu về tội Lừa đảo chiếm đoạt tài sản theo Điều 174 Bộ luật Hình sự, với mức hình phạt cao nhất là tù chung thân trong trường hợp giá trị tài sản đặc biệt lớn.
Trong trường hợp sử dụng mạng máy tính, mạng viễn thông hoặc phương tiện điện tử để thực hiện hành vi chiếm đoạt tài sản, người phạm tội có thể bị xử lý theo Điều 290 Bộ luật Hình sự, với khung hình phạt lên tới 20 năm tù.
Ngoài ra, nếu việc phát tán nội dung giả mạo gây thiệt hại nghiêm trọng cho cá nhân, tổ chức hoặc gây rối loạn xã hội, người vi phạm còn có thể bị xử lý theo Điều 288 Bộ luật Hình sự về tội đưa hoặc sử dụng trái phép thông tin trên mạng máy tính, mạng viễn thông.
Đối với doanh nghiệp, rủi ro pháp lý không chỉ nằm ở việc trực tiếp vi phạm mà còn ở việc thiếu cơ chế kiểm soát hệ thống AI. Pháp luật Việt Nam hiện nay đã thừa nhận trách nhiệm hình sự của pháp nhân thương mại. Nếu doanh nghiệp buông lỏng quản trị, để hệ thống AI bị lợi dụng gây thiệt hại lớn, tổ chức đó có thể bị phạt tiền đến hàng chục tỷ đồng, thậm chí bị đình chỉ hoạt động hoặc cấm kinh doanh trong một số lĩnh vực.
Trong lĩnh vực tài chính - ngân hàng, rủi ro còn lớn hơn. Một hệ thống AI chấm điểm tín dụng sai, tư vấn đầu tư sai hoặc bị lợi dụng để lừa đảo có thể gây thiệt hại cho hàng nghìn khách hàng và dẫn đến khủng hoảng niềm tin. Khi đó, hậu quả không chỉ là tiền phạt mà còn là mất uy tín thương hiệu và nguy cơ bị cơ quan quản lý giám sát đặc biệt.
Vì vậy, trong giai đoạn hiện nay, các doanh nghiệp cần xây dựng cơ chế quản trị AI có trách nhiệm, bao gồm đánh giá rủi ro định kỳ, công khai việc sử dụng AI với khách hàng và thiết lập hệ thống giám sát con người đối với mọi quyết định quan trọng của thuật toán. AI có thể giúp nâng cao hiệu quả hoạt động, nhưng trách nhiệm pháp lý cuối cùng vẫn thuộc về con người và tổ chức vận hành công nghệ đó.
Doanh nghiệp phải xây dựng cơ chế quản trị AI có trách nhiệm
![]() |
| Luật sư Hoàng Văn Hà - Giám đốc Công ty Luật TNHH ARC Hà Nội (HNLAW). |
Theo luật sư Hoàng Văn Hà, rủi ro pháp lý không chỉ nằm ở hành vi vi phạm trực tiếp mà còn ở việc thiếu cơ chế kiểm soát hệ thống AI trong doanh nghiệp.
Pháp luật Việt Nam đã thừa nhận trách nhiệm hình sự của pháp nhân thương mại. Nếu doanh nghiệp buông lỏng quản trị, để hệ thống AI bị lợi dụng gây thiệt hại lớn, tổ chức đó có thể bị phạt tiền đến hàng chục tỷ đồng, thậm chí bị đình chỉ hoạt động hoặc cấm kinh doanh trong một số lĩnh vực.
Trong lĩnh vực tài chính - ngân hàng, rủi ro còn lớn hơn. Một hệ thống AI chấm điểm tín dụng sai, tư vấn đầu tư sai hoặc bị lợi dụng để lừa đảo có thể gây thiệt hại cho hàng nghìn khách hàng và dẫn tới khủng hoảng niềm tin số.
Vì vậy, các doanh nghiệp cần xây dựng mô hình quản trị AI có trách nhiệm, bao gồm đánh giá rủi ro định kỳ, minh bạch việc sử dụng AI với khách hàng và thiết lập cơ chế giám sát của con người đối với các quyết định quan trọng của thuật toán.
AI có thể nâng cao hiệu quả hoạt động, nhưng trách nhiệm pháp lý cuối cùng vẫn thuộc về con người và tổ chức vận hành công nghệ đó.
Thu Uyên - Thu Hương



Bình luận