Việt Nam cần luật riêng về trí tuệ nhân tạo để phát triển an toàn và bền vững

Trí tuệ nhân tạo (AI) đang thâm nhập sâu vào mọi lĩnh vực đời sống, nhưng cũng kéo theo nhiều rủi ro vượt ngoài phạm vi các luật hiện hành. Việc ban hành Luật Trí tuệ nhân tạo được kỳ vọng sẽ tạo hành lang pháp lý vừa bảo đảm an toàn cho người dùng, vừa thúc đẩy đổi mới sáng tạo trong kỷ nguyên số.

15:05, 12/11/2025

Bộ Khoa học và Công nghệ mới đây đã trình Quốc hội dự án Luật Trí tuệ nhân tạo, hướng tới mục tiêu xây dựng môi trường pháp lý đủ mạnh để quản lý, kiểm soát và phát triển AI một cách bền vững. Trong bối cảnh công nghệ này đang hiện diện từ giáo dục, y tế, sản xuất đến quản lý đô thị, các chuyên gia cho rằng việc có luật riêng là bước đi cấp thiết, giúp Việt Nam không tụt hậu trước tốc độ phát triển của thế giới.

Cần hành lang pháp lý để theo kịp công nghệ

Theo TS. Sreenivas Tirumala, giảng viên cao cấp Đại học RMIT, AI đang trở thành động lực tăng trưởng mới của nền kinh tế Việt Nam. “Luật Trí tuệ nhân tạo không chỉ là công cụ quản lý mà còn là động lực thúc đẩy doanh nghiệp và cơ quan quản lý tiến cùng thời đại,” ông nhấn mạnh.

TS Jeff Nijsse và TS Sreenivas Tirumala cho rằng AI đang tạo ra nhiều loại rủi ro mới nên việc ban hành Luật Trí tuệ nhân tạo là phù hợp.

Ông cho rằng trong khi tội phạm mạng đang khai thác AI để tạo ra deepfake, lừa đảo giọng nói, hay email độc hại, thì Việt Nam cần có khung pháp lý đủ mạnh để kiểm soát các mô hình AI, kể cả những hệ thống được vận hành từ nước ngoài.

TS. Jeff Nijsse, chuyên gia kỹ thuật phần mềm (RMIT) cũng đánh giá việc ban hành luật AI là bước đi tất yếu, phù hợp với xu hướng toàn cầu. Ông cho rằng pháp luật hiện hành chưa đủ bao quát những rủi ro mới như thao túng hình ảnh, giả giọng nói hay xâm phạm dữ liệu cá nhân. Đấy đều là những vấn đề đòi hỏi quy định riêng biệt.

Các chuyên gia trong nước như ông Lê Thọ Bình, Phó Chủ tịch Hội Truyền thông số Việt Nam, nhận định Việt Nam đang tồn tại một “vùng xám pháp lý” khi chưa có cơ quan nào đủ thẩm quyền đặt ra tiêu chuẩn, quy chuẩn kỹ thuật hay trách nhiệm cho các hệ thống AI. “Luật AI sẽ là nền tảng để bịt lỗ hổng này, tạo cơ sở cho chính sách phát triển và quản lý trong tương lai,” ông nói.

Giữ cân bằng giữa an toàn và sáng tạo

Một trong những nội dung gây tranh luận lớn của dự thảo là quy định tiền kiểm đối với hệ thống AI rủi ro cao. Một số ý kiến lo ngại quy định này có thể khiến startup và doanh nghiệp nhỏ bị chậm lại. Ông Lê Thọ Bình đề xuất nên “tiền kiểm có chọn lọc”, kết hợp sandbox AI, khung thử nghiệm giới hạn trong 24 tháng để vừa đảm bảo an toàn, vừa tạo không gian sáng tạo.

Theo TS. Jeff Nijsse, luật cần có cơ chế cập nhật linh hoạt, tránh việc áp dụng cứng nhắc khiến doanh nghiệp e dè và làm chậm tốc độ đổi mới. Ông cho rằng, thay vì lựa chọn giữa tiền kiểm và hậu kiểm, Việt Nam nên kết hợp cả hai, tùy mức độ rủi ro của từng lĩnh vực.

Ông Lê Thọ Bình, Phó chủ tịch Hội Truyền thông số Việt Nam
Ông Lê Thọ Bình, Phó chủ tịch Hội Truyền thông số Việt Nam.

Một vấn đề được quan tâm khác là trách nhiệm pháp lý khi AI gây thiệt hại. Ông Lê Thọ Bình đề xuất mô hình ba tầng: nhà phát triển chịu trách nhiệm về nền tảng; bên triển khai chịu trách nhiệm về mục đích sử dụng; còn nhà cung cấp hạ tầng có trách nhiệm cảnh báo và đảm bảo an toàn hệ thống. Ông cũng kiến nghị thành lập quỹ bảo hiểm rủi ro AI để xử lý bồi thường nhanh cho người bị ảnh hưởng.

Ngoài ra, việc bảo vệ bí mật thương mại và dữ liệu huấn luyện cũng là yêu cầu then chốt. Luật cần quy định mức khai báo phù hợp, bảo mật kho dữ liệu quốc gia và cho phép sử dụng dữ liệu có bản quyền trong nghiên cứu phi thương mại. Đồng thời, Việt Nam nên xây dựng Kho dữ liệu mở quốc gia để doanh nghiệp có thể khai thác an toàn, minh bạch.

Theo các chuyên gia, Luật Trí tuệ nhân tạo không chỉ là “lá chắn” pháp lý trước các rủi ro như deepfake, lừa đảo hay xâm phạm quyền riêng tư, mà còn là bệ phóng giúp Việt Nam bước vào kỷ nguyên AI với tư thế chủ động, minh bạch và có trách nhiệm.

Thanh Huyền

Bình luận