Đề xuất quản lý trí tuệ nhân tạo theo mức độ rủi ro để thúc đẩy đổi mới sáng tạo

Trong quá trình xây dựng khung pháp lý cho trí tuệ nhân tạo (AI), nhiều doanh nghiệp kiến nghị Việt Nam cần áp dụng mô hình quản lý dựa trên mức độ rủi ro thay vì kiểm soát đồng loạt đối với mọi hệ thống AI. Cách tiếp cận này được cho là giúp bảo đảm an toàn xã hội, đồng thời tạo dư địa cho đổi mới sáng tạo và thúc đẩy quá trình chuyển đổi số quốc gia.

12:49, 15/03/2026

Tránh cách tiếp cận quản lý AI đồng loạt

Hoàn thiện khung pháp lý về trí tuệ nhân tạo.

Báo cáo về những khó khăn, vướng mắc trong quá trình thực thi chính sách khoa học công nghệ, đổi mới sáng tạo và chuyển đổi số do Ban Nghiên cứu phát triển kinh tế tư nhân (Ban IV) tổng hợp cho thấy cộng đồng doanh nghiệp đang đặc biệt quan tâm tới khung pháp lý đối với trí tuệ nhân tạo.

Các ý kiến góp ý tập trung vào hai dự thảo văn bản quan trọng: dự thảo Nghị định quy định chi tiết một số điều của Luật Trí tuệ nhân tạo và dự thảo Quyết định của Thủ tướng về danh mục các hệ thống AI có rủi ro cao.

Một trong những nội dung nhận được nhiều ý kiến là quy định về nghĩa vụ gắn nhãn và thông báo hiển thị đối với nội dung do AI tạo ra hoặc chỉnh sửa. Theo Khoản 1, Điều 19 của dự thảo Nghị định, tổ chức hoặc cá nhân triển khai hệ thống AI có trách nhiệm thông báo và gắn nhãn khi cung cấp ra công cộng các nội dung do AI tạo ra hoặc chỉnh sửa trong trường hợp nội dung mô phỏng ngoại hình, giọng nói của người thật hoặc tái hiện các sự kiện thực tế có khả năng gây nhầm lẫn cho người tiếp nhận.

Theo nhiều doanh nghiệp, quy định này nếu được áp dụng với mọi nội dung có yếu tố AI sẽ dẫn tới cách tiếp cận quản lý đồng loạt, chưa phản ánh đúng mức độ rủi ro của từng loại ứng dụng trí tuệ nhân tạo. Trong bối cảnh AI đang trở thành công cụ hỗ trợ phổ biến trong sáng tạo nội dung, truyền thông, marketing, thiết kế và nhiều hoạt động kinh tế - xã hội khác, việc áp dụng nghĩa vụ gắn nhãn trên diện rộng có thể làm gia tăng đáng kể chi phí tuân thủ cho doanh nghiệp.

Đặc biệt đối với các doanh nghiệp nhỏ và vừa, việc phải gắn nhãn và thực hiện nghĩa vụ thông báo cho hầu hết các nội dung do AI hỗ trợ tạo ra có thể kéo theo rủi ro pháp lý và phát sinh nhiều thủ tục hành chính. Điều này có thể ảnh hưởng đến khả năng ứng dụng công nghệ mới và làm chậm quá trình đổi mới sáng tạo trong doanh nghiệp.

Không chỉ vậy, một số ý kiến cho rằng việc gắn nhãn quá rộng có thể làm giảm hiệu quả của chính cơ chế cảnh báo. Khi phần lớn nội dung trên môi trường số đều mang dấu hiệu liên quan đến AI, người dùng có thể dần xem nhẹ các thông tin cảnh báo, trong khi mục tiêu ban đầu của quy định là giúp nhận diện những nội dung có nguy cơ gây nhầm lẫn hoặc có thể ảnh hưởng tiêu cực tới xã hội.

Trong bối cảnh AI ngày càng được tích hợp sâu vào các nền tảng số, việc áp dụng nghĩa vụ gắn nhãn tràn lan cũng có thể tạo ra tâm lý e dè đối với các sản phẩm và dịch vụ có yếu tố trí tuệ nhân tạo. Điều này có thể ảnh hưởng tới quá trình thương mại hóa các sản phẩm công nghệ mới, trong khi AI đang được xem là động lực quan trọng thúc đẩy chuyển đổi số và tăng trưởng kinh tế.

Vì vậy, nhiều doanh nghiệp đề xuất nếu vẫn duy trì quy định gắn nhãn nội dung AI thì nghĩa vụ này nên được áp dụng có chọn lọc, chủ yếu đối với các hệ thống AI có nguy cơ gây nhầm lẫn nghiêm trọng hoặc có thể tác động trực tiếp tới sức khỏe, tính mạng con người, quốc phòng và an ninh quốc gia.

Cách tiếp cận này phù hợp với nguyên tắc quản lý dựa trên mức độ rủi ro đang được nhiều quốc gia và tổ chức quốc tế áp dụng trong quản trị công nghệ mới.

Tâp trung quản lý các hệ thống AI có nguy cơ cao

Bên cạnh vấn đề gắn nhãn nội dung AI, dự thảo danh mục các hệ thống AI rủi ro cao cũng là nội dung nhận được nhiều ý kiến góp ý từ các hiệp hội và doanh nghiệp.

Theo dự thảo Quyết định của Thủ tướng, danh mục hệ thống AI rủi ro cao được xây dựng trên cơ sở nhiều lĩnh vực như y tế và chăm sóc sức khỏe, tài chính - ngân hàng, tuyển dụng và quản lý nhân sự, giáo dục và đào tạo, giao thông vận tải, an ninh trật tự, tư pháp, hạ tầng kỹ thuật trọng yếu cũng như các hoạt động quản lý nhà nước và cung cấp dịch vụ công.

Tuy nhiên, theo một số hiệp hội ngành nghề, cách tiếp cận này có thể dẫn tới việc mở rộng phạm vi các hệ thống AI rủi ro cao sang nhiều lĩnh vực dân sự và thương mại, trong khi phần lớn các ứng dụng AI trong những lĩnh vực này chủ yếu phục vụ mục tiêu nâng cao năng suất lao động và tối ưu hóa quản trị.

Nếu toàn bộ các hệ thống AI trong các lĩnh vực như tài chính, nhân sự, giáo dục hay giao thông đều được xếp vào nhóm rủi ro cao, doanh nghiệp sẽ phải đáp ứng các yêu cầu tuân thủ nghiêm ngặt hơn về đánh giá rủi ro, kiểm định công nghệ và giám sát vận hành. Điều này không chỉ làm tăng chi phí gia nhập thị trường mà còn kéo dài thời gian đưa sản phẩm ra thị trường.

Theo nhiều ý kiến, danh mục hệ thống AI rủi ro cao nên được điều chỉnh theo hướng tập trung vào những lĩnh vực có khả năng tác động trực tiếp và nghiêm trọng tới sức khỏe, tính mạng con người hoặc liên quan đến quốc phòng, an ninh và trật tự an toàn xã hội.

Trong đó, lĩnh vực y tế được xem là một trong những lĩnh vực cần quản lý chặt chẽ nhất đối với AI. Các hệ thống AI phục vụ chẩn đoán bệnh, hỗ trợ quyết định lâm sàng hoặc vận hành thiết bị y tế có thể ảnh hưởng trực tiếp đến sức khỏe và tính mạng người bệnh, do đó cần được xếp vào nhóm rủi ro cao và chịu sự giám sát nghiêm ngặt.

Tương tự, các hệ thống AI được sử dụng trong thực thi pháp luật, hoạt động tố tụng hoặc hỗ trợ ra quyết định trong xét xử cũng cần được quản lý chặt chẽ vì có thể tác động trực tiếp đến quyền và lợi ích hợp pháp của công dân.

Ngược lại, với các ứng dụng AI trong các lĩnh vực thương mại, dịch vụ hoặc quản trị doanh nghiệp, nhiều ý kiến cho rằng không nên xếp toàn bộ vào nhóm rủi ro cao. Bởi những ứng dụng này chủ yếu nhằm hỗ trợ ra quyết định kinh doanh, nâng cao hiệu quả hoạt động và năng suất lao động.

Một vấn đề khác được doanh nghiệp quan tâm là nguy cơ phân tán nguồn lực giám sát nếu danh mục hệ thống AI rủi ro cao được mở rộng quá mức. Khi quá nhiều hệ thống được đưa vào diện kiểm soát chặt chẽ, cơ quan quản lý nhà nước có thể gặp khó khăn trong việc tập trung nguồn lực giám sát các hệ thống thực sự có nguy cơ cao đối với xã hội.

Trong khi đó, nếu nguồn lực quản lý được tập trung vào các lĩnh vực trọng yếu như y tế, quốc phòng, an ninh hoặc hạ tầng kỹ thuật quan trọng, hiệu quả quản lý sẽ được nâng cao và rủi ro xã hội có thể được kiểm soát tốt hơn.

Cân bằng giữa quản lý rủi ro và thúc đẩy đổi mới sáng tạo

Trong bối cảnh trí tuệ nhân tạo đang trở thành công nghệ nền tảng của nền kinh tế số, việc xây dựng khung pháp lý cho AI được xem là một trong những nhiệm vụ quan trọng của quá trình chuyển đổi số quốc gia.

Theo cộng đồng doanh nghiệp, khung pháp lý đối với AI cần bảo đảm nguyên tắc cân bằng giữa quản lý rủi ro và thúc đẩy đổi mới sáng tạo. Nếu quy định quá chặt chẽ ngay từ giai đoạn đầu, môi trường đổi mới sáng tạo có thể bị hạn chế và làm giảm sức cạnh tranh của doanh nghiệp công nghệ.

Ngược lại, nếu thiếu các cơ chế quản lý phù hợp, các hệ thống AI có thể gây ra những rủi ro về an ninh, quyền riêng tư, an toàn xã hội hoặc đạo đức công nghệ.

Do đó, nhiều chuyên gia cho rằng mô hình quản lý dựa trên đánh giá mức độ rủi ro là cách tiếp cận phù hợp trong giai đoạn hiện nay. Theo mô hình này, các hệ thống AI sẽ được phân loại theo các nhóm rủi ro khác nhau, từ rủi ro thấp đến rủi ro cao, và áp dụng các mức độ quản lý tương ứng.

Cách tiếp cận này đang được nhiều quốc gia áp dụng trong quá trình xây dựng chính sách quản trị trí tuệ nhân tạo. Nó cho phép cơ quan quản lý tập trung nguồn lực vào những lĩnh vực nhạy cảm, đồng thời tạo không gian thử nghiệm và phát triển cho các ứng dụng AI trong lĩnh vực thương mại, dịch vụ và sáng tạo nội dung.

Một khung pháp lý linh hoạt, phù hợp với thực tiễn phát triển công nghệ sẽ góp phần tạo môi trường thuận lợi để doanh nghiệp đầu tư, ứng dụng và thương mại hóa các sản phẩm AI. Qua đó thúc đẩy quá trình chuyển đổi số, nâng cao năng suất lao động và tăng cường năng lực cạnh tranh của nền kinh tế Việt Nam trong kỷ nguyên số.

Thu Uyên

Bình luận

Bầu cử trong kỷ nguyên số: Khi dữ liệu dân cư và định danh điện tử tham gia quản trị quốc gia

Bầu cử trong kỷ nguyên số: Khi dữ liệu dân cư và định danh điện tử tham gia quản trị quốc gia

Kỳ bầu cử đại biểu Quốc hội khóa XVI và đại biểu HĐND các cấp nhiệm kỳ 2026 - 2031 ghi nhận bước tiến rõ nét của chuyển đổi số trong quản trị nhà nước. Việc ứng dụng phần mềm quản lý thông tin bầu cử, vận hành website chuyên trách của Hội đồng Bầu cử Quốc gia và tích hợp tiện ích bầu cử trên ứng dụng VNeID cho thấy dữ liệu dân cư và định danh điện tử đang từng bước tham gia vào quy trình quản trị công ở quy mô toàn quốc.