AI và ranh giới pháp lý mới: Khi “lời nói dối” không đến từ con người

Khi công nghệ trí tuệ nhân tạo được trao quyền trả lời “như con người”, ranh giới giữa đúng sai trở nên mờ nhạt.

16:44, 14/11/2025

Một sáng tháng 6, công ty năng lượng mặt trời Wolf River Electric tại bang Minnesota (Mỹ) bất ngờ nhận thấy lượng khách hàng sụt giảm mạnh bất thường. Nguyên nhân khiến họ sửng sốt: khi tra cứu tên doanh nghiệp trên Google, phần “AI Overview” – tính năng do hệ thống AI của Google tổng hợp – lại hiển thị dòng thông tin cho rằng công ty này đang bị Tổng chưởng lý bang Minnesota kiện vì “lừa đảo khách hàng, che giấu phí và ép ký hợp đồng”. Tuy nhiên, trên thực tế, Wolf River chưa từng liên quan tới bất kỳ vụ kiện tụng nào.

á
 Wolf River khẳng định họ mất hợp đồng trị giá hàng trăm nghìn USD vì khách hàng tin vào thông tin sai lệch do AI tạo ra.

Thông tin sai lệch này đã gây thiệt hại nặng nề. Theo đơn kiện nộp tại tòa án liên bang Minnesota tháng 8/2025, Wolf River cho biết họ đã mất đi các hợp đồng trị giá hàng trăm nghìn USD do khách hàng tin vào thông tin sai do hệ thống AI tổng hợp. “Chúng tôi bị bôi nhọ trước hàng triệu người tìm kiếm”, luật sư đại diện công ty nói trên tờ Star Tribune. Vụ việc nhanh chóng thu hút sự chú ý trong giới pháp lý Mỹ, được xem là một trong những vụ kiện đầu tiên xem nội dung do trí tuệ nhân tạo tạo ra là hành vi “phỉ báng” – một khái niệm mới mẻ trong lịch sử tư pháp.

Trước đây, các vụ kiện phỉ báng thường liên quan đến con người – như nhà báo, tác giả hay tổ chức truyền thông – với điều kiện có phát ngôn sai, công khai và gây tổn hại danh tiếng, kèm yếu tố “ác ý” trong nhiều trường hợp. Nhưng AI lại không có “ý định” hay “ác ý”, mà chỉ vận hành dựa trên dữ liệu và xác suất. Trong sự cố của Wolf River, hệ thống AI tổng hợp thông tin từ bốn bài báo khác nhau rồi tự suy ra một kết luận sai – điều không ai trong số các tác giả từng viết.

Điều khiến vụ việc trở nên phức tạp là câu hỏi về trách nhiệm pháp lý: ai phải chịu trách nhiệm cho phát ngôn sai của một cỗ máy? Google cho rằng họ chỉ đóng vai trò cung cấp công cụ, không phải đơn vị “xuất bản” nội dung. Công ty có thể viện dẫn đạo luật Section 230 – quy định liên bang ban hành từ năm 1996 nhằm bảo vệ các nền tảng mạng và công ty công nghệ khỏi trách nhiệm liên quan đến nội dung do người dùng đăng tải. Tuy nhiên, nhiều chuyên gia cho rằng Section 230 chỉ phù hợp với thời kỳ Internet sơ khai, chưa tính tới công nghệ AI có khả năng tự tạo nội dung sai mà không có nguồn đầu vào trực tiếp từ con người.

“Nếu các tập đoàn công nghệ mãi ẩn sau tấm chắn pháp lý này, thì người chịu thiệt hại sẽ chẳng còn cách nào đòi công lý,” giáo sư luật William McGeveran (Đại học Minnesota) nhận định.

Wolf River không phải là trường hợp duy nhất. Trước đó, nhà hoạt động chính trị Robby Starbuck đã kiện Google vì AI Overview gán cho anh tội danh bịa đặt. Một số cá nhân khác cũng khởi kiện OpenAI vì ChatGPT “tự sáng tác” những cáo buộc không có thật. Tất cả phản ánh cùng một vấn đề: khi AI được lập trình để trả lời như con người, nó cũng có thể phạm sai lầm tương tự con người.

Theo các chuyên gia luật, việc xác định lỗi trong trường hợp AI gây sai lệch thông tin đang vướng ba trở ngại lớn. Thứ nhất, không thể xác định “ý định sai” vì AI không có nhận thức. Thứ hai, không có “người phát ngôn” cụ thể để quy trách nhiệm. Và thứ ba, mức độ lan truyền của thông tin sai quá lớn – chỉ một lỗi hiển thị cũng có thể ảnh hưởng đến hàng triệu người dùng trên toàn cầu.

Một số luật sư đề xuất nên xem các công ty vận hành mô hình AI như “nhà xuất bản kỹ thuật số”, buộc họ có trách nhiệm kiểm chứng và cảnh báo rủi ro với người sử dụng – tương tự cách cơ quan báo chí chịu trách nhiệm về bài viết của mình. Song, cách tiếp cận này có thể khiến chi phí kiểm duyệt và xác minh khổng lồ, làm giảm khả năng mở rộng công nghệ. Trong khi đó, nếu hoàn toàn miễn trừ, quyền lợi của nạn nhân sẽ bị bỏ ngỏ, như trường hợp Wolf River.

Nhiều ý kiến cho rằng các vụ kiện hiện nay, điển hình là của Wolf River, sẽ trở thành phép thử pháp lý đầu tiên trong việc xác định ranh giới trách nhiệm của AI. Nếu tòa án phán rằng Google có thể bị xem là “nhà xuất bản” khi AI Overview hiển thị thông tin sai, đây sẽ là cú chấn động với toàn ngành công nghệ. Khi ấy, các nền tảng AI như ChatGPT hay công cụ tìm kiếm thông minh sẽ buộc phải xây dựng cơ chế kiểm chứng nội dung chặt chẽ hơn, thậm chí cân nhắc mua bảo hiểm pháp lý cho các “phát ngôn” của máy. Ngược lại, nếu Google tiếp tục được bảo vệ dưới Section 230, người bị thiệt hại vẫn sẽ mòn mỏi tìm công lý trong khoảng trống pháp lý.

Ngoài khía cạnh pháp lý, vụ việc còn đặt ra vấn đề đạo đức trong phát triển công nghệ. Cuộc chạy đua thương mại hóa sản phẩm AI – từ chatbot, công cụ tìm kiếm đến các trình duyệt thông minh – đang diễn ra gấp gáp, trong khi thiếu những cơ chế minh bạch giúp người dùng phân biệt đâu là dữ liệu tổng hợp, đâu là suy luận. Điều này có thể làm xói mòn niềm tin xã hội, khi người dùng dễ nhầm tưởng các câu trả lời của AI là sự thật – chỉ vì chúng được trình bày một cách tự tin và ngắn gọn đến hoàn hảo.

Đình Hiếu

Bình luận