Tranh chấp AI tại Mỹ châm ngòi tranh luận về an ninh công nghệ

Câu chuyện của Anthropic là một ví dụ điển hình cho thách thức toàn cầu: làm thế nào để phát triển AI mạnh mẽ nhưng vẫn đảm bảo các giới hạn an toàn, đạo đức và chủ quyền số trong một thế giới ngày càng phụ thuộc vào công nghệ.

14:19, 18/03/2026

AI Claude và nguồn gốc xung đột

Công ty trí tuệ nhân tạo Anthropic đã khởi kiện chính quyền của Tổng thống Donald Trump, sau khi Lầu Năm Góc xếp doanh nghiệp này vào diện “rủi ro chuỗi cung ứng”. Trước đó, Tổng thống Donald Trump đã đăng thông điệp yêu cầu toàn bộ cơ quan chính phủ Mỹ ngừng sử dụng hệ thống Claude.

Được biết, hệ thống Claude là một mô hình AI thế hệ mới, cạnh tranh trực tiếp với ChatGPT và Gemini. Điểm khác biệt của Claude so với các mô hình khác nằm ở định hướng phát triển “AI an toàn” (AI safety), với các giới hạn nghiêm ngặt nhằm ngăn chặn việc lạm dụng công nghệ. Giữ vững lập trường này, Anthropic cho biết họ không phủ nhận hợp tác an ninh quốc gia, nhưng phản đối việc sử dụng Claude cho các mục đích như giám sát trong nước và vũ khí hoá AI. Ngược lại, các cơ quan quốc phòng Mỹ yêu cầu công nghệ có thể được sử dụng linh hoạt cho nhiều mục đích, bao gồm cả hoạt động quân sự và tình báo. Sự khác biệt về quan điểm này được cho là một trong những nguyên nhân chính dẫn đến tranh chấp giữa Anthropic và chính quyền Mỹ.

Ảnh minh hoạ

Ảnh minh hoạ

Diễn biến vụ kiện và tính chất chưa có tiền lệ

Trong đơn kiện đệ trình ngày 16/3, Anthropic cho rằng việc Lầu Năm Góc xếp công ty vào diện “rủi ro chuỗi cung ứng” đã vi phạm quyền tự do ngôn luận, quyền được xét xử công bằng, đồng thời mang tính trừng phạt đối với lập trường của doanh nghiệp về an toàn AI trong chiến tranh. Công ty lập luận rằng việc này thiếu cơ sở pháp lý rõ ràng, đặc biệt khi liên quan đến lập trường đạo đức công nghệ. Trong khi đó, Bộ trưởng Quốc phòng Pete Hegseth đưa ra quan điểm rằng các nhà cung cấp phải chấp nhận mọi mục đích sử dụng hợp pháp nếu muốn tham gia vào hệ thống an ninh quốc gia.

Đáng chú ý, Anthropic trước đây từng là một trong số ít doanh nghiệp được phép cung cấp mô hình AI cho một số hệ thống quân sự mật của Mỹ. Việc bị gắn nhãn “rủi ro chuỗi cung ứng” khiến Anthropic bị loại khỏi các hợp đồng quốc phòng - một cơ chế vốn được thiết kế để ngăn chặn các đối thủ nước ngoài gây tổn hại tới hệ thống an ninh quốc gia. Đây được xem là trường hợp hiếm hoi chính phủ liên bang áp dụng chỉ định này đối với một công ty nội địa. Trước đây, chính phủ Mỹ từng áp đặt hạn chế với các công ty công nghệ vì lý do an ninh, tiêu biểu là trường hợp của Huawei hay TikTok. Tuy nhiên, khác với các trường hợp liên quan đến yếu tố nước ngoài và kiểm soát dữ liệu, tranh chấp lần này xoay quanh lập trường đạo đức trong phát triển và sử dụng AI.

Cuộc đua AI trong lĩnh vực quốc phòng

Vụ việc diễn ra trong bối cảnh cạnh tranh AI ngày càng gay gắt. Trong khi Anthropic giữ lập trường thận trọng, đối thủ OpenAI - đơn vị phát triển ChatGPT - được cho là đã có những bước tiến trong hợp tác với Bộ Quốc phòng Mỹ. Hành động này phản ánh sự khác biệt trong cách tiếp cận giữa các công ty công nghệ: một bên ưu tiên kiểm soát rủi ro và yếu tố đạo đức, trong khi bên còn lại linh hoạt hơn trong việc mở rộng ứng dụng, bao gồm cả trong lĩnh vực quân sự.

Theo hãng tin Reuters, Lầu Năm Góc cho biết có thể cân nhắc chuyển hướng sang sử dụng các hệ thống khác như ChatGPT, Gemini hoặc Grok. Điều này cho thấy AI đang trở thành yếu tố then chốt trong chiến lược quân sự và an ninh quốc gia.

Việt Nam và bài toán kiểm soát công nghệ

Những diễn biến trên cho thấy, vấn đề quản lý và kiểm soát AI không còn là câu chuyện riêng của các cường quốc công nghệ, mà trở thành mối quan tâm chung của nhiều quốc gia, trong đó có Việt Nam. Tại Việt Nam, chưa có trường hợp cấm trực tiếp chatbot AI trong hệ thống nhà nước, nhưng đã từng có các đợt rà soát, hạn chế nền tảng như TikTok vì lo ngại về nội dung và dữ liệu. Những động thái này cho thấy Việt Nam cũng đang tiếp cận theo hướng thận trọng, đặc biệt với các nền tảng có khả năng ảnh hưởng lớn đến thông tin và xã hội.

Về mặt pháp lý, Việt Nam đang từng bước siết chặt quản lý công nghệ thông qua các khung pháp luật mới, như Luật An ninh mạng 2025 (hiệu lực từ 1/7/2026) và Luật Bảo vệ dữ liệu cá nhân 2025 (hiệu lực từ 1/1/2026). Các quy định này tập trung vào việc kiểm soát hoạt động thu thập, xử lý và lưu trữ dữ liệu người dùng, qua đó thể hiện cách tiếp cận chủ động của Việt Nam: vừa thúc đẩy phát triển công nghệ, vừa chú trọng kiểm soát rủi ro.       

Điều này cho thấy Việt Nam đang tiếp cận theo hướng chủ động kiểm soát rủi ro công nghệ, thay vì để thị trường tự điều tiết hoàn toàn. Trong bối cảnh AI ngày càng được ứng dụng sâu vào quốc phòng, dữ liệu và hạ tầng số, câu chuyện của Anthropic vì vậy không chỉ là một tranh chấp riêng tại Mỹ, mà còn là ví dụ điển hình cho bài toán mà nhiều quốc gia - trong đó có Việt Nam - đang phải đối mặt: phát triển AI mạnh mẽ nhưng vẫn đảm bảo các giới hạn an toàn và chủ quyền số.

Song song với việc thúc đẩy ứng dụng công nghệ, nhiều ý kiến cho rằng cần xây dựng khung pháp lý và chuẩn mực đạo đức rõ ràng nhằm bảo đảm AI phục vụ mục tiêu an ninh, đồng thời tôn trọng quyền riêng tư và các giá trị xã hội.

Vụ kiện của Anthropic vì vậy không chỉ là một tranh chấp pháp lý giữa doanh nghiệp và chính phủ, mà còn phản ánh xu hướng cạnh tranh và định hình cách thức sử dụng AI trong an ninh quốc gia trên phạm vi toàn cầu. 

                                                                                                                                              Thuý Hằng

Bình luận