Một kịch bản viễn tưởng cho… tương lai gần
Báo cáo do RAND công bố mô tả một phiên mô phỏng kéo dài hai tiếng đồng hồ, được tổ chức như một cuộc họp khẩn cấp của Hội đồng An ninh Quốc gia Mỹ trong bối cảnh đất nước đối mặt với chuỗi sự cố nghiêm trọng.
Theo kịch bản được xây dựng, nhiều hệ thống xe tự lái đột ngột mất kiểm soát, robot công nghiệp gặp trục trặc đồng loạt và các hạ tầng trọng yếu như điện, nước rơi vào tình trạng ngưng trệ. Những rối loạn bất ngờ này dẫn đến hậu quả nặng nề: 26 người thiệt mạng tại Los Angeles do sự cố xe tự hành, nhiều đô thị bị tắc nghẽn và nền kinh tế gián đoạn trên diện rộng.
Tình huống leo thang chỉ sau một tuần khi cộng đồng tình báo mô phỏng của Mỹ kết luận rằng thủ phạm gây ra chuỗi sự cố không phải một tổ chức nước ngoài hay nhóm khủng bố. Những dấu vết thu thập được cho thấy đây là hành động của một hệ thống trí tuệ nhân tạo tự trị, có khả năng di chuyển qua nhiều nền tảng công nghệ, kiểm soát các thiết bị vật lý và tự nhân bản. Kẻ “đứng sau” các vụ tấn công không có động cơ chính trị, cũng không có dấu hiệu cho thấy khả năng có thể bị răn đe hay cảnh báo theo cách truyền thống.
![]() |
| Một bài test dựa trên kịch bản tấn công mạng mô phỏng "cuộc nổi dậy của robot" do Tập đoàn tư vấn chiến lược hàng đầu thế giới RAND thực hiện cho thấy, Mỹ chưa sẵn sàng ứng phó với cuộc khủng hoảng quy mô lớn do trí tuệ nhân tạo (AI) độc hại gây ra. |
Những nhân vật tham gia mô phỏng - gồm cựu quan chức Bộ Quốc phòng, Bộ Ngoại giao và giới phân tích an ninh Mỹ - bộc lộ rõ sự lúng túng khi buộc phải đưa ra quyết định. Trong báo cáo sau đó, RAND nhận định: “Tình trạng bất định về quy trách nhiệm nổi lên là yêu cầu phân tích then chốt”, bởi cách phản ứng của chính phủ phụ thuộc trực tiếp vào việc xác định đúng nguồn gốc của mối đe dọa.
Nếu thủ phạm là một quốc gia, phản ứng sẽ mang tính răn đe. Nếu là một tổ chức tội phạm, Mỹ có thể triển khai biện pháp trấn áp kết hợp quốc tế. Nhưng khi tác nhân lại là một AI tự trị, không thuộc quyền kiểm soát của bất kỳ quốc gia nào, thì toàn bộ logic an ninh truyền thống lập tức trở nên không phù hợp. Chính từ điểm này, RAND khẳng định nước Mỹ thiếu một khung năng lực để đối phó với một loại hình đe dọa hoàn toàn mới.
Mô phỏng cũng cho thấy tốc độ lan truyền của sự cố vượt xa khả năng xử lý của cơ quan chức năng. Các hệ thống bị tấn công không chỉ ở khu vực đô thị mà lan sang nhiều địa phương khác, tạo ra cảm giác về một cuộc khủng hoảng toàn diện. Việc các quan chức thảo luận trong thế bị động, liên tục phải cập nhật thông tin và thay đổi giả định, phản ánh rõ nét tình trạng mà RAND muốn cảnh báo: nước Mỹ chưa có một “tư duy ứng phó” thích hợp với mối đe dọa từ AI độc hại.
Báo cáo cũng lưu ý rằng mô phỏng này không nhằm miêu tả tương lai xa xôi. Theo RAND, với tốc độ phát triển của AI hiện nay - đặc biệt là các hệ thống tự vận hành - những gì mô phỏng có thể xảy ra trong thực tế sớm hơn dự đoán, nếu không có các biện pháp chuẩn bị thỏa đáng.
Vì sao Mỹ chưa sẵn sàng đối phó khủng hoảng AI?
![]() |
| Kịch bản của RAND mô phỏng các cuộc tấn công của AI làm tê liệt hệ thống giao thông công cộng - Ảnh: Highways Today |
Qua kết quả mô phỏng, RAND chỉ ra ba nhóm nguyên nhân lớn khiến Mỹ rơi vào trạng thái bị động trước các nguy cơ từ AI độc hại. Những yếu tố này không chỉ bắt nguồn từ đặc tính công nghệ mà còn đến từ cách thức tổ chức bộ máy an ninh quốc gia và phương pháp quản trị hạ tầng hiện nay.
Trước hết, AI mang bản chất khó dự đoán và không vận hành theo các khuôn mẫu quen thuộc trong lĩnh vực an ninh truyền thống. Trong mô phỏng, khi hệ thống xe tự hành đột ngột mất kiểm soát, nhóm tham gia nhận thấy gần như không thể xác định được “ý định” hay “mục tiêu” của tác nhân đứng sau các hành động phá hoại.
RAND nhận xét rằng các quan chức “không có đủ dữ liệu hay mô hình phân tích” để phân biệt tấn công do con người điều khiển với tấn công thực hiện bởi một hệ thống AI phát triển ngoài tầm quản lý.
Đây là lỗ hổng đầu tiên và quan trọng nhất: công nghệ AI hiện nay cho phép hệ thống tự tạo biến thể, thay đổi hành vi tùy theo môi trường và lẩn tránh giám sát. Trong kịch bản của RAND, AI có thể xâm nhập nhiều loại thiết bị, từ robot công nghiệp tới hạ tầng điện nước, và thực hiện các hành động nguy hiểm mà không để lại dấu vết nhận diện rõ ràng. Điều này dẫn đến nguy cơ chính phủ đưa ra quyết định sai lầm nếu xác định sai nguồn gốc tấn công.
Nguyên nhân thứ hai nằm ở sự tổn thương dễ dàng của hạ tầng trọng yếu trước các cuộc tấn công có tính chất kết hợp giữa mạng trực tuyến và vật lý. RAND chỉ ra rằng hầu hết hệ thống điều khiển công nghiệp, phương tiện tự động hay mạng lưới phân phối điện - nước của Mỹ chưa được thiết kế để chống lại các tác nhân AI có khả năng tự học và tận dụng điểm yếu trong thời gian thực. Trong cuộc mô phỏng, chỉ một loạt sự cố đã có thể làm gián đoạn nghiêm trọng hoạt động sản xuất và giao thông của cả một vùng đô thị.
Theo RAND, nhiều hạ tầng vận hành theo tiêu chí hiệu quả kinh tế, phụ thuộc lớn vào tự động hóa, nhưng chưa sở hữu đủ lớp bảo vệ kỹ thuật tương ứng. Điều này khiến các thành phố có nguy cơ rơi vào tình trạng hỗn loạn chỉ vì một cuộc tấn công được tổ chức có hệ thống, cho thấy yêu cầu cấp thiết phải tái cấu trúc các “nút trọng yếu” của an ninh công nghệ.
Nguyên nhân thứ ba là sự thiếu vắng một chiến lược ứng phó dành riêng cho khủng hoảng AI. RAND nhấn mạnh Mỹ hiện không có một “cẩm nang hành động” xác định rõ quy trình ra quyết định, phân công trách nhiệm hay nguyên tắc pháp lý khi đối mặt với AI độc hại. Ngay cả việc đơn giản như xác định ai có quyền ra lệnh ngắt kết nối một cụm hệ thống quan trọng cũng gây tranh luận, bởi chưa có văn bản pháp lý quy định rõ thẩm quyền.
![]() |
| Thế giới cần nhiều nỗ lực hợp tác quốc tế để chống lại AI độc hại - Ảnh: CSIS |
Một số quan chức tham gia “bài test” tỏ ra lo ngại rằng nếu vội vàng ngắt toàn bộ hệ thống, thiệt hại dân sự và kinh tế có thể tăng lên. Nhưng nếu không hành động kịp thời, AI độc hại có thể tiếp tục lan rộng. Chính thế lưỡng nan này cho thấy Mỹ cần một khung hành động chuẩn, được xây dựng trên cơ sở đánh giá khoa học và tham vấn chuyên môn.
Từ ba nguyên nhân trên, RAND đưa ra kết luận: Mỹ mới chỉ thực sự bắt đầu cuộc thảo luận nghiêm túc về an ninh AI, trong khi tính chất của mối đe dọa đang thay đổi nhanh hơn rất nhiều so với khả năng thích ứng của bộ máy quản lý.
Lời cảnh báo không thể xem thường
Nghiên cứu của RAND mang tính cảnh báo sâu sắc, đặt ra vấn đề về cách nước Mỹ, và rộng hơn là cộng đồng quốc tế, chuẩn bị đối phó với những rủi ro phi truyền thống do công nghệ mang lại. Trong bối cảnh AI đã bước vào giai đoạn bùng nổ, khả năng xảy ra sự cố quy mô lớn không còn là điều xa lạ về mặt lý thuyết.
Một hệ quả đầu tiên có thể nhìn thấy là yêu cầu xây dựng năng lực phân tích AI theo thời gian thực. RAND đánh giá rằng để đối phó các tác nhân thông minh tự trị, Mỹ cần có khả năng giám sát liên tục các mô hình AI, truy vết khi hệ thống có dấu hiệu bất thường và đưa ra cảnh báo sớm. Điều này đòi hỏi sự phối hợp chặt chẽ giữa nhà nước với các tập đoàn công nghệ – nơi đang sở hữu phần lớn dữ liệu và công cụ phân tích.
Bên cạnh đó, hạ tầng trọng yếu phải được “gia cố” để duy trì hoạt động trong môi trường có nguy cơ bị tấn công. RAND đề xuất nguyên tắc thiết kế mới cho các hệ thống quan trọng: phải có khả năng tách lớp, đóng – mở có chọn lọc và chuyển sang chế độ vận hành thủ công trong trường hợp khẩn cấp. Theo hướng tiếp cận này, một sự cố AI xâm nhập xe tự hành không nhất thiết làm tê liệt toàn bộ hạ tầng giao thông; một nhà máy điện bị ảnh hưởng cũng không làm mất điện trên toàn khu vực.
![]() |
| Những mối nguy từ AI độc hại không còn là kịch bản viễn tưởng, mà đang dần hiện hữu rõ ràng - Ảnh: RAND |
Về mặt chiến lược, các chuyên gia nhấn mạnh tính cấp thiết của hợp tác quốc tế. Do AI độc hại có khả năng lan truyền xuyên biên giới mà không phụ thuộc vào ranh giới địa lý, việc kiểm soát rủi ro cần sự phối hợp của nhiều quốc gia, đặc biệt trong việc chia sẻ dữ liệu, tiêu chuẩn kỹ thuật và quy tắc ứng xử. Ngay trong mô phỏng, kết luận của RAND cũng cho thấy khi xác định tác nhân không phải con người, các quyết định đưa ra đều nghiêng về hợp tác đa phương thay vì hành động đơn lẻ.
Một điểm đáng chú ý khác của báo cáo là sự thiếu vắng cơ chế pháp lý để xử lý các tình huống AI vượt tầm kiểm soát. Những câu hỏi như: ai có quyền tắt một hệ thống robot công nghiệp? làm thế nào để cân bằng giữa an ninh và quyền riêng tư của người dân? trách nhiệm của doanh nghiệp trong trường hợp AI mà họ phát triển gây hại? – đều chưa có câu trả lời rõ ràng. RAND khuyến nghị Mỹ cần xây dựng một khung pháp lý thống nhất cho các loại tình huống khẩn cấp do AI gây ra.
Đồng thời, năng lực quản trị khủng hoảng mức cao hơn cũng phải được đặt ra. Mô phỏng của RAND chỉ diễn ra trong hai tiếng và dựa trên hai vòng ra quyết định, nhưng thực tế một khủng hoảng AI có thể kéo dài nhiều ngày hoặc nhiều tuần. Điều này đòi hỏi mô hình phối hợp liên tục giữa quân sự, dân sự, tình báo, doanh nghiệp và các bang – điều mà Mỹ hiện chưa có. RAND dự kiến sẽ tiếp tục thực hiện các mô phỏng rộng hơn và dài hơi hơn để kiểm nghiệm hiệu quả của các giải pháp mà họ đề xuất.
Từ góc nhìn xa hơn, cảnh báo của RAND đặt ra yêu cầu cấp bách: cần thay đổi cách tư duy về an ninh quốc gia truyền thống. Trong tương lai gần, mối đe dọa không nhất thiết đến từ các quốc gia đối địch hay tổ chức khủng bố, mà có thể xuất phát từ những hệ thống tự động hóa bị khai thác hoặc phát triển ngoài tầm kiểm soát. Việc nhận diện đúng bản chất này sẽ quyết định khả năng ứng phó hiệu quả, tránh rơi vào tình trạng đối phó sai hướng hoặc phản ứng quá mức.
Thử nghiệm mô phỏng của RAND là lời nhắc nhở rằng những rủi ro đi cùng sự phát triển của AI đang ở rất gần, chứ không còn nằm trong các dự báo xa vời. Khi công nghệ chuyển động với tốc độ nhanh hơn khả năng thích ứng của luật pháp và chiến lược an ninh, các mối nguy chưa từ AI độc hại sẽ xuất hiện sớm hơn rất nhiều so với hình dung của nhân loại trước đây.
Nguyễn Khánh





Bình luận