![]() |
| Ảnh minh họa. |
Theo các chuyên gia công nghệ, nguyên nhân của tình trạng này nằm ở khái niệm kỹ thuật có tên là “cửa sổ ngữ cảnh” (context window). Đây chính là “bộ nhớ ngắn hạn” của các mô hình trí tuệ nhân tạo, đóng vai trò then chốt nhưng thường bị hiểu lầm.
YouTuber kiêm nhà nghiên cứu AI Matt Pocock giải thích, mỗi khi AI nhận câu hỏi và phản hồi, toàn bộ nội dung hội thoại sẽ được chia thành các đơn vị nhỏ gọi là token, đại diện cho một vài ký tự hoặc phần của từ. Tổng số token dùng trong đối thoại chính là ngữ cảnh mà mô hình có thể tiếp cận tại mỗi thời điểm.
Nếu một mô hình AI sở hữu cửa sổ ngữ cảnh 200.000 token, nó chỉ có thể “ghi nhớ” đúng chừng ấy thông tin. Khi vượt qua ngưỡng này, các dữ liệu cũ hơn sẽ bị đẩy ra ngoài, dẫn đến tình trạng nội dung đầu cuộc trò chuyện dần biến mất khỏi trí nhớ AI. Chẳng hạn, Claude 4.5 có thể lưu giữ tối đa 200.000 token, Gemini 2.5 Pro “nhìn” được tới 2 triệu token, trong khi những mô hình nhỏ như LLaMA hoặc Mistral chỉ hỗ trợ từ vài nghìn token.
Việc mở rộng bộ nhớ cho AI không phải lúc nào cũng khả thi, vì mỗi token thêm vào đều đòi hỏi thêm tài nguyên tính toán, khiến chi phí vận hành tăng cao. Mặt khác, khi ngữ cảnh quá lớn, AI lại khó xác định đúng thông tin trọng tâm, tương tự việc tìm kim dưới đáy biển. Bản thân cấu trúc kỹ thuật của từng mô hình cũng giới hạn khả năng mở rộng bộ nhớ một cách vô hạn mà không đánh đổi hiệu năng xử lý.
Đáng chú ý, AI không chỉ dễ “quên” phần đầu mà còn có xu hướng bỏ sót thông tin ở giữa đoạn hội thoại, hiện tượng nhà nghiên cứu Pocock gọi là “lạc giữa chừng” (midpoint forgetting). Thông thường, mô hình tập trung nhiều nhất vào những tin nhắn vừa xảy ra hoặc phần đầu cuộc trò chuyện, còn các đoạn giữa bị giảm ưu tiên chú ý nên dễ lọt khỏi “tầm ngắm” của AI — tương tự cách bộ nhớ con người vận hành.
Không ít lập trình viên gặp khó khi nhờ AI hỗ trợ sửa code ở các đoạn bị đặt xa đầu hoặc cuối văn bản: mô hình có thể không còn ghi nhận đúng vị trí cần sửa, làm giảm hiệu quả xử lý.
Ngay cả những công cụ AI lập trình như Claude Code hay GitHub Copilot cũng không nằm ngoài quy tắc này. Khi dự án kéo dài hoặc đoạn mã quá lớn, AI dễ quên các chỉ dẫn trước, phản hồi sai hoặc bỏ sót thông tin. Vì thế, người dùng chuyên nghiệp thường phải chia nhỏ quá trình làm việc, tóm tắt từng bước hoặc khởi động lại phiên mới giúp AI duy trì sự tập trung.
Tóm lại, việc các chatbot AI “quên” thông tin không phải do lỗi hệ thống mà do giới hạn công nghệ hiện tại. Trong tương lai, khi các nhà phát triển tiếp tục mở rộng cửa sổ ngữ cảnh và tinh chỉnh khả năng ghi nhớ, những mô hình trí tuệ nhân tạo có thể tiến gần hơn đến khả năng ghi nhớ liên tục và sâu sắc như con người.
Đình Hiếu












Bình luận