![]() |
SpikingBrain 1.0 chỉ đánh thức những neuron cần thiết, giúp tiết kiệm năng lượng và tăng tốc độ phản hồi |
Khác với các công cụ AI phổ biến như ChatGPT thường kích hoạt toàn bộ mạng lưới khi xử lý dữ liệu, SpikingBrain 1.0 chỉ đánh thức những neuron cần thiết, giúp tiết kiệm năng lượng và tăng tốc độ phản hồi. Nhờ cơ chế này, SpikingBrain 1.0 có thể học từ lượng dữ liệu huấn luyện ít hơn 2% so với các mô hình truyền thống mà vẫn duy trì hiệu suất cao, đặc biệt trong các tác vụ xử lý văn bản dài.
Theo báo cáo kỹ thuật được đăng tải trên kho nghiên cứu mở arXiv, trong một số thử nghiệm, SpikingBrain 1.0 chạy nhanh hơn tới 100 lần so với mô hình chuẩn phổ biến. Hệ thống này vận hành hoàn toàn trên nền tảng chip MetaX nội địa, thay vì GPU Nvidia - vốn đang bị Mỹ kiểm soát chặt xuất khẩu, giúp Trung Quốc giảm phụ thuộc công nghệ Mỹ.
Trưởng nhóm nghiên cứu Li Guoqi cho biết SpikingBrain 1.0 mở ra hướng đi mới cho AI với sự tối ưu hóa vận hành trên chip nội địa. Công nghệ này đặc biệt hữu ích trong xử lý dữ liệu lớn liên tục như hồ sơ y tế, văn bản pháp lý hay mô phỏng khoa học.
Dù chỉ sử dụng khoảng 150 tỷ token dữ liệu – một phần nhỏ so với mô hình truyền thống - SpikingBrain vẫn đạt hiệu suất tương đương các hệ thống nguồn mở phổ biến. Mô hình còn thể hiện khả năng vượt trội khi xử lý văn bản dài, phản hồi đoạn văn lên tới 4 triệu token nhanh hơn 100 lần so với mô hình tiêu chuẩn, và ổn định nhiều tuần trên hàng trăm chip MetaX với tiêu thụ năng lượng thấp.
Nhóm nghiên cứu nhấn mạnh: “Kết quả này không chỉ chứng minh khả năng huấn luyện mô hình lớn hiệu quả trên nền tảng phi Nvidia, mà còn mở ra triển vọng ứng dụng AI lấy cảm hứng từ cấu trúc não bộ”.
Sự kiện này đánh dấu bước tiến quan trọng trong tham vọng phát triển AI của Trung Quốc, góp phần giảm bớt sự phụ thuộc vào công nghệ ngoại quốc và nâng cao năng lực cạnh tranh trong cuộc đua AI toàn cầu.
Khôi Nguyên
Bình luận