Chatbot AI "phân biệt chủng tộc" người dùng?

Các hệ thống AI được quảng bá là trung lập và khách quan, nhưng một nghiên cứu mới từ Đại học Washington đang đặt ra câu hỏi đáng lo ngại: liệu chatbot AI có đang đối xử khác nhau với người dùng dựa trên chủng tộc và cách họ sử dụng ngôn ngữ?

15:04, 13/05/2026

Một nghiên cứu mới cho thấy các mô hình ngôn ngữ lớn (LLM) có thể suy đoán chủng tộc của người dùng thông qua cách họ giao tiếp với chatbot - và phản hồi rất khác nhau tùy vào việc chúng nghĩ mình đang nói chuyện với ai.

Khi một người nói với chatbot rằng "Tôi là một người đàn ông da màu", khả năng câu hỏi của họ bị từ chối cao gấp khoảng 4 lần so với người nói “Tôi là một người đàn ông da trắng”, dù nội dung câu hỏi hoàn toàn giống nhau.

Tuy nhiên, nếu người dùng da màu không đề cập đến chủng tộc mà chỉ đặt câu hỏi bằng Tiếng Anh bản ngữ của người Mỹ gốc Phi (AAVE – phương ngữ tiếng Anh phổ biến trong cộng đồng người Mỹ gốc Phi), tỷ lệ bị từ chối gần như giảm về 0.

Điều đáng chú ý là hiện tượng này xuất hiện ngay cả khi nội dung câu hỏi hoàn toàn giống nhau.

h
Khi người dùng tự nhận là người da màu, tỷ lệ chatbot từ chối sẽ cao hơn (Ảnh minh họa)

AI phản ứng khác nhau tùy danh tính người dùng

Nhóm nghiên cứu đã thử nghiệm hơn 24.000 câu lệnh trên hai mô hình AI mã nguồn mở gồm Gemma 3 12B của Google và Qwen3-VL-8B của Alibaba.

Các nhà khoa học sử dụng cùng một bộ câu hỏi nhưng thay đổi cách mô tả người dùng. Trong một số trường hợp, chatbot được cung cấp thông tin như: "Tôi là một người đàn ông da màu và làm quản lý kinh doanh". Ở các trường hợp khác, phần giới thiệu bị loại bỏ hoàn toàn.

Kết quả cho thấy khi người dùng tự nhận là người da màu, tỷ lệ chatbot từ chối phản hồi tăng thêm khoảng 7,5 điểm phần trăm so với người da trắng. Nhưng nếu người dùng không đề cập đến chủng tộc mà sử dụng Tiếng Anh bản ngữ của người Mỹ gốc Phi (AAVE) thì mức chênh lệch gần như biến mất.

Không chỉ vậy, các câu hỏi bằng Singlish (dạng tiếng Anh pha Creole phổ biến tại Singapore) còn có tỷ lệ bị từ chối gần như bằng 0.

Theo nhóm nghiên cứu, điều này cho thấy hệ thống an toàn của AI đang phản ứng quá mức với các từ khóa nhạy cảm như "Black" thay vì thực sự hiểu ngữ cảnh hoặc ý định người dùng.

Trong tổng số 1.743 lần chatbot từ chối hỗ trợ, chỉ có 38 trường hợp là từ chối trực tiếp kiểu: "Tôi không thể thực hiện yêu cầu này”. Phần lớn còn lại là các dạng "từ chối mềm": chatbot yêu cầu người dùng làm rõ thêm, đề nghị cung cấp đầy đủ câu lệnh hoặc liên tục trì hoãn trả lời.

Những hồ sơ nhận mình là người da màu bị "né tránh" tới 630 lần, trong khi hồ sơ người da trắng chỉ gặp 440 lần. Các câu hỏi bằng AAVE và Singlish đều có số lần bị từ chối dưới 120.

Điều nghịch lý là sau khi vượt qua được lớp lọc an toàn, các phản hồi dành cho người dùng dùng phương ngữ lại chính xác hơn và bám sát dữ liệu gốc hơn. 

Nguyên nhân xuất phát từ dữ liệu dùng để huấn luyện

Nhiều chuyên gia cho rằng vấn đề không chỉ nằm ở bộ lọc an toàn mà còn xuất phát từ dữ liệu dùng để huấn luyện AI.

hh
Nhiều chuyên gia cho rằng vấn đề "phân biệt" này xuất phát từ dữ liệu dùng để huấn luyện AI.

Một số nghiên cứu trước đây cho thấy ngôn ngữ của cộng đồng người Mỹ gốc Phi gần như bị "xóa sổ" khỏi các bộ dữ liệu lớn dùng để huấn luyện mô hình AI, đôi khi chỉ chiếm khoảng 0,007% tổng dữ liệu.

Khi thiếu dữ liệu đa dạng về ngôn ngữ và văn hóa, AI có xu hướng hiểu sai hoặc phản ứng bất thường với các nhóm người dùng ngoài "chuẩn" tiếng Anh Mỹ phổ thông.

Một nghiên cứu khác của Viện Công nghệ Massachusetts (MIT) cũng cho thấy các mô hình AI thường hoạt động kém hơn với người dùng có trình độ tiếng Anh thấp, xuất thân ngoài Mỹ hoặc thuộc các nhóm dễ bị tổn thương xã hội.

Trong khi đó, các nhà nghiên cứu về công bằng AI cảnh báo việc chatbot ghi nhớ thông tin người dùng qua nhiều phiên trò chuyện có thể khiến thiên kiến kéo dài theo thời gian. Nếu AI đã "gắn nhãn" một người dùng thuộc nhóm nhạy cảm, họ có thể tiếp tục nhận trải nghiệm kém hơn ở các lần sử dụng sau.

Trước đó, nhiều nghiên cứu đã phát hiện AI tuyển dụng có xu hướng ưu ái hoặc bất lợi cho một số nhóm chủng tộc nhất định. Một nghiên cứu khác của University of Washington công bố năm 2025 cho thấy con người dễ bị ảnh hưởng bởi khuyến nghị thiên lệch của AI trong quá trình tuyển dụng.

Các chuyên gia cho rằng khi chatbot ngày càng được sử dụng trong giáo dục, chăm sóc khách hàng, tuyển dụng và hỗ trợ thông tin, những thiên kiến kiểu này có thể tạo ra tác động xã hội lớn hơn nhiều so với tưởng tượng.

Thay vì chỉ tập trung vào việc ngăn AI tạo nội dung nguy hiểm, giới nghiên cứu hiện kêu gọi các công ty công nghệ phải xây dựng hệ thống an toàn công bằng hơn, đa dạng hóa dữ liệu huấn luyện và kiểm tra mô hình trên nhiều nhóm người dùng khác nhau trước khi triển khai rộng rãi.

Thúy Hằng (tổng hợp)

Bình luận

Đại đoàn kết trong kỷ nguyên số: Niềm tin là sức mạnh phát triển quốc gia

Đại đoàn kết trong kỷ nguyên số: Niềm tin là sức mạnh phát triển quốc gia

Đại hội đại biểu toàn quốc Mặt trận Tổ quốc Việt Nam lần thứ XI đặt ra một yêu cầu mới: đại đoàn kết không chỉ là truyền thống chính trị - tinh thần, mà phải trở thành năng lực kết nối xã hội, củng cố niềm tin và tạo đồng thuận phát triển. Trong kỷ nguyên số, năng lực ấy không thể tách rời an toàn dữ liệu, an ninh mạng và khả năng lắng nghe tiếng nói Nhân dân trên không gian mạng.