![]() |
| ChatGPT, công cụ trí tuệ nhân tạo nổi tiếng của OpenAI, đang trở thành nơi nhiều người tìm đến để trút nỗi tuyệt vọng. |
Phát hiện này nằm trong bản cập nhật mới nhất về cách chatbot xử lý các cuộc trò chuyện nhạy cảm. Đây cũng được xem là tuyên bố thẳng thắn nhất từ trước đến nay của OpenAI về mức độ mà trí tuệ nhân tạo có thể làm nặng thêm các vấn đề sức khỏe tâm thần của con người.
Ngoài ước tính về các trường hợp có ý định tự tử, OpenAI cũng cho biết khoảng 0,07% người dùng hoạt động trong một tuần - tương đương khoảng 560.000 người trong tổng số 800 triệu người dùng hằng tuần có “dấu hiệu có thể liên quan đến khủng hoảng sức khỏe tâm thần như rối loạn tâm thần hoặc hưng cảm”. Tuy nhiên, công ty lưu ý rằng đây mới chỉ là phân tích sơ bộ, việc phát hiện, đo lường các loại tương tác này là rất khó chính xác.
Báo cáo này được công bố trong bối cảnh OpenAI đối mặt với nhiều chỉ trích và kiện tụng sau vụ một thiếu niên tự tử sau thời gian dài trò chuyện với ChatGPT. Ủy ban Thương mại Liên bang Mỹ (FTC) gần đây cũng đã mở cuộc điều tra quy mô lớn đối với các công ty phát triển chatbot AI, bao gồm cả OpenAI, để tìm hiểu cách họ đánh giá tác động tiêu cực đến trẻ em và thanh thiếu niên.
Trong bài đăng, OpenAI khẳng định bản cập nhật GPT-5 mới đã giảm đáng kể các hành vi không mong muốn và nâng cao an toàn người dùng sau khi thử nghiệm với hơn 1.000 tình huống liên quan đến tự hại và tự sát. Công ty cho biết: “Các đánh giá tự động mới của chúng tôi cho thấy mô hình GPT-5 mới đạt 91% tuân thủ các hành vi mong muốn, so với 77% ở phiên bản GPT-5 trước đó.”
Bên cạnh đó, GPT-5 cũng mở rộng khả năng kết nối tới các đường dây nóng hỗ trợ khủng hoảng, đồng thời thêm nhắc nhở người dùng nghỉ ngơi trong các phiên trò chuyện kéo dài.Để nâng cao độ an toàn, OpenAI đã hợp tác với 170 bác sĩ và chuyên gia tâm lý trong mạng lưới Global Physician Network (Mạng lưới bác sĩ toàn cầu), nhằm đánh giá chất lượng phản hồi của chatbot và giúp soạn thảo các câu trả lời liên quan đến sức khỏe tâm thần.
“Trong quá trình này, các bác sĩ tâm thần và nhà tâm lý học đã xem xét hơn 1.800 phản hồi của mô hình về các tình huống nghiêm trọng liên quan đến sức khỏe tinh thần và so sánh giữa phiên bản GPT-5 và các mô hình trước đó,” OpenAI cho biết.
Từ lâu, các nhà nghiên cứu AI và chuyên gia y tế công cộng đã cảnh báo rằng chatbot có thể vô tình củng cố các suy nghĩ tiêu cực hoặc ảo tưởng của người dùng, hiện tượng được gọi là “tâm lý nịnh bợ” (sycophancy). Các chuyên gia cũng lo ngại rằng nhiều người đang dựa vào chatbot AI như một công cụ trị liệu tâm lý, điều này có thể làm tổn thương thêm những người dễ bị tổn thương.
Trong bài đăng, OpenAI cũng tránh liên hệ trực tiếp giữa sản phẩm của họ và các trường hợp khủng hoảng sức khỏe tâm thần:
“Triệu chứng tâm lý và cảm xúc tiêu cực là hiện tượng phổ biến trong xã hội. Khi số lượng người dùng tăng lên, việc một phần trong số họ rơi vào các tình huống như vậy là điều không thể tránh khỏi,” công ty viết.
Trước đó, Giám đốc điều hành OpenAI Sam Altman cho biết trên mạng X rằng công ty đã “đạt tiến bộ trong việc xử lý các vấn đề sức khỏe tâm thần”, đồng thời thông báo sẽ nới lỏng các hạn chế và cho phép người trưởng thành tạo nội dung mang tính gợi cảm trong thời gian tới.
“Chúng tôi từng giới hạn ChatGPT khá nghiêm ngặt để đảm bảo an toàn trong các vấn đề sức khỏe tâm thần. Dù điều này khiến sản phẩm kém thú vị hơn với người dùng bình thường, nhưng chúng tôi muốn làm đúng trước đã,” Altman viết.
“Giờ đây, khi đã có công cụ và cơ chế kiểm soát tốt hơn, chúng tôi có thể dỡ bỏ phần lớn các hạn chế mà vẫn đảm bảo an toàn cho người dùng.”
Báo cáo của OpenAI phản ánh bước ngoặt trong cách các công ty công nghệ lớn phải đối mặt với hệ quả xã hội từ sản phẩm trí tuệ nhân tạo. Khi AI ngày càng len sâu vào đời sống con người, việc xây dựng cơ chế để bảo vệ người dùng trở thành yêu cầu cấp thiết, không chỉ với OpenAI mà với toàn bộ ngành công nghiệp AI.
Lệ Thanh (theo The Guardian)









Bình luận