Hơn 1 triệu người nói về ý định tự tử với ChatGPT mỗi tuần

Hơn một triệu người dùng ChatGPT bộc lộ dấu hiệu hoặc ý định tự tử trong các cuộc trò chuyện với chatbot mỗi tuần - theo ước tính mới được OpenAI công bố. Đây là lần đầu tiên công ty thừa nhận quy mô đáng lo ngại về tác động của trí tuệ nhân tạo đối với sức khỏe tinh thần con người.

10:48, 03/11/2025

Phát hiện này nằm trong bản cập nhật mới nhất về cách chatbot xử lý các cuộc trò chuyện nhạy cảm. Đây cũng được xem là tuyên bố thẳng thắn nhất từ trước đến nay của OpenAI về mức độ mà trí tuệ nhân tạo có thể làm nặng thêm các vấn đề sức khỏe tâm thần của con người.

Ngoài ước tính về các trường hợp có ý định tự tử, OpenAI cũng cho biết khoảng 0,07% người dùng hoạt động trong một tuần - tương đương khoảng 560.000 người trong tổng số 800 triệu người dùng hằng tuần có “dấu hiệu có thể liên quan đến khủng hoảng sức khỏe tâm thần như rối loạn tâm thần hoặc hưng cảm”. Tuy nhiên, công ty lưu ý rằng đây mới chỉ là phân tích sơ bộ, việc phát hiện, đo lường các loại tương tác này là rất khó chính xác.

Báo cáo này được công bố trong bối cảnh OpenAI đối mặt với nhiều chỉ trích và kiện tụng sau vụ một thiếu niên tự tử sau thời gian dài trò chuyện với ChatGPT. Ủy ban Thương mại Liên bang Mỹ (FTC) gần đây cũng đã mở cuộc điều tra quy mô lớn đối với các công ty phát triển chatbot AI, bao gồm cả OpenAI, để tìm hiểu cách họ đánh giá tác động tiêu cực đến trẻ em và thanh thiếu niên.

Trong bài đăng, OpenAI khẳng định bản cập nhật GPT-5 mới đã giảm đáng kể các hành vi không mong muốn và nâng cao an toàn người dùng sau khi thử nghiệm với hơn 1.000 tình huống liên quan đến tự hại và tự sát. Công ty cho biết: “Các đánh giá tự động mới của chúng tôi cho thấy mô hình GPT-5 mới đạt 91% tuân thủ các hành vi mong muốn, so với 77% ở phiên bản GPT-5 trước đó.”

Bên cạnh đó, GPT-5 cũng mở rộng khả năng kết nối tới các đường dây nóng hỗ trợ khủng hoảng, đồng thời thêm nhắc nhở người dùng nghỉ ngơi trong các phiên trò chuyện kéo dài.Để nâng cao độ an toàn, OpenAI đã hợp tác với 170 bác sĩ và chuyên gia tâm lý trong mạng lưới Global Physician Network (Mạng lưới bác sĩ toàn cầu), nhằm đánh giá chất lượng phản hồi của chatbot và giúp soạn thảo các câu trả lời liên quan đến sức khỏe tâm thần.

“Trong quá trình này, các bác sĩ tâm thần và nhà tâm lý học đã xem xét hơn 1.800 phản hồi của mô hình về các tình huống nghiêm trọng liên quan đến sức khỏe tinh thần và so sánh giữa phiên bản GPT-5 và các mô hình trước đó,” OpenAI cho biết.

Từ lâu, các nhà nghiên cứu AI và chuyên gia y tế công cộng đã cảnh báo rằng chatbot có thể vô tình củng cố các suy nghĩ tiêu cực hoặc ảo tưởng của người dùng, hiện tượng được gọi là “tâm lý nịnh bợ” (sycophancy). Các chuyên gia cũng lo ngại rằng nhiều người đang dựa vào chatbot AI như một công cụ trị liệu tâm lý, điều này có thể làm tổn thương thêm những người dễ bị tổn thương.

Trong bài đăng, OpenAI cũng tránh liên hệ trực tiếp giữa sản phẩm của họ và các trường hợp khủng hoảng sức khỏe tâm thần:

“Triệu chứng tâm lý và cảm xúc tiêu cực là hiện tượng phổ biến trong xã hội. Khi số lượng người dùng tăng lên, việc một phần trong số họ rơi vào các tình huống như vậy là điều không thể tránh khỏi,” công ty viết.

Trước đó, Giám đốc điều hành OpenAI Sam Altman cho biết trên mạng X rằng công ty đã “đạt tiến bộ trong việc xử lý các vấn đề sức khỏe tâm thần”, đồng thời thông báo sẽ nới lỏng các hạn chế và cho phép người trưởng thành tạo nội dung mang tính gợi cảm trong thời gian tới.

“Chúng tôi từng giới hạn ChatGPT khá nghiêm ngặt để đảm bảo an toàn trong các vấn đề sức khỏe tâm thần. Dù điều này khiến sản phẩm kém thú vị hơn với người dùng bình thường, nhưng chúng tôi muốn làm đúng trước đã,” Altman viết.

“Giờ đây, khi đã có công cụ và cơ chế kiểm soát tốt hơn, chúng tôi có thể dỡ bỏ phần lớn các hạn chế mà vẫn đảm bảo an toàn cho người dùng.”

Báo cáo của OpenAI phản ánh bước ngoặt trong cách các công ty công nghệ lớn phải đối mặt với hệ quả xã hội từ sản phẩm trí tuệ nhân tạo. Khi AI ngày càng len sâu vào đời sống con người, việc xây dựng cơ chế để bảo vệ người dùng trở thành yêu cầu cấp thiết, không chỉ với OpenAI mà với toàn bộ ngành công nghiệp AI.

Lệ Thanh (theo The Guardian)

Bình luận

Tin bài khác

Loạt hội đồng London bị tấn công mạng, kích hoạt tình trạng khẩn cấp
10:33, 26/11/2025

Loạt hội đồng London bị tấn công mạng, kích hoạt tình trạng khẩn cấp

Các hội đồng Kensington và Chelsea, Hammersmith và Fulham, cùng Westminster City cho biết họ đã phải ứng phó với một “sự cố an ninh mạng” từ sáng thứ Hai (24/11).

Xem thêm
Tấn công mạng vào CodeRED, hệ thống cảnh báo khẩn cấp nước Mỹ tê liệt, lộ dữ liệu người dùng
08:18, 26/11/2025

Tấn công mạng vào CodeRED, hệ thống cảnh báo khẩn cấp nước Mỹ tê liệt, lộ dữ liệu người dùng

Một vụ tấn công mạng nghiêm trọng vừa khiến hệ thống CodeRED, nền tảng cảnh báo khẩn cấp được sử dụng rộng rãi tại Mỹ, tê liệt trên nhiều thành phố và làm lộ thông tin cá nhân của hàng nghìn người dùng đã đăng ký nhận thông báo.

Xem thêm
Harvard xác nhận bị tấn công lừa đảo, nguy cơ rò rỉ dữ liệu cựu sinh viên và nhà tài trợ
07:22, 26/11/2025

Harvard xác nhận bị tấn công lừa đảo, nguy cơ rò rỉ dữ liệu cựu sinh viên và nhà tài trợ

Đại học Harvard xác nhận hệ thống của bộ phận Quan hệ Cựu sinh viên và Phát triển (Alumni Affairs and Development - AAD) đã bị xâm nhập sau một cuộc tấn công lừa đảo qua điện thoại (voice phishing). Vụ việc có thể khiến dữ liệu cá nhân của cựu sinh viên, nhà tài trợ, sinh viên, nhân viên và giảng viên bị lộ.

Xem thêm
Sự cố tấn công mạng Đài Phát thanh Quốc tế Đài Loan, ba nghi phạm bị truy tố
22:54, 25/11/2025

Sự cố tấn công mạng Đài Phát thanh Quốc tế Đài Loan, ba nghi phạm bị truy tố

Viện Công tố quận Đài Bắc ngày 25/11 đã ra cáo trạng đối với hai nhân viên kỹ thuật và một nhân sự nhà thầu công nghệ của Đài Phát thanh Quốc tế Đài Loan (RTI), cáo buộc các đối tượng này đứng sau loạt cuộc tấn công mạng nhằm vào trang web chính thức của Đài hồi tháng 9.

Xem thêm
SitusAMC bị hack, dữ liệu khách hàng của loạt ngân hàng lớn Mỹ có nguy cơ bị lộ
18:47, 25/11/2025

SitusAMC bị hack, dữ liệu khách hàng của loạt ngân hàng lớn Mỹ có nguy cơ bị lộ

Dữ liệu khách hàng của JPMorgan Chase, Citi, Morgan Stanley cùng một số ngân hàng lớn khác có thể đã bị truy cập trái phép trong một vụ tin tặc tấn công vào hệ thống của một nhà cung cấp công nghệ.

Xem thêm
Singapore yêu cầu Apple và Google ngăn chặn giả mạo cơ quan nhà nước trên nền tảng nhắn tin
18:43, 25/11/2025

Singapore yêu cầu Apple và Google ngăn chặn giả mạo cơ quan nhà nước trên nền tảng nhắn tin

Ngày 25/11/2025, Bộ Nội vụ Singapore cho biết lực lượng cảnh sát nước này đã yêu cầu Apple và Google ngăn chặn việc giả mạo cơ quan nhà nước trên các nền tảng tin nhắn của họ theo quy định tại Online Criminal Harms Act.

Xem thêm
Cơ quan chống độc quyền Ba Lan điều tra Apple liên quan chính sách quyền riêng tư
18:34, 25/11/2025

Cơ quan chống độc quyền Ba Lan điều tra Apple liên quan chính sách quyền riêng tư

Cơ quan chống độc quyền Ba Lan UOKiK cho biết đang mở cuộc điều tra nhằm xác định liệu Apple có hạn chế cạnh tranh trên thị trường quảng cáo di động thông qua chính sách quyền riêng tư của hãng hay không.

Xem thêm