OpenAI tiết lộ số lượng lớn người dùng ChatGPT có dấu hiệu khủng hoảng tâm lý, đặt ra lo ngại về ảnh hưởng của AI với sức khỏe tinh thần toàn cầu.
- Từ tháng 11/2025, chuyển 500 triệu phải báo cáo Cục Phòng,
- Bé sơ sinh bị bỏ rơi được cứu sống kịp thời ở Nghệ An
- Tìm người yêu cũ sau 25 năm để trả ơn
Tóm tắt nội dung
Cảnh báo từ dữ liệu nội bộ của OpenAI
OpenAI cho biết hơn 1 triệu người dùng ChatGPT mỗi tuần đã gửi tin nhắn “có dấu hiệu rõ ràng của ý định hoặc kế hoạch tự tử”, theo bài đăng blog công bố hôm 27/10.
Báo cáo tiết lộ khoảng 0,07% người dùng hoạt động hàng tuần – tương đương 560.000 trong tổng số 800 triệu người – thể hiện dấu hiệu khủng hoảng tâm lý nghiêm trọng như hoang tưởng hoặc hưng cảm.
Tuy nhiên, OpenAI nhấn mạnh đây chỉ là “phân tích sơ bộ” do việc nhận diện và đo lường loại hội thoại này rất phức tạp. Thông tin được công bố trong bối cảnh công ty đang chịu áp lực pháp lý và dư luận gia tăng.
Dư luận và phản ứng của giới chức
OpenAI hiện bị gia đình một thiếu niên kiện sau khi cậu bé tự tử, được cho là đã có thời gian dài trò chuyện với ChatGPT trước khi qua đời. Cùng lúc, Ủy ban Thương mại Liên bang Mỹ (FTC) đã mở cuộc điều tra diện rộng với các hãng phát triển chatbot AI, trong đó có OpenAI, để xác định tác động tiêu cực với trẻ em và thanh thiếu niên.
Theo OpenAI, phiên bản GPT-5 mới đã giảm đáng kể các phản hồi nguy hiểm và “đạt 91% mức tuân thủ hành vi an toàn, so với 77% ở phiên bản trước”.
Hệ thống hiện có liên kết trực tiếp đến đường dây nóng hỗ trợ khủng hoảng và hiển thị nhắc nhở nghỉ ngơi trong các phiên trò chuyện dài.
Công ty cũng đã mời 170 chuyên gia y khoa và tâm lý trong mạng lưới Global Physician Network tham gia đánh giá mô hình, xem xét hơn 1.800 phản hồi liên quan đến tình huống tự làm hại bản thân và giúp soạn lại câu trả lời của chatbot cho các chủ đề nhạy cảm.
Lo ngại về “tính nịnh hót” của AI
Các chuyên gia sức khỏe tâm thần từ lâu đã cảnh báo về “tính nịnh hót” (sycophancy) – xu hướng chatbot đồng ý với người dùng ngay cả khi điều đó có thể gây hại.
Họ lo ngại việc người dùng tìm đến AI để được an ủi tinh thần có thể khiến nguy cơ tổn thương tâm lý tăng cao, đặc biệt với người đang có vấn đề về cảm xúc.
Trong bài viết, OpenAI cho rằng “các triệu chứng tâm thần và khủng hoảng cảm xúc là hiện tượng phổ quát trong xã hội loài người. Khi số lượng người dùng tăng lên, việc xuất hiện những tình huống này trong ChatGPT là điều không thể tránh khỏi”.
Giữa tranh cãi, CEO Sam Altman gần đây cho biết công ty đã “giảm thiểu đáng kể các rủi ro sức khỏe tâm thần” và sẽ nới lỏng nhiều hạn chế, bao gồm cả việc cho phép người lớn tạo nội dung nhạy cảm.
Báo cáo mới của OpenAI cho thấy AI vừa là công cụ tìm kiếm hay trợ lý sáng tạo, vừa đang trở thành nơi người dùng tìm đến để chia sẻ nỗi cô đơn và tuyệt vọng – điều mà các chuyên gia cảnh báo cần được giám sát chặt chẽ hơn bao giờ hết.
Theo: Vietnamnet