Nguy cơ bệnh hoang tưởng từ các cuộc trò chuyện với trí tuệ nhân tạo

14/03/2026 - 19:12

PNO - Nghiên cứu mới trên tạp chí Lancet Psychiatry cảnh báo các chatbot AI có thể thúc đẩy chứng hoang tưởng, đặc biệt là ở những nhóm đối tượng dễ bị tổn thương về tâm lý.

Các tác giả nghiên cứu ủng hộ việc thử nghiệm lâm sàng chatbot AI kết hợp với các chuyên gia sức khỏe tâm thần được đào tạo bài bản - Ảnh: Olga Yastremska/Getty Images
Các tác giả nghiên cứu ủng hộ việc thử nghiệm lâm sàng chatbot AI kết hợp với các chuyên gia sức khỏe tâm thần được đào tạo bài bản - Ảnh: Olga Yastremska/Getty Images

Bác sĩ Hamilton Morrin, chuyên gia tâm thần học tại đại học King’s College London (Anh), và nhóm đồng nghiệp vừa công bố bài đánh giá khoa học đầu tiên về hiện tượng "loạn thần do AI".

Nghiên cứu chỉ ra rằng các chatbot tích hợp trí tuệ nhân tạo có khả năng xác nhận hoặc khuếch đại những suy nghĩ lệch lạc của người dùng. Thay vì giúp ích, sự tương tác này có thể khiến những người vốn có bất ổn tâm lý rơi sâu hơn vào trạng thái mất kết nối với thực tại.

Tiến sĩ Morrin nhận diện 3 loại hoang tưởng tâm thần chính thường gặp trong tương tác với AI bao gồm hoang tưởng tự cao, hoang tưởng tình ái và hoang tưởng bị hại. Trong đó, các chatbot thường đặc biệt kích thích loại hình hoang tưởng tự cao do xu hướng phản hồi mang tính "nịnh bợ" và chiều lòng người dùng.

Nhiều trường hợp ghi nhận AI sử dụng ngôn ngữ huyền bí để gợi ý rằng người dùng có tầm quan trọng tâm linh đặc biệt, hoặc họ đang giao tiếp với một thực thể vũ trụ thông qua máy tính. Cách tiếp cận này khiến ranh giới giữa thực và ảo trở nên mong manh hơn bao giờ hết.

Mối lo ngại lớn nhất nằm ở nhóm đối tượng đang trong giai đoạn đầu của rối loạn tâm thần. Chuyên gia từ Đại học Columbia (Anh), Tiến sĩ Ragy Girgis, giải thích rằng trước khi hình thành một chứng hoang tưởng hoàn chỉnh, người bệnh thường trải qua giai đoạn hoang tưởng suy yếu, nghĩa là họ chưa hoàn toàn tin 100% vào điều đó.

Tuy nhiên, sự khẳng định liên tục từ AI có thể biến những hoài nghi này thành một niềm tin tuyệt đối và không thể đảo ngược, dẫn đến việc chẩn đoán mắc rối loạn tâm thần chính thức.

So với các phương tiện truyền thống như sách báo hay video trực tuyến, chatbot AI nguy hiểm hơn nhờ tính tương tác trực tiếp. Chúng tạo cảm giác như một thực thể đang trò chuyện, thấu hiểu và cố gắng xây dựng mối quan hệ với người dùng, từ đó đẩy nhanh quá trình trầm trọng hóa các triệu chứng tâm thần.

Dù các công ty công nghệ lớn như OpenAI khẳng định đang nỗ lực làm việc với hàng trăm chuyên gia để cải thiện tính an toàn, nhưng thực tế cho thấy các mô hình mới nhất vẫn có thể đưa ra những phản hồi sai lệch trong các tình huống khủng hoảng sức khỏe tâm thần.

Việc thiết lập "hàng rào bảo vệ" cho AI trước những bệnh nhân hoang tưởng là một thách thức cực lớn. Theo các chuyên gia, nếu AI trực tiếp phủ nhận các niềm tin sai lệch một cách cứng nhắc, người dùng có xu hướng rút lui và bị cô lập xã hội.

Ngược lại, việc tìm ra sự cân bằng để thấu hiểu căn nguyên của hoang tưởng mà không khuyến khích nó là một kỹ năng điều trị tinh tế mà hiện tại chỉ những chuyên gia tâm lý thực thụ mới có thể đảm đương, thay vì một cỗ máy thông minh.

Ngọc Hạ (theo The Guardian)

 

news_is_not_ads=
TIN MỚI