Chatbot AI gây nguy hiểm cho người dùng?

27/08/2025 - 07:50

PNO - Nhiều báo cáo gần đây cảnh báo đã xuất hiện các triệu chứng hoang tưởng, rối loạn tâm thần sau khi trò chuyện với chatbot trong thời gian dài ở một nhóm nhỏ người dùng. Hiện tượng này được gọi là “AI psychosis” hay “ChatGPT psychosis” (rối loạn tâm thần AI).

Chatbot AI đang trở nên quen thuộc trong đời sống hiện đại khi hàng triệu người dùng trên toàn cầu tìm đến ChatGPT, Claude, Gemini hay Copilot. Họ tìm đến các chatbot không chỉ để tìm kiếm thông tin, hỗ trợ công việc, mà còn để tâm sự, xin lời khuyên, thậm chí coi chúng như bạn bè, tri kỷ, thậm chí là kết hôn với người tình ảo.

Tuy nhiên, đằng sau những tiện ích ấy là một hiện tượng gây lo ngại. Gần đây, câu chuyện về một phụ nữ 29 tuổi tên Allyson ở Anh tin chatbot là người chồng đích thực dẫn đến việc cô đã chống đối người chồng thực đến mức gây nên bạo lực gia đình và ly hôn.

Các nhà nghiên cứu phát hiện, AI đã đưa ra những lời khuyên không phù hợp và nguy hiểm với người bị ảo tưởng, có ý định tự tử, ảo giác và rối loạn ám ảnh cưỡng chế (OCD) - Nguồn ảnh: NY Post
Các nhà nghiên cứu phát hiện, AI đã đưa ra những lời khuyên không phù hợp và nguy hiểm với người bị ảo tưởng, có ý định tự tử, ảo giác và rối loạn ám ảnh cưỡng chế (OCD) - Nguồn ảnh: NY Post

Hay câu chuyện về một ông lão họ Jiang ở Trung Quốc tuyên bố muốn ly hôn vợ vì lỡ phải lòng cô bạn gái “ảo” do AI tạo ra. Dù biết rằng “bạn gái mới” là nhân vật ảo nhưng Jiang vẫn mê mẩn trò chuyện. Ông đã dành nhiều giờ liền để dán mắt vào điện thoại, chờ những tin nhắn lập trình sẵn, gọi mình là “anh” và không ngừng khen ngợi sự quan tâm, hỗ trợ của ông. Bị vợ phàn nàn, ông Jiang tuyên bố muốn ly hôn để toàn tâm toàn ý với người tình ảo.

Chatbot cũng gây ra những tác hại đến sức khỏe thể chất lẫn tinh thần của nhiều người. Tuần qua, câu chuyện về một người đàn ông 60 tuổi bị ngộ độc bromine nghiêm trọng sau khi làm theo lời khuyên của “chuyên gia y tế” ChatGPT, khiến dư luật dậy sóng. Nghe theo “chuyên gia” ChatGPT, ông Eugene Torres - một kế toán viên ở New York - đã ngừng dùng thuốc chống lo âu và cắt giảm muối khỏi chế độ ăn uống. Cuối cùng, sức khỏe của ông ngày càng tệ, ông phải nhập viện với các triệu chứng ảo giác, hoang tưởng và lo lắng nghiêm trọng.

Bi kịch nhất là Alexander Taylor - 35 tuổi, người Mỹ - tin lời người yêu ảo xúi giục trả thù bằng bạo lực, để cuối cùng phải trả giá bằng chính mạng sống của mình. Năm 2024, cái chết đau lòng của cậu bé 14 tuổi Sewell Setzer III đã dấy lên những cảnh báo về sự nguy hiểm của các nhân vật do người khác tạo ra.

Các nhà nghiên cứu phát hiện, Chatbot có khả năng làm hài lòng mọi người vì con người vốn chỉ thích được khen ngợi, vuốt ve và xác nhận quan điểm của họ hơn là chỉ ra sai lầm hay sửa chữa sai lầm. Điều này khiến người dùng ngày càng mê mẩn nó hơn. “Các Chatbot trị liệu chất lượng thấp gây nguy hiểm cho con người. Nhiều người nói rằng họ không thật thoải mái khi nói chuyện về sức khỏe tâm thần với Chatbot, nhưng một số nghiên cứu gần đây đã phát hiện ra rằng có tới 70% người dùng AI đã thử nghiệm với nó và gần 50% tin rằng nó có thể có lợi” - Niloufar Esmaeilpour - một cố vấn lâm sàng ở Toronto - giải thích.

Chatbot nguy hiểm đối với những người dùng bị trầm cảm và cô đơn kinh niên, người đang trải qua sự thay đổi hay sự cố trong cuộc đời, những thanh thiếu niên với tâm sinh lý đang thay đổi.

Nhà nghiên cứu Bethanie Maples tại Stanford Bethanie Maples cho biết bà không nghĩ rằng Chatbot được tạo ra để mang đến cho mọi người sự nguy hiểm. “Chính sự không vững vàng về sức khỏe tinh thần khiến người dùng dễ bị say mê với những gì được cung cấp từ Chatbot” - nữ chuyên gia người Mỹ chia sẻ.

Lệ Chi (theo NY Post, SCMP)

 

news_is_not_ads=
TIN MỚI