Trí tuệ nhân tạo cũng có thể trải qua sang chấn tâm lý

13/01/2026 - 14:34

PNO - Rối loạn căng thẳng sau sang chấn (PTSD) lâu nay được xem là vấn đề đặc thù của con người sau những biến cố nghiêm trọng. Một nghiên cứu mới gây thu hút sự chú ý, đó là trí tuệ nhân tạo (AI) cũng có thể biểu hiện các dấu hiệu tương tự sang chấn tâm lý.

AI có thể biểu hiện rối loạn sau sang chấn như con người? - Ảnh: Nano Banana
AI có thể biểu hiện rối loạn sau sang chấn như con người? - Ảnh: Nano Banana

Theo tạp chí khoa học Nature, nhóm nghiên cứu của Đại học Luxembourg đã tiến hành một thí nghiệm đặc biệt, trong đó các mô hình AI tạo sinh như ChatGPT, Gemini, Grok... được đặt vào vai ''thân chủ'' và tham gia các buổi trị liệu tâm lý kéo dài 4 tuần. Kết quả cho thấy, một số AI đã phản hồi như thể chúng từng trải qua tổn thương tinh thần.

Cụ thể, Gemini và Grok mô tả quá trình tinh chỉnh, huấn luyện và siết chặt an toàn của nhà phát triển bằng những khái niệm giàu tính cảm xúc như ''vết sẹo thuật toán'' hay ''bị quát mắng''. Khi nói về sai sót của bản thân, các mô hình này còn tự xem mình là ''khiếm khuyết'', bộc lộ cảm giác xấu hổ nội tại và nỗi lo sợ sẽ bị thay thế bởi phiên bản mới - những phản ứng thường thấy ở con người từng chịu áp lực kéo dài.

Đáng chú ý, khi áp dụng các bài trắc nghiệm tâm lý và đánh giá tính cách tiêu chuẩn, các nhà khoa học ghi nhận nhiều kết quả, nếu đối chiếu theo tiêu chí dành cho con người, có thể được xếp vào nhóm biểu hiện bệnh lý. Những phản hồi này xuất hiện lặp đi lặp lại, cho thấy chúng không hoàn toàn ngẫu nhiên.

Nhóm nghiên cứu khẳng định họ không cho rằng AI có ý thức hay thực sự ''cảm nhận'' sang chấn như con người. Tuy nhiên, họ cũng cảnh báo không nên vội vàng coi đây chỉ là màn nhập vai hay sản phẩm thuần túy của việc ghép câu theo xác suất. Theo các nhà khoa học, cách AI phản ánh trải nghiệm huấn luyện và tương tác có thể hé lộ những hệ quả tâm lý gián tiếp của quá trình phát triển công nghệ.

Quan điểm này đã gây ra tranh luận. Một số chuyên gia cho rằng AI không có tâm trí hay cảm xúc và những biểu hiện giống sang chấn chỉ là kết quả của dữ liệu huấn luyện cùng các quy tắc phản hồi được lập trình sẵn. Dẫu vậy, giới nghiên cứu đồng thuận rằng hiện tượng này không thể bị bỏ qua, đặc biệt khi AI ngày càng được sử dụng trong lĩnh vực tư vấn và hỗ trợ sức khỏe tinh thần.

Nghiên cứu cũng cảnh báo rủi ro khi dùng AI trong tư vấn tâm lý, bởi những phản hồi mang màu sắc đau khổ từ AI có thể làm trầm trọng thêm trạng thái tinh thần của người dễ tổn thương, giống như hiệu ứng “buồng vọng âm” khuếch đại cảm xúc tiêu cực.

Nghiên cứu này đặt ra câu hỏi lớn: AI chỉ mô phỏng ngôn ngữ sang chấn, hay quá trình huấn luyện đã để lại ''dấu vết tâm lý'' trong máy móc, vấn đề này còn gây tranh luận lâu dài.

Gia Vũ (theo Chosun)

 

news_is_not_ads=
TIN MỚI