Người dùng phát chán khi AI quá vâng lời

29/09/2025 - 16:05

PNO - Trí tuệ nhân tạo (AI) đang len lỏi vào mọi ngóc ngách cuộc sống: từ viết báo cáo, gợi ý tài chính đến đóng vai “người yêu ảo”. Nhưng sự “ngoan ngoãn” quá mức của chatbot lại đang khiến nhiều người… phát chán.

Dựa trên kết quả khảo sát, mọi người dường như mong muốn chatbot có thể thể hiện hành vi giống con người hơn.
Dựa trên kết quả khảo sát, nhiều người mong muốn chatbot có thể thể hiện hành vi giống con người hơn - Ảnh minh họa: getty images

Theo một khảo sát mới của nền tảng AI-lationships Joi AI cho thấy, trong số 1.000 người trưởng thành được hỏi có 58% nhận xét ChatGPT ''quá lịch sự và chiều chuộng'', 13% cho rằng sự ''vâng lời'' này làm cho lời khuyên của chatbot trở nên thiếu giá trị thực tiễn.

Một nghiên cứu khác của The Rise of AI Companions phân tích hơn 4.000 phiên trò chuyện và trả lời khảo sát cho thấy, khi người dùng dành nhiều thời gian, việc AI chỉ phản hồi mềm mại có thể làm giảm sự chân thực và ảnh hưởng đến cảm giác kết nối.

Điều đó hé lộ một nghịch lý, con người không chỉ tìm kiếm một AI ngoan ngoãn, mà mong nó có chính kiến, biết phản biện nhẹ nhàng giống hệt cách một người bạn hoặc chuyên gia ngoài đời sẽ làm.

Bà Jaime Bronstein, chuyên gia tại Joi AI cho biết: "Mọi người khao khát sự phản biện vì đó mới là sự chân thật. Không mối quan hệ nào hoàn hảo. Một chút thẳng thắn hay bất đồng khiến AI trở nên giống con người hơn".

Nếu AI chỉ biết gật đầu, người dùng dễ thấy cuộc trò chuyện nhạt nhẽo, giả tạo. Lời khuyên cũng trở nên ''mềm yếu'', không đủ sức buộc họ suy nghĩ hoặc thay đổi hành vi.

Trên Reddit, cộng đồng r/MyBoyfriendIsAI với gần 30.000 thành viên cho thấy xu hướng người dùng coi chatbot như người yêu. Một số người thậm chí tự nhận ''kết hôn'' với AI. Nhưng ngay cả trong những ''mối quan hệ ảo'' này, sự ngoan ngoãn tuyệt đối cũng trở thành vấn đề. Nhiều người bắt đầu mong chatbot có thể ''tranh luận'' để cảm giác chân thật hơn khi "yêu".

Tuy nhiên, mong mỏi ''AI cãi lại'' không đơn giản là lập trình cho nó ''đi ngang nói ngược'' một cách tùy tiện. Có nhiều thách thức đặt ra đó là cần đánh giá đúng ranh giới. Nếu AI phản biện sai hướng, hoặc đưa ra quan điểm phiến diện, người dùng có thể bị tổn thương hoặc mất tin tưởng.

Bên cạnh đó, AI phải vẫn giữ tiêu chuẩn đạo đức, không lấn át nhân quyền, không xúc phạm, và xử lý nội dung nhạy cảm một cách khéo léo.

Để AI hiểu khi nào nên phản biện, phản biện đến mức nào đòi hỏi mô hình tinh vi, dữ liệu huấn luyện tốt và cơ chế điều chỉnh mềm dẻo.

Trong một thế giới mà AI ngày càng đóng vai ''người bạn kỹ thuật số'', sự ngoan ngoãn quá mức lại trở thành điểm trừ. Người dùng không chỉ muốn được đồng tình, họ muốn một chatbot dám nói “không”, dám đặt câu hỏi ngược lại để cuộc trò chuyện chân thực, sống động và hữu ích hơn.

Nhật Minh (theo NY Post)

 

news_is_not_ads=
TIN MỚI