Có bệnh là hỏi AI
Vừa qua, một nữ bệnh nhân (38 tuổi, ở TPHCM) được bác sĩ chẩn đoán rối loạn lipid máu, kê toa thuốc về uống. Tuy nhiên, sau khi hỏi AI, chị tự ý bỏ thuốc, và mua thảo dược được quảng cáo giảm mỡ máu tự nhiên trên mạng xã hội về uống.
 |
Bác sĩ Võ Văn Tân thăm khám cho người bệnh |
Uống thảo dược vài tháng, bệnh nhân thấy đau tức ngực, khó thở, quay lại bệnh viện khám, bác sĩ phát hiện chỉ số mỡ máu của chị tăng cao, có dấu hiệu thiếu máu cơ tim, hẹp động mạch vành tim. Có thể do chị tự ý ngừng hoặc thay đổi thuốc theo thông tin từ AI khiến bệnh mất kiểm soát, chưa kể đến nguy cơ tương tác thuốc gây ra biến chứng nguy hiểm.
Mỗi lần con gái 5 tuổi có vấn đề về sức khỏe, việc đầu tiên của chị Thái Thị Hằng (36 tuổi, ở TPHCM) là mở Genimi để… khám cho con. Chị cho rằng các triệu chứng của con chưa nặng, với lại thuốc mà ứng dụng này gợi ý cũng quen thuộc nên không lo chữa trị nhầm thuốc.
Chị nói: “Thường thì con nóng sốt, sổ mũi, tôi mới nhờ Genimi cho tên thuốc, chứ nặng hơn thì sẽ đi bệnh viện. Nói thật, ra tiệm thuốc họ cũng bán các loại này nên tôi mới cho con uống”.
Tuy nhiên, nhiều lần Genimi đã chẩn đoán nhầm bệnh. Lúc đó, bé bị sốt xuất huyết, AI đã cho rằng bé bị sốt siêu vi. Khoảng ngày thứ sáu của bệnh, bé bị sốc sốt xuất huyết nặng, phải nhập viện điều trị hơn 1 tuần. Hoặc năm 2024, bé bị sốt, chị Hằng mua thuốc cảm cúm cho con theo gợi ý của AI. Đến khi bé bị giật mình liên tục, đưa đến bệnh viện, bác sĩ chẩn đoán bị tay chân miệng nặng gây biến chứng.
Trong một lần bị bạn gái chia tay, anh T.K.T. (21 tuổi, ở Đồng Tháp) tìm tới một ứng dụng AI để… tâm sự. Tin rằng chatbot luôn lắng nghe, trả lời đầy cảm thông và tuyệt đối bí mật, anh T. dần quen với việc nhắn hỏi AI mỗi khi cần. Khi bị mệt mỏi, khó thở, có lúc tim đập rất nhanh, anh cũng nhờ “bạn ảo” khám bệnh.
Kết quả, ứng dụng này nói anh có thể bị rối loạn nhịp tim, suy tim nặng, có khả năng đột tử cao và gợi ý một số thuốc. Hơn 1 tháng qua, anh uống thuốc huyết áp, và thực phẩm chức năng theo AI gợi ý. Cho đến khi công ty tổ chức khám sức khỏe định kỳ, bác sĩ nói anh hoàn toàn khỏe mạnh.
Tiến sĩ, bác sĩ Trương Thị Ngọc Lan - Phó viện trưởng Viện Y Dược học dân tộc TPHCM - cho biết: “Tại viện, đôi lúc vẫn có người bệnh nóng vội, đặc biệt là người bị bệnh mạn tính phải điều trị lâu dài, lại nghe theo AI, ngưng điều trị ở viện, tự đi mua thuốc, dùng sản phẩm khác. Lúc quay lại cầu cứu bác sĩ thật thì bệnh đã rất nặng, bị biến chứng, nguy cơ tử vong cao. Cuối cùng, người bệnh phải chịu thiệt thòi nhiều nhất”.
Chỉ nên tham khảo
Theo tiến sĩ, bác sĩ Võ Văn Tân - Trưởng khoa Nội thần kinh, Bệnh viện Nhân dân Gia Định - các ứng dụng chatbot, ChatGPT, Genimi… có khả năng tổng hợp thông tin và phản hồi nhanh ở nhiều lĩnh vực, kể cả thông tin y tế. Tuy nhiên, các dữ liệu mà ứng dụng AI, hay kể cả thông tin từ nguồn uy tín đưa ra thì người bệnh chỉ nên tham khảo, bởi đây là thông tin y tế tổng quan, trong khi đó chẩn đoán bệnh phải dựa trên cá thể.
Về nguyên tắc, trước khi kết luận bệnh, bác sĩ phải khám trực tiếp cho người bệnh bao gồm triệu chứng hiện có, bệnh lý nền, thuốc đang sử dụng… Trường hợp cần thiết còn phải xét nghiệm, chẩn đoán hình ảnh, hội chẩn… mới đưa ra kết quả cuối cùng. Từ đó lên kế hoạch điều trị cho từng người mới có hiệu quả. Chính vì vậy, khi có vấn đề sức khỏe, người dân nên đến cơ sở y tế, dùng AI tìm bệnh, tìm thuốc là cực kỳ nguy hiểm.
Bác sĩ Trương Hữu Khanh - nguyên Trưởng khoa Nhiễm - Thần kinh, Bệnh viện Nhi Đồng 1 TPHCM - cho rằng: “AI với ngành khác thì không biết, chứ ngành y không thay được lâm sàng. Kinh nghiệm, sự nhạy cảm, cái tâm thì cũng không thay được”.
Theo đó, người bệnh, nhất là bệnh nhi đều phải có những bước thăm khám cụ thể, không chỉ hỏi bệnh để nắm bắt các triệu chứng, mà bác sĩ còn phải thông qua các bước nhìn, sờ, gõ, nghe hay hỏi bệnh sử… Chứ một vài triệu chứng mà chẩn đoán ngay thì nguy cơ nhầm lẫn bệnh rất cao.
Ví dụ một em bé nóng sốt, thì không chỉ cảm cúm, siêu vi, sốt xuất huyết mới nóng sốt, mà còn hàng trăm loại bệnh khác. Chẳng may, uống không đúng thuốc, không chỉ làm cho tình trạng bệnh xấu đi, mà còn kéo dài thời gian điều trị, chưa kể đến tác dụng phụ của thuốc.
“AI, bác sĩ mạng, bác sĩ online… có thể sử dụng giống như một công cụ để tham khảo, nhưng hoàn toàn không thể thay thế được chức năng của một bác sĩ. Vì thế, việc tìm hiểu các thông tin về sức khỏe, bệnh lý để nâng cao kiến thức, ngừa bệnh là tốt nhưng không được tự ý điều trị. Tự chẩn đoán rồi mua thuốc về uống, đặc biệt là kháng sinh, có thể dẫn đến kháng thuốc” - bác sĩ Khanh nói thêm.
Bác sĩ Trương Thị Ngọc Lan chia sẻ, thời gian qua, ngành y tế tích cực tuyên tuyền nâng cao nhận thức chăm sóc sức khỏe từ sớm của người dân. Dù vậy, phần lớn người Việt vẫn có thói quen tự lên mạng chẩn đoán và điều trị, trước đây là “bác sĩ Google”, kế đến là “bác sĩ mạng”, rồi AI…
Thực tế, nếu đọc kỹ nội dung mà các ứng dụng AI trả về khi hỏi về bệnh, ở đoạn thông tin cuối cùng, các ứng dụng này đều khuyến cáo người đặt câu hỏi phải đến gặp các chuyên gia y tế để được chẩn đoán và xử trí đúng.
Nhưng vì một lý do nào đó, người bệnh vẫn quyết định tin vào AI. Thậm chí, khi vào khám bệnh, bệnh nhân còn cãi với bác sĩ vì cho rằng AI chẩn đoán bệnh khác, bác sĩ phải phân tích, giải thích rất nhiều lần mới chấp nhận.
Chẩn đoán cho một người bệnh dù là đông hay tây y cũng phải dựa trên khám trực tiếp từng người, chứ tự mua thuốc về uống, hoặc nghe AI không tuân thủ điều trị của bác sĩ sẽ làm bệnh nặng thêm, thậm chí đe đọa tính mạng.
Các chatbot tư vấn sức khỏe sai nhiều hơn đúng Theo một số nghiên cứu trên thế giới, thường thì các lời khuyên về sức khỏe của các chatbot AI cũng có ý đúng nhưng không phản ánh đầy đủ vấn đề, và có thể đưa ra những chẩn đoán không chính xác. Nếu người bệnh quá tin tưởng vào AI sẽ làm lỡ thời gian quan trọng trao đổi bệnh với bác sĩ. Một nghiên cứu từ Đại học Waterloo (Canada) cho thấy, khi chẩn đoán các vấn đề về sức khỏe, các chatbot AI như ChatGPT phiên bản 4 đưa ra nội dung sai nhiều hơn đúng. Cụ thể, khi các nhà nghiên cứu đưa ra một loạt câu hỏi mở thì chỉ có 31% câu trả lời từ ChatGPT được đánh giá là hoàn toàn chính xác. |
Phạm An