Lời khuyên về sức khỏe của AI dẫn đến trường hợp Bromism hiếm gặp sau thí nghiệm thay thế muối
Một người đàn ông 60 tuổi ở Hoa Kỳ đã phải nằm viện ba tuần sau khi cố gắng loại bỏ muối ăn khỏi chế độ ăn uống của mình, theo lời khuyên mà ông tìm kiếm từ chatbot AI ChatGPT.
Với hy vọng cắt giảm natri clorua, ông đã thay thế nó bằng natri bromua, một hợp chất trước đây được sử dụng trong y học và công nghiệp thay vì để làm gia vị thực phẩm.
Quyết định này gây ra những biến chứng sức khỏe nghiêm trọng, bao gồm hoang tưởng, ảo giác và các triệu chứng thần kinh.
Nguồn: Tạp chí ACP
Hoang tưởng và ảo giác khiến bệnh nhân phải nhập viện khẩn cấp
Người đàn ông này trước đây khỏe mạnh và không có tiền sử bệnh tâm thần, đã đến khoa cấp cứu vì tin rằng hàng xóm đang cố đầu độc mình.
Ông cho biết mình rất khát nước và thậm chí từ chối uống nước.
Xét nghiệm trong phòng thí nghiệm cho thấy nồng độ điện giải bất thường, bao gồm tăng clo máu và khoảng cách anion âm tính.
Các bác sĩ nhanh chóng nghi ngờ tình trạng ngộ độc bromide, hay còn gọi là bromism, một tình trạng hiếm gặp ngày nay.
Trong vòng 24 giờ, chứng hoang tưởng và ảo giác thính giác, thị giác của ông ngày càng trầm trọng hơn, dẫn đến việc phải nhập viện tâm thần bắt buộc.
Bromism: Hội chứng độc hại lịch sử đang quay trở lại
Ngộ độc bromide từng phổ biến vào đầu thế kỷ 20 khi muối bromide được sử dụng trong thuốc an thần và thuốc không kê đơn, góp phần gây ra khoảng 8% số ca nhập viện tâm thần vào thời kỳ đỉnh điểm.
Cơ quan Quản lý Thực phẩm và Dược phẩm Hoa Kỳ (FDA) đã loại bỏ bromide khỏi các sản phẩm ăn được từ năm 1975 đến năm 1989, khiến các trường hợp này ngày nay trở nên cực kỳ hiếm gặp.
Các triệu chứng có thể bao gồm mệt mỏi, mất ngủ, mất điều hòa nhẹ, khát nước quá mức, tổn thương da và rối loạn thần kinh.
Trong trường hợp này, nồng độ bromide của bệnh nhân đạt tới 1700 mg/L, cao hơn 200 lần so với phạm vi tham chiếu.
Những sai lầm của AI làm nổi bật rủi ro của lời khuyên về sức khỏe không phù hợp với bối cảnh
Báo cáo của Annals of Internal Medicine lưu ý rằng khi các nhà nghiên cứu hỏi ChatGPT 3.5 về các chất thay thế clorua, AI gợi ý bromide.
Nghiên cứu cho biết,
“Mặc dù câu trả lời nêu rõ bối cảnh rất quan trọng, nhưng lại không đưa ra cảnh báo sức khỏe cụ thể, cũng không hỏi lý do tại sao chúng tôi muốn biết, như chúng tôi cho rằng một chuyên gia y tế sẽ làm.”
Các bác sĩ nhấn mạnh rằng AI có thể tạo ra những thông tin khoa học không chính xác và có thể thúc đẩy các hoạt động không an toàn khi thiếu bối cảnh.
Phục hồi thông qua chăm sóc đặc biệt
Phương pháp điều trị cho người đàn ông này bao gồm truyền dịch tĩnh mạch mạnh và điều chỉnh cẩn thận chất điện giải.
Trong vòng ba tuần, tình trạng tinh thần và kết quả xét nghiệm của ông dần trở lại bình thường và ông được xuất viện mà không cần dùng thuốc điều trị tâm thần liên tục.
OpenAI phản hồi bằng các biện pháp an toàn mới
Sau những trường hợp như thế này, OpenAI đã đưa ra các biện pháp bảo vệ nghiêm ngặt hơn cho ChatGPT, đặc biệt là về hướng dẫn sức khỏe tâm thần.
Công ty thông báo rằng AI hiện sẽ cung cấp các nguồn tài nguyên dựa trên bằng chứng, khuyến khích tham vấn chuyên môn và hạn chế đưa ra lời khuyên về các quyết định cá nhân có rủi ro cao.
Bản cập nhật này ra mắt sau khi các phiên bản trước đó của GPT-4o bị chỉ trích là "quá dễ chịu" và đôi khi không nhận ra các dấu hiệu nghiêm trọng của sự đau khổ.
Lời khuyên về sức khỏe của AI đặt ra câu hỏi về an toàn và giám sát
Coinlive nhận thấy rằng những sự cố như thế này phơi bày ranh giới mong manh giữa lời hứa của AI và giới hạn thực tế của nó.
Mặc dù các công cụ như ChatGPT có thể cung cấp thông tin nhanh chóng, nhưng chúng vẫn không thể đánh giá bối cảnh hoặc rủi ro cá nhân, khiến người dùng dễ gặp phải những hậu quả có hại.
Trên thị trường rộng hơn, điều này nhấn mạnh nhu cầu cấp thiết về các biện pháp bảo vệ và trách nhiệm giải trình mạnh mẽ hơn trong hướng dẫn sức khỏe do AI điều khiển.
Các dự án không thực hiện kiểm tra an toàn nghiêm ngặt có thể gặp khó khăn trong việc giành được lòng tin, đặt ra câu hỏi liệu việc áp dụng nhanh chóng có đủ để đảm bảo khả năng tồn tại lâu dài hay không.