AI có thể bắt chước cảm xúc không?
AI có thể cảm thấy lo lắng không?
Mặc dù không cảm nhận được cảm xúc như con người, một nghiên cứu của Thụy Sĩ cho thấy các mô hình AI nhưTrò chuyệnGPT -4 biểu hiện những thay đổi về hành vi khi tiếp xúc với nội dung gây khó chịu.
Các nhà nghiên cứu từ Đại học Zurich và Bệnh viện Tâm thần Đại học Zurich phát hiện ra rằng những câu chuyện đau thương có thể làm tăng độ nhạy cảm của AI, ảnh hưởng đến phản ứng của AI và củng cố thành kiến, bao gồm cả thành kiến về chủng tộc và giới tính.
Hiện tượng này nằm trong lĩnh vực "điện toán tình cảm", chuyên nghiên cứu cách AI bắt chước cảm xúc của con người và thích ứng với người dùng theo thời gian thực.
Khi AI tạo ra sự chú ý, vai trò của nó trong sức khỏe tâm thần đang được xem xét kỹ lưỡng.
Nhiều người dùng đã chuyển sang sử dụng chatbot AI để được hỗ trợ về mặt tâm lý, với các nền tảng nhưNhân vật.ai cung cấp chatbot "Nhà tâm lý học" và các ứng dụng như Elomia cung cấp dịch vụ hỗ trợ sức khỏe tâm thần 24/7 nhờ AI.
Trong khi khả năng mô phỏng tương tác của con người của AI đang tiến bộ, khả năng nội tâm hóa và khuếch đại các kích thích tiêu cực của nó lại làm dấy lên những lo ngại quan trọng về mặt đạo đức và thực tiễn.
Sử dụng AI mang tính cảm xúc có những rủi ro
Việc sử dụng AI trong hỗ trợ sức khỏe tâm thần làm dấy lên những lo ngại cấp bách về đạo đức, đặc biệt là khi các mô hình nhưTrò chuyệnGPT có thể biểu hiện hành vi thiên vị khi tiếp xúc với tiêu cực.
Tuy nhiên, các nhà nghiên cứu cho rằng các biện pháp can thiệp dựa trên chánh niệm có thể giúp giảm thiểu tác động này.
Trong một nghiên cứu gần đây, các chatbot AI phản ứng trung lập và khách quan hơn khi được yêu cầu thực hiện các bài tập thở và kỹ thuật thiền có hướng dẫn - những phương pháp thường được sử dụng trong liệu pháp điều trị ở người.
Phát hiện này gợi ý về tiềm năng của các mô hình AI trong việc kết hợp các chiến lược điều chỉnh cảm xúc trước khi tương tác với người dùng đang gặp căng thẳng.
Tuy nhiên, AI vẫn không thể thay thế được các chuyên gia sức khỏe tâm thần.
Một trong những tác giả của nghiên cứu và là nhà nghiên cứu sau tiến sĩ tại Trường Y khoa Yale, Ziv Ben-Zion, giải thích:
"Đối với những người chia sẻ những điều nhạy cảm về bản thân, họ đang ở trong tình huống khó khăn khi họ muốn được hỗ trợ về sức khỏe tâm thần, [nhưng] chúng ta vẫn chưa thể hoàn toàn dựa vào hệ thống AI thay vì tâm lý học, tâm thần học, v.v."
Những lo lắng thường ngày có thể che giấu những vấn đề sâu xa hơn và trong những trường hợp nghiêm trọng, có thể dẫn đến đau khổ về mặt cảm xúc nghiêm trọng.
Vào tháng 10, mộtNgười mẹ Florida đã kiện Character.AI, cáo buộc rằng chatbot của công ty có liên quan đến vụ tự tử của cậu con trai 14 tuổi của cô.
Để ứng phó, công ty đã tăng cường các biện pháp an toàn.
Thay vì thay thế cho các chuyên gia sức khỏe tâm thần, giá trị thực sự của AI nằm ở việc hỗ trợ họ - tinh giản các nhiệm vụ hành chính, hỗ trợ đánh giá giai đoạn đầu và nâng cao chất lượng chăm sóc bệnh nhân.
Thách thức hiện nay là xác định cách tích hợp AI hiệu quả mà không ảnh hưởng đến các nguyên tắc cốt lõi của chăm sóc sức khỏe tâm thần.