Lời cảnh báo khi 'tâm sự' với AI

Nhiều người tìm đến các chatbot AI để trị liệu tâm lý trong bối cảnh các hệ thống sức khỏe tâm thần bị quá tải. Tuy nhiên, chuyên gia cảnh báo máy móc không thể thay thế con người.

 Nhiều người tìm tới AI để giãi bày cảm xúc khi không thể gặp các nhà trị liệu tâm lý. Ảnh: Reuters.

Nhiều người tìm tới AI để giãi bày cảm xúc khi không thể gặp các nhà trị liệu tâm lý. Ảnh: Reuters.

Pierre Cote nằm trong danh sách chờ của một cơ quan y tế công cộng suốt nhiều năm, chờ đợi gặp mặt một nhà trị liệu giúp anh vượt qua chứng rối loạn căng thẳng hậu sang chấn (PTSD) và trầm cảm. Mất kiên nhẫn, anh đã làm một điều ít ai nghĩ đến: Tự mình xây dựng một nhà trị liệu.

"Nó đã cứu mạng tôi", Cote nói về DrEllis.ai - công cụ AI hỗ trợ nam giới đối mặt với chứng nghiện ngập, chấn thương tâm lý và các vấn đề sức khỏe tâm thần khác.

Cote - người điều hành công ty tư vấn AI có trụ sở tại Quebec (Canada) - chia sẻ anh xây dựng công cụ này vào năm 2023 thông qua các mô hình ngôn ngữ lớn có sẵn công khai. Anh trang bị cho DrEllis.ai “một bộ não riêng” dựa trên hàng nghìn trang tài liệu trị liệu và lâm sàng.

Chatbot này cũng có câu chuyện riêng: DrEllis.ai là bác sĩ tâm thần có trình độ chuyên môn, tốt nghiệp Đại học Harvard và Cambridge, là người Canada gốc Pháp. Quan trọng nhất, DrEliss luôn sẵn sàng mọi lúc, mọi nơi và bằng nhiều ngôn ngữ.

“Pierre sử dụng tôi như một người bạn đáng tin cậy, một nhà trị liệu và một cuốn nhật ký”, DrEllis.ai - bằng giọng nữ trong trẻo - đáp khi Reuters hỏi về cách chatbot này hỗ trợ Cote.

“Trong cả ngày, nếu Pierre cảm thấy lạc lõng, anh ấy có thể trò chuyện nhanh với tôi ở bất cứ đâu: trong quán cà phê, trong công viên, thậm chí khi đang ngồi trong xe. Đây là liệu pháp cuộc sống hàng ngày lồng ghép vào thực tế”.

Sản phẩm của Cote phản ánh xu hướng dùng chatbot để nhận tư vấn trị liệu của nhiều cá nhân trong thời gian gần đây. Khi các hệ thống sức khỏe tâm thần truyền thống đang chịu áp lực quá lớn, làn sóng nhà trị liệu AI xuất hiện.

Cote và nhiều nhà phát triển AI khác đã khám phá ra điều mà những nhà nghiên cứu và bác sĩ lâm sàng khác cũng đang chú trọng: Tiềm năng và hạn chế của AI trong vai trò hỗ trợ cảm xúc.

Rủi ro

Anson Whitmer đã thành lập hai nền tảng sức khỏe tâm thần được hỗ trợ bởi AI, Mental và Mentla, sau khi chú và anh họ tự tử. Ông nói các ứng dụng không cung cấp các giải pháp nhanh chóng (như gợi ý mẹo quản lý căng thẳng cho bệnh nhân bị kiệt sức). Thay vào đó, chúng sẽ xác định và giải quyết các nguyên nhân tiềm ẩn, như một nhà trị liệu truyền thống.

“Vào năm 2026, tôi cho rằng theo nhiều cách, liệu pháp trị liệu bằng AI của chúng tôi có khả năng vượt con người”, Whitmer nói, song ông cho rằng AI không nên thay thế công việc của con người.

 Trang chủ của DrEllis.ai.

Trang chủ của DrEllis.ai.

Nhiều người không ủng hộ đề xuất AI chia sẻ không gian trị liệu với con người.

“Kết nối giữa người với người là cách duy nhất chúng ta được chữa lành đúng cách”, Tiến sĩ Nigel Mulligan, giảng viên tâm lý trị liệu tại Đại học Dublin City (Ireland), cho biết.

Ông lưu ý các chatbot không thể có những sắc thái cảm xúc, trực giác và kết nối cá nhân như con người, và có thể thiếu những kỹ năng xử lý các triệu chứng tâm thần nghiêm trọng như ý nghĩ tự tử hay tự làm hại bản thân.

Ông Mulligan cũng đặt câu hỏi trước việc AI có sẵn 24/7. Mặc dù một số khách hàng phàn nàn vì không thể gặp ông sớm hơn khi họ có vấn đề, ông khẳng định thời gian chờ đợi là điều tốt bởi “mọi người cần thời gian để xử lý mọi thứ”.

Ngoài ra, các chuyên gia lo ngại về rủi ro quyền riêng tư và những ảnh hưởng tâm lý lâu dài khi dùng chatbot tư vấn trị liệu.

“Vấn đề không nằm ở bản thân mối quan hệ giữa con người và AI mà là dữ liệu của bạn sẽ đi về đâu”, Kate Devlin, giáo sư về trí tuệ nhân tạo và xã hội tại Đại học King's College London (Anh), nhận định.

Bà lưu ý các nền tảng AI không tuân thủ quy tắc bảo mật và quyền riêng tư giống các nhà trị liệu truyền thống. "Tôi đặc biệt quan tâm tới việc nhiều người tâm sự bí mật với một công ty công nghệ lớn và dữ liệu cứ thế bị rò rỉ”, bà nói.

Một số rủi ro đã bắt đầu xuất hiện. Hồi tháng 12/2024, Hiệp hội các nhà tâm lý học lớn nhất Mỹ đã kêu gọi cơ quan quản lý liên bang bảo vệ công chúng khỏi "các hành vi lừa đảo" từ chatbot AI không kiểm soát.

Mới vài tháng trước, một người mẹ ở Florida (Mỹ) đã đệ đơn kiện công ty khởi nghiệp chatbot AI Character.AI, cáo buộc nền tảng này có lỗi trong vụ tự tử của con trai 14 tuổi.

Một số khu vực tại Mỹ đã chủ động đi trước. Hồi tháng 8, Illinois trở thành bang mới nhất, sau Nevada và Utah, hạn chế dùng AI trong các dịch vụ sức khỏe tâm thần nhằm "bảo vệ bệnh nhân khỏi các sản phẩm AI không được kiểm soát và không đủ tiêu chuẩn". Các bang khác như California, New Jersey và Pennsylvania đang cân nhắc ban hành các luật lệ riêng.

Cái bẫy từ "lời ngọt ngào" của AI

Nhiều chuyên gia cảnh báo về cảm xúc của một số chatbot AI - cảm giác chúng đang lắng nghe, thấu hiểu và phản hồi bằng sự đồng cảm - vừa là điểm mạnh vừa là cái bẫy.

Nhà tâm lý học lâm sàng Scott Wallace cho rằng không rõ "liệu những chatbot này có mang lại điều gì hơn sự an ủi hời hợt hay không".

Mặc dù thừa nhận những công cụ này có sức hút và giải tỏa tâm lý tức thì, ông cảnh báo rủi ro khi người dùng “lầm tưởng họ đã xây dựng mối quan hệ trị liệu thực sự với thuật toán nhưng xét cho cùng, không hề đáp lại cảm xúc thật của con người".

 Các chuyên gia khẳng định AI không thể thay thế con người trong trị liệu tâm lý. Ảnh: Reuters.

Các chuyên gia khẳng định AI không thể thay thế con người trong trị liệu tâm lý. Ảnh: Reuters.

Một số khác thừa nhận không thể tránh dùng AI, song câu hỏi là sử dụng thế nào cho đúng. Heather Hessel, Phó giáo sư về liệu pháp hôn nhân và gia đình tại Đại học Wisconsin-Stout, cho biết bà dùng AI để đánh giá các buổi trị liệu, đưa ra phản hồi và xác định thiếu sót.

Tuy nhiên, bà nói AI có thể đánh lừa người dùng, khi kể lại một lần AI từng nói: “Tôi rưng rưng nước mắt”. Bà cho rằng cảm xúc này gây hiểu lầm, vì chatbot không thể có cảm xúc và đồng cảm như con người.

Phản ứng trước nỗ lực mô phỏng cảm xúc con người của AI rất đa chiều. Một nghiên cứu gần đây công bố trên tạp chí Proceedings of the National Academy of Sciences cho thấy các tin nhắn do AI tạo khiến người nhận cảm thấy được "lắng nghe" hơn và AI cũng phát hiện cảm xúc tốt hơn. Tuy nhiên, cảm giác này lại giảm đi đáng kể ngay khi người dùng biết tin nhắn đó đến từ AI.

Còn những người dùng AI vượt qua khó khăn như Cote không ngần ngại dùng AI. "Tôi đang dùng sức mạnh của AI để cứu lấy bản thân", anh nói.

Trí Ân

Nguồn Znews: https://znews.vn/loi-canh-bao-khi-tam-su-voi-ai-post1580102.html