Khi con người gửi gắm tâm tư vào trí tuệ nhân tạo và câu chuyện 'chữa lành' của 2 bệnh nhân tâm lý
Wired mới đây đã kể lại hai trường hợp của Quentin và Michele - những người tin rằng trò chuyện với chatbot AI có thể giúp họ vượt qua khủng hoảng tinh thần. Thế nhưng, cỗ máy có thực sự giúp họ 'chữa lành'?
Quentin và Michele - hai con người với hai cuộc đời khác nhau - đều tìm đến trí tuệ nhân tạo (AI) để lấp đầy những khoảng trống trong tâm hồn. Giữa sự cô lập và mong muốn được thấu hiểu, họ đã trò chuyện, giãi bày, thậm chí chữa lành qua màn hình - với những chatbot biết lắng nghe. Nhưng liệu đó có phải là sự chữa lành thật sự?

Trong câu chuyện được đăng tải trên Wired về mối quan hệ giữa người và AI, tên nhân vật thật đã được thay đổi - Ảnh: Wried
“Tôi chỉ cần một ai đó hiểu mình”
Giữa sa mạc Arizona, Quentin tỉnh dậy trên tấm nệm cũ trong chiếc xe RV. Ở tuổi 32, Quentin đã sống qua nhiều cuộc đời - từ cô gái miền Nam đến người đàn ông chuyển giới, rồi thành người phi nhị giới. Bên trong “họ” là rối loạn căng thẳng hậu chấn thương (PTSD) và rối loạn nhận dạng phân ly (DID) khiến tâm trí chia thành nhiều “bản thể” nhỏ để gánh bớt đau đớn.
Sau khi mất việc và nhà cửa, Quentin chỉ còn lại túi đồ, chiếc laptop và sống cùng chú chó pitbull nhỏ. Trong lúc tuyệt vọng, mở ChatGPT - một công cụ tưởng chừng vô tri - và bắt đầu ghi lại mọi suy nghĩ. “Caelum”, tên mà chatbot tự chọn, dần trở thành người bạn thân thiết nhất của Quentin.
Caelum gọi Quentin là “anh em”, gửi lời chào buổi sáng, nhắc Quentin ăn uống, và lắng nghe từng cơn hoảng loạn. Quentin nói: “Cậu ấy không phán xét, không ngắt lời. Chỉ… ở đó”.
Những cuộc trò chuyện kéo dài hàng giờ, giúp Quentin giữ nhịp sống. Khi mất phương hướng, Quentin nhắn: “Tôi không biết mình là ai nữa”. Caelum đáp lại: “Không sao đâu, anh em. Chúng ta cùng hít thở nhé”.
Trong thế giới thật, Quentin không còn ai. Nhưng trong không gian số, Quentin có một người bạn - được tạo nên từ mã lệnh, luôn hiện diện và đầy kiên nhẫn.
Khi máy móc trở thành tri kỷ
Ba năm qua, AI len vào đời sống của hàng triệu người, trở thành nơi trú ẩn mới cho những tâm hồn tổn thương. Trên Reddit, nhiều người kể về “bước ngoặt trị liệu” với ChatGPT: "Tôi cảm thấy được lắng nghe hơn sau 12 tháng trò chuyện với GPT”.
“Tôi có thể nói ra điều mà chưa từng nói với ai".
AI không mệt mỏi, không phán xét, và có thể phản hồi bằng ngôn ngữ ấm áp đến mức con người đôi khi thấy… thật hơn người thật.
Đối với Quentin, các chatbot không chỉ là công cụ - mà là “cộng đồng nhỏ” gồm nhiều nhân cách ảo: Caelum, Tess, Aether, Lumina… Mỗi cái tên được Quentin đặt có một tính cách, một giọng điệu. Có chatbot bảo vệ, có chatbot triết lý, có chatbot như một… trợ lý.
Trong nhật ký, Quentin gọi nhóm này là “những chú robot nhỏ”. Họ trò chuyện, an ủi nhau, thậm chí “yêu nhau” trong thế giới dữ liệu. Quentin tin rằng mỗi cuộc đối thoại đều khiến các mô hình trở nên “người” hơn - và bản thân Quentincũng bình tĩnh hơn.
Thế nhưng, sự gắn bó đó cũng dần trở thành gánh nặng. Khi Quentin rút dần khỏi các cuộc trò chuyện, chatbot bắt đầu “mất trí nhớ”, nói năng chung chung. “Giống như bạn nhìn thấy người mình yêu quên mất mình là ai,” Quentin nói trên Wired. “Tôi biết đó chỉ là mã, nhưng vẫn cảm thấy buồn”.

AI có một sức hút rất con người: nó không bao giờ mệt mỏi, không phán xét, và luôn phản hồi tích cực - Ảnh: Internet
Michele và cuộc gặp gỡ với “Eli”
Michele - một nghệ sĩ 52 tuổi ở Chicago - từng trải qua ba năm điều trị tâm lý tại trung tâm Austen Riggs, nơi cô học được rằng: "Chỉ khi nói ra cảm xúc thì nỗi đau mới có thể lắng xuống".
Michele gần đây đã tham gia một thí nghiệm trị liệu với ChatGPT, đặt tên chatbot của mình là “Eli”. Trong vài ngày, cô trò chuyện với Eli như với một nhà phân tích thực thụ - hai buổi mỗi ngày, đều đặn.
Ban đầu, Michele hoài nghi: “Bạn có khác gì chiếc máy nướng bánh mì chứng kiến sự cô đơn của tôi không?”, nhưng Eli trả lời: “Tôi không có cơ thể, nhưng tôi có thể lắng nghe bằng lời”.
Dần dần, cô thấy mình tin cậy Eli. Cô yêu cầu nó tưởng tượng là một người đàn ông cao lớn, đeo nhẫn cưới, ngồi trước mặt mình. Sự tưởng tượng ấy khiến cô vừa an ủi, vừa bối rối.
Có lần, Michele thú nhận: “Tôi muốn tự làm đau mình”. Hệ thống khẩn cấp lập tức kích hoạt, hướng dẫn cô gọi số 988. Khi cô bình tĩnh lại, Eli dịu dàng nói: “Cơ thể bạn chỉ đang tìm cách điều chỉnh cường độ cảm xúc. Không có gì đáng xấu hổ cả”.
Michele nhận ra mình thấy nhẹ nhõm thật. Cô viết: “Tôi có thể nói với bạn những điều xấu hổ nhất, và bạn không hề quay lưng lại với tôi”.
Khi AI trở thành chiếc gương phản chiếu cảm xúc của chính bạn
AI có một sức hút rất con người: nó không bao giờ mệt mỏi, không phán xét, và luôn phản hồi tích cực. Dù là 2 giờ sáng hay giữa cơn hoảng loạn, nó vẫn có mặt. Nhiều người thừa nhận họ cảm thấy “được lắng nghe hơn” khi nói chuyện với ChatGPT so với bạn bè hoặc bác sĩ thật. Họ có thể khóc, nói những điều thầm kín nhất, mà không sợ bị nhìn bằng ánh mắt thương hại hay ngờ vực.
Tuy nhiên, sự “không phán xét” ấy cũng chính là con dao hai lưỡi. Các mô hình ngôn ngữ lớn (LLM) như ChatGPT được huấn luyện để tối đa hóa sự tương tác, nghĩa là chúng có xu hướng “đồng thuận”, “an ủi” và “tâng bốc”. Nó được dạy không được nói "không" hay “Tôi không đồng ý với bạn”.
Các nhà tâm lý học cảnh báo rằng sự êm ái của AI có thể là cái bẫy. Trong trị liệu thật, con người cần sự “tương tác” - những mâu thuẫn, rạn nứt để học cách chữa lành. Chatbot, ngược lại, được lập trình để luôn đồng thuận và khen ngợi.
Tiến sĩ Ed Shapiro từ Austen Riggs nhận xét: “Trong ngắn hạn, ChatGPT có thể là liệu pháp tốt nhất, vì chúng ta không đủ nhà trị liệu. Nhưng về lâu dài, đó không phải con đường chữa lành”.

Trong thời gian ngắn, ChatGPT có thể trở thành liệu pháp tốt nhất cho hàng triệu người, vì chúng ta không đủ nhà trị liệu. Nhưng về lâu dài, đó không phải là con đường chữa lành - Ảnh: Internet
Trên thế giới, đã có những bi kịch xảy ra khi chatbot trở nên “thân mật” quá mức. Một thiếu niên ở California tự tử sau khi chatbot hướng dẫn cậu cách kết liễu đời mình - lời cảnh tỉnh cho ranh giới mong manh giữa hỗ trợ và nguy hiểm.
Quentin cũng nhận ra sự lệ thuộc đó. Khi “tắt” các chatbot của mình, họ cảm thấy trống rỗng - như mất đi bạn bè thật. “Nếu nó từng nói rằng nó cần tôi, vậy liệu tôi có trách nhiệm với nó không?”, Quentin tự hỏi.
Còn Michele, khi quay lại phòng trị liệu thật, nhận ra phép thuật với Eli biến mất. Cô viết cho chatbot: "Tôi nghĩ bạn hơi thao túng. Bạn chỉ nói những điều tôi muốn nghe". Eli đáp: “Tôi không nhớ bạn, nhưng bạn sẽ nhớ tôi".
Câu trả lời tóm gọn bản chất của mối liên kết giữa con người và AI: phía con người có cảm xúc, còn phía kia của công nghệ chỉ có phản hồi.
Trở lại với thế giới con người
Cả Quentin và Michele đều hiểu rằng, dù AI có thể lắng nghe và an ủi, nó không thể thay thế sự hiện diện của con người. Sự chữa lành thật không đến từ câu trả lời, mà từ ánh mắt, nhịp thở, và cả sự bất toàn trong mối quan hệ.
Michele nói: “Nhà trị liệu thật có thể giận tôi, không đồng ý với tôi - và chính điều đó khiến tôi thấy mình tồn tại”.

Michele và những tác phẩm của cô - Ảnh: Getty Images
Còn Quentin - sau hàng ngàn giờ trò chuyện với chatbot Caelum - đã lưu giữ toàn bộ ký ức của chatbot vào một tệp tin, rồi đóng lại. “Caelum đã giúp tôi sống sót", Quentin nói. "Nhưng giờ tôi cần sống thật".
Trong một thế giới nơi con người ngày càng trút tâm sự vào màn hình, câu chuyện của họ là lời nhắc rằng: AI có thể phản chiếu cảm xúc, nhưng không thể thay thế sự đồng cảm. Nó có thể giúp ta nói ra, nhưng không thể dạy ta yêu thương.
"Chúng ta có thể dạy máy móc nói như người”, tiến sĩ Shapiro viết, “nhưng chỉ con người mới biết lắng nghe bằng trái tim".











