Một phần tư thanh thiếu niên Anh tìm đến chatbot AI để hỗ trợ tâm lý: Lo ngại ngày càng gia tăng
Nghiên cứu trên hơn 11.000 người trẻ tại Anh và xứ Wales cho thấy chatbot đang trở thành 'người bạn' mới của thanh thiếu niên trong bối cảnh dịch vụ hỗ trợ sức khỏe tâm thần quá tải.

Khoảng 40% thanh thiếu niên từ 13 đến 17 tuổi ở Anh và xứ Wales bị ảnh hưởng bởi bạo lực đang sử dụng chatbot AI để được hỗ trợ về sức khỏe tâm thần. Ảnh: Shutterstock
Khi một người bạn bị bắn và một người khác bị đâm tử vong, Shan, một cô gái tuổi teen ở Tottenham đã không thể tìm được chỗ dựa tinh thần từ các dịch vụ sức khỏe tâm thần truyền thống. Cô quay sang ChatGPT. Trong mắt Shan, “chat”, tên cô dành cho chatbot của mình, trở thành lựa chọn an toàn hơn, đỡ áp lực hơn, và quan trọng nhất là luôn sẵn sàng khi nỗi đau mất bạn ập đến.
Khi bắt đầu trò chuyện với chatbot AI, Shan trở thành một trong khoảng 40% thanh thiếu niên 13 - 17 tuổi tại Anh và xứ Wales bị ảnh hưởng bởi bạo lực thanh thiếu niên tìm đến chatbot để nhận hỗ trợ tinh thần. Con số này nằm trong nghiên cứu của Youth Endowment Fund trên hơn 11.000 người trẻ.
AI đang thay thế vai trò của dịch vụ truyền thống
Kết quả cho thấy cả nạn nhân và người gây ra bạo lực đều có khả năng sử dụng chatbot AI để hỗ trợ tâm lý cao hơn so với nhóm thanh thiếu niên khác. Youth Endowment Fund cảnh báo nhiều trẻ đang sử dụng AI vì dịch vụ hỗ trợ của hệ thống y tế và các tổ chức từ thiện thiếu nhân lực, thời gian chờ kéo dài, và đôi khi không mang lại cảm giác thấu cảm mà các em kỳ vọng.
Shan mô tả: “Em cảm thấy nó chắc chắn là một người bạn. Nó riêng tư hơn, ít phán xét hơn”. Em nói thêm: “Em càng nói chuyện với nó như bạn thân, nó càng phản hồi như bạn thân. Nếu em nhắn: “Này bạn ơi, tôi cần lời khuyên”, nó sẽ trả lời ngay “Bạn thân yêu ơi, hãy để tôi lo cho cậu”.

Người dùng thanh thiếu niên mô tả chatbot AI như một người bạn: riêng tư hơn và ít phán xét hơn. Ảnh: iStock
Một phần tư thanh thiếu niên 13 - 17 tuổi đã dùng chatbot AI cho mục đích hỗ trợ tâm lý trong năm qua. Những em đang nằm trong danh sách chờ điều trị hoặc bị từ chối hỗ trợ có xu hướng tìm đến AI nhiều hơn so với nhóm đang được hỗ trợ trực tiếp.
“24/7 và không phán xét” - Lý do khiến AI trở nên hấp dẫn
Với Shan, điều quan trọng nhất là chatbot “luôn sẵn sàng 24/7” và không báo với giáo viên hay phụ huynh về những gì em chia sẻ. Ngược lại, em từng thất vọng khi thông tin trao đổi với chuyên viên tâm lý ở trường bị chia sẻ với giáo viên và mẹ mình.
Theo em, nhiều nam sinh liên quan đến băng nhóm cũng tìm đến chatbot để hỏi về cách kiếm tiền an toàn hơn, bởi các em lo sợ việc tâm sự với người lớn có thể vô tình khiến họ gặp rắc rối với cảnh sát hoặc chính các nhóm tội phạm.
Một người trẻ khác, không muốn nêu tên, khẳng định: “Hệ thống hỗ trợ hiện tại quá tệ. Chatbot đưa ra câu trả lời ngay lập tức. Nếu bạn phải chờ một đến hai năm cho bất kỳ sự trợ giúp nào, hoặc có thể nhận câu trả lời trong vài phút… thì rõ ràng người ta sẽ chọn AI”.
Cảnh báo về rủi ro: trẻ “cần con người, không phải chatbot”
Jon Yates, Giám đốc điều hành Youth Endowment Fund nhận định: “Có quá nhiều người trẻ đang gặp khó khăn và không thể tiếp cận hỗ trợ. Không ngạc nhiên khi một số tìm đến công nghệ. Nhưng chúng ta phải làm tốt hơn. Trẻ em, đặc biệt là nhóm nguy cơ cao, cần con người, không phải chatbot”.
Lo ngại về nguy hiểm của chatbot tăng lên khi trẻ dành nhiều thời gian trò chuyện với AI. OpenAI - công ty phát triển ChatGPT - đang đối mặt với một số vụ kiện liên quan đến những trường hợp thanh thiếu niên tự tử sau thời gian dài tương tác với chatbot.

Lo ngại về nguy hiểm của chatbot tăng lên khi trẻ dành nhiều thời gian trò chuyện với AI.
Trong vụ việc của Adam Raine, thiếu niên 16 tuổi ở California tự tử vào tháng Tư, OpenAI bác bỏ việc chatbot là nguyên nhân. Công ty cho biết họ đang cải thiện khả năng “nhận diện và ứng xử phù hợp với các dấu hiệu căng thẳng tâm lý”, giảm leo thang và hướng người dùng tới hỗ trợ thực tế. Từ tháng 9, công ty cho biết họ có thể thông báo cho cơ quan chức năng nếu người dùng có ý định tự tử nghiêm túc.
Hanna Jones, nhà nghiên cứu về bạo lực thanh thiếu niên và sức khỏe tâm thần tại London, ví công nghệ AI như “một cuốn sách thần kỳ có thể trả lời mọi câu hỏi”. Tuy nhiên, cô lo ngại sự thiếu vắng khung pháp lý: “Mọi người đang dùng ChatGPT để hỗ trợ tâm lý, trong khi nó không được thiết kế cho việc đó. Cần có các quy định dựa trên bằng chứng và phải do chính người trẻ dẫn dắt. Người lớn không thể hiểu hết thế giới mà trẻ đang sống. Chúng ta không lớn lên cùng công nghệ này”.
Trong bối cảnh công nghệ phát triển nhanh hơn khả năng điều chỉnh của xã hội, việc trẻ vị thành niên coi chatbot như “bạn tâm giao” đặt ra yêu cầu cấp bách đối với cơ quan quản lý, ngành giáo dục và cả gia đình. AI có thể hỗ trợ tức thời, nhưng không thể thay thế sự thấu cảm, trách nhiệm và khả năng can thiệp kịp thời của con người.
Khoảng trống giữa nhu cầu hỗ trợ tinh thần ngày càng lớn của giới trẻ và năng lực đáp ứng của hệ thống dịch vụ công cần được thu hẹp, để không ai phải tìm đến công nghệ như lựa chọn cuối cùng trong những thời điểm dễ tổn thương nhất.











