Bản tin công nghệ ngày 15.10, ChatGPT nới nội dung 'người lớn', Meta kiểm soát nội dung với thiếu niên

OpenAI sẽ cho phép nội dung trưởng thành trên ChatGPT dành cho người dùng xác minh độ tuổi; trong khi Meta AI siết kiểm soát nội dung cho thanh thiếu niên.

Cần giữ môi trường ảo trong sạch cho mọi người.

Cần giữ môi trường ảo trong sạch cho mọi người.

Chat GPT nới nội dung cho người trưởng thành

OpenAI sẽ cho phép người dùng ChatGPT truy cập nội dung trưởng thành (mature content) nếu họ xác minh được độ tuổi của mình trên nền tảng, bắt đầu từ tháng 12 tới, Giám đốc điều hành Sam Altman cho biết. Động thái này được công bố sau khi ChatGPT trước đó đã thắt chặt quy định đối với người dùng gặp vấn đề tâm lý hoặc đang trong trạng thái tinh thần nhạy cảm.

Altman viết trên nền tảng X (Twitter) hôm 14.10: “Khi chúng tôi triển khai hệ thống xác minh độ tuổi toàn diện hơn và theo nguyên tắc ‘đối xử với người trưởng thành như những người trưởng thành thực sự’, chúng tôi sẽ cho phép nhiều nội dung hơn — bao gồm cả nội dung khiêu dâm dành cho người đã xác minh độ tuổi”.

Altman cho biết, OpenAI hiện đã kiểm soát tốt hơn các vấn đề sức khỏe tâm thần và sở hữu các công cụ an toàn mới, do đó công ty có thể nới lỏng các giới hạn nội dung trong phần lớn trường hợp mà vẫn đảm bảo an toàn.

Trong vài tuần tới, OpenAI sẽ tung ra phiên bản ChatGPT mới, cho phép người dùng tùy chỉnh giọng điệu và tính cách của chatbot một cách tự do hơn.

Altman cho biết thêm: “Nếu bạn muốn ChatGPT phản hồi theo phong cách rất ‘người’, hoặc dùng nhiều biểu tượng cảm xúc, hay thậm chí trò chuyện như một người bạn — ChatGPT sẽ có thể làm điều đó (nhưng chỉ khi bạn muốn, chứ không phải vì chúng tôi muốn tăng lượt sử dụng)”.

Meta siết kiểm soát nội dung cho thanh thiếu niên

Cũng trong ngày 14.10, Meta – công ty mẹ của Instagram – đã công bố hệ thống giới hạn nội dung mới dành cho người dùng dưới 18 tuổi, lấy cảm hứng từ hệ thống phân loại phim PG-13 của Hiệp hội Điện ảnh Mỹ (MPA).

Theo Meta, Instagram sẽ hạn chế các bài đăng có ngôn ngữ mạnh, hành động nguy hiểm, nội dung gợi ý về ma túy hoặc các chủ đề trưởng thành khác. Quy định tương tự cũng sẽ được áp dụng cho các công cụ AI tạo nội dung của Meta.

Động thái này đến sau hàng loạt chỉ trích và kiện tụng từ các tổ chức bảo vệ trẻ em, cho rằng Meta không đủ nỗ lực bảo vệ người dùng vị thành niên và đã gây tổn hại tâm lý cho họ thông qua các nền tảng mạng xã hội.

Một báo cáo hồi tháng 9 cho thấy nhiều tính năng an toàn trên Instagram hoạt động kém hiệu quả hoặc không tồn tại, trong khi điều tra của Reuters tháng 8 tiết lộ Meta đã cho phép hành vi “tán tỉnh” hoặc “gợi cảm” của chatbot trên nền tảng.

Theo Meta, tất cả tài khoản thanh thiếu niên sẽ tự động được đặt ở chế độ PG-13 và phụ huynh có thể siết chặt hơn bằng tùy chọn “giới hạn nội dung”. Người dùng trẻ cũng sẽ bị ngăn tương tác với các tài khoản chia sẻ nội dung không phù hợp độ tuổi.

Meta viết trong thông cáo: “Chúng tôi hy vọng bản cập nhật này sẽ giúp phụ huynh yên tâm hơn. Chúng tôi hiểu rằng thanh thiếu niên có thể cố gắng vượt qua các hạn chế này, vì vậy chúng tôi sẽ sử dụng công nghệ dự đoán độ tuổi để tự động kích hoạt các biện pháp bảo vệ, ngay cả khi người dùng khai gian tuổi”.

Trước đó vào tháng 8, Meta đã bổ sung các biện pháp an toàn cho thanh thiếu niên trong sản phẩm AI, huấn luyện hệ thống để tránh các cuộc trò chuyện mang tính tán tỉnh, tự tổn thương hay tự sát. Những thay đổi này tiếp nối cải tổ toàn diện năm ngoái nhằm tăng quyền riêng tư và công cụ kiểm soát của phụ huynh.

Các thiết lập mới dự kiến được triển khai tại Mỹ, Anh, Úc và Canada trước khi mở rộng toàn cầu vào cuối năm nay. Đồng thời, Meta cũng sẽ áp dụng các biện pháp tương tự cho người dùng trẻ trên Facebook.

Động thái này diễn ra trong bối cảnh Meta, TikTok và YouTube đang phải đối mặt với hàng trăm vụ kiện từ phụ huynh và học khu ở Mỹ, cáo buộc các nền tảng này gây nghiện và gây hại cho sức khỏe tinh thần trẻ em.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/ban-tin-cong-nghe-ngay-15-10-chatgpt-noi-noi-dung-nguoi-lon-meta-kiem-soat-noi-dung-voi-thieu-nien-238870.html