Quản trị AI để không nhân rộng bất bình đẳng giới

AI đang thâm nhập sâu vào đời sống. Nhưng nếu thiếu kiểm soát, công nghệ này có thể tái tạo định kiến giới, làm gia tăng bất bình đẳng và rủi ro xã hội.

 Bà Vũ Thị Hạnh (Viettel AI) chia sẻ về bất bình đẳng giới trên không gian số

Bà Vũ Thị Hạnh (Viettel AI) chia sẻ về bất bình đẳng giới trên không gian số

Khi trí tuệ nhân tạo không còn trung lập

Trí tuệ nhân tạo đang ngày càng hiện diện sâu rộng trong đời sống kinh tế - xã hội, từ tuyển dụng nhân sự, chấm điểm tín dụng, hỗ trợ chăm sóc sức khỏe đến sáng tạo nội dung. Trong nhiều trường hợp, AI được xem như một “trợ lý số” hiệu quả, giúp tối ưu chi phí, nâng cao năng suất và cải thiện chất lượng ra quyết định. Tuy nhiên, đằng sau những lợi ích đó là một rủi ro ngày càng rõ nét: nguy cơ gia tăng bất bình đẳng giới, nếu các hệ thống AI được huấn luyện và vận hành trên nền dữ liệu phản chiếu một xã hội vốn còn nhiều định kiến.

Khi dữ liệu đầu vào mang định kiến, AI không còn giữ vai trò trung lập. Ngược lại, công nghệ này có thể vô tình trở thành công cụ củng cố, thậm chí hợp thức hóa các khuôn mẫu giới, tạo ra nội dung mang tính phân biệt, hạ thấp hoặc khinh miệt phụ nữ, nhưng với hình thức tinh vi và khó nhận diện hơn.

Nghiên cứu của UNESCO cho thấy, trong nhiều mô hình ngôn ngữ lớn hiện nay, phụ nữ thường bị gắn với các vai trò chăm sóc, nội trợ hoặc công việc “hậu trường”, trong khi nam giới lại được liên kết với quyền lực, lãnh đạo và các ngành nghề kỹ thuật. Thiên lệch này không chỉ tồn tại trong văn bản, mà còn bộc lộ rõ trong các công cụ tạo ảnh bằng AI như Stable Diffusion hay Midjourney.

Một nghiên cứu công bố tháng 3/2025 cho thấy, hình ảnh nam giới do AI tạo ra xuất hiện áp đảo trong vai trò bác sĩ, kỹ sư, nhà quản lý, còn phụ nữ thường bị mô tả theo hướng trẻ hóa quá mức, nhấn mạnh yếu tố ngoại hình hoặc gắn với các khuôn mẫu như “dịu dàng”, “thu hút”. Điều này phản ánh nguy cơ đáng lo ngại: nếu không được kiểm soát và hiệu chỉnh kịp thời, AI có thể tái sản xuất định kiến giới ở quy mô lớn hơn, nhanh hơn và tinh vi hơn nhiều so với các hình thức truyền thống.

Sự thiên lệch trở nên đặc biệt nguy hiểm khi AI được đưa vào các quyết định có tác động trực tiếp đến đời sống con người. Trong lĩnh vực tuyển dụng, không ít hệ thống AI sàng lọc hồ sơ đã đánh giá thấp ứng viên nữ chỉ vì những khoảng gián đoạn nghề nghiệp liên quan đến sinh con hoặc chăm sóc gia đình, bất chấp năng lực và kinh nghiệm thực tế. Khi các thuật toán học từ dữ liệu quá khứ vốn đã mang định kiến, AI có nguy cơ tái tạo và khuếch đại sự bất bình đẳng một cách âm thầm nhưng có hệ thống.

Không dừng lại ở đó, việc sử dụng AI thiếu kiểm soát còn khiến bạo lực giới trên không gian mạng trở nên tinh vi và khó nhận diện hơn. Công nghệ deepfake là ví dụ điển hình. Theo nhiều nghiên cứu quốc tế, từ 90 đến 95% nội dung deepfake trực tuyến mang tính khiêu dâm không có sự đồng thuận, và khoảng 99% nạn nhân là phụ nữ. AI không chỉ bị lợi dụng để xâm phạm hình ảnh cá nhân, mà còn phục vụ cho các hành vi mạo danh, tống tiền tình dục và tổ chức các chiến dịch đe dọa mang tính cá nhân hóa.

Báo cáo của UN Women công bố tháng 11/2025 chỉ ra rằng, những hành vi này gây tổn hại tâm lý sâu rộng, kéo dài và rất khó kiểm soát, do tốc độ lan truyền nhanh và khả năng ẩn danh cao của công nghệ số. Khi bạo lực được “tự động hóa” và nhân bản bằng AI, mức độ nguy hiểm không chỉ tăng về quy mô, mà còn về tính dai dẳng và áp lực tinh thần đối với nạn nhân.

Nhận định về vấn đề này, bà Vũ Thị Hạnh, chuyên gia Trí tuệ nhân tạo của Trung tâm Dịch vụ dữ liệu và Trí tuệ nhân tạo Viettel (Viettel AI) cho rằng: “Bạo lực trên cơ sở giới không chỉ diễn ra trong đời sống thực, mà đang lan rộng mạnh mẽ trên không gian mạng. AI có thể trở thành công cụ bị lợi dụng bởi những kẻ gây bạo lực, nếu chúng ta thiếu luật lệ, kỹ năng số và sự đoàn kết để bảo vệ lẫn nhau”.

Thực tế đó đặt ra yêu cầu cấp thiết về xây dựng khung pháp lý, chuẩn mực đạo đức và năng lực xã hội trong quản trị AI, nhằm đảm bảo công nghệ này phục vụ tiến bộ, thay vì làm trầm trọng thêm những bất bình đẳng vốn tồn tại.

Ba trụ cột để AI thu hẹp khoảng cách giới

Để trí tuệ nhân tạo trở thành công cụ thu hẹp, thay vì gia tăng khoảng cách giới, các giải pháp không thể triển khai đơn lẻ. Cách tiếp cận hiệu quả đòi hỏi sự phối hợp đồng thời giữa ba trụ cột then chốt: nhà phát triển công nghệ, cộng đồng người dùng và hệ sinh thái xã hội.

Ở cấp độ doanh nghiệp công nghệ, yêu cầu tiên quyết là phải đánh giá định kỳ mức độ thiên lệch của mô hình AI, cả trước và trong quá trình vận hành. Việc quản trị rủi ro không chỉ dừng ở kiểm thử kỹ thuật, mà cần mở rộng sang kiểm soát dữ liệu huấn luyện theo hướng đa dạng về giới, độ tuổi, quốc tịch và bối cảnh xã hội. Nếu mô hình tiếp tục học từ những tập dữ liệu phản chiếu định kiến sẵn có, AI sẽ tái tạo và khuếch đại các kết quả thiếu công bằng. Song song đó, các nền tảng công nghệ cần chịu trách nhiệm rõ ràng đối với những nội dung độc hại được tạo ra, lan truyền hoặc trục lợi từ chính hệ thống của mình.

Bên cạnh trách nhiệm của nhà phát triển, nâng cao năng lực số cho người dùng được xem là yếu tố sống còn. Theo bà Vũ Thị Hạnh, người dùng cần được trang bị các nguyên tắc sử dụng AI an toàn, dựa trên phương châm “5 Không – 4 Có”.

Cụ thể, “5 Không” gồm: không chia sẻ thông tin nhạy cảm; không coi mọi nội dung AI tạo ra là chân lý; không sử dụng AI để xâm phạm quyền riêng tư người khác; không phó mặc cho AI viết hộ các tài liệu quan trọng mà thiếu kiểm chứng; và không dùng AI để tạo, chỉnh sửa hình ảnh, video nhằm bôi nhọ hoặc xúc phạm danh dự bất kỳ ai. Song hành là “4 Có”: có kiểm chứng thông tin; có biện pháp bảo vệ tài khoản; có trách nhiệm với nội dung mình tạo ra; và có tinh thần chia sẻ kinh nghiệm sử dụng AI an toàn. Đây được xem như “hàng rào tự vệ” của người dùng trước tốc độ phát triển nhanh và khó kiểm soát của công nghệ.

Ở tầm vĩ mô, việc đảm bảo AI được triển khai theo hướng an toàn và bình đẳng giới đòi hỏi sự phối hợp chặt chẽ giữa cơ quan quản lý, doanh nghiệp công nghệ và các tổ chức xã hội. Các chương trình tập huấn về nhận diện deepfake, quản lý danh tính số, kỹ năng ứng xử an toàn và phòng tránh bạo lực trực tuyến cần được mở rộng trong trường học, cộng đồng và môi trường công sở, nhằm nâng cao “miễn dịch số” cho toàn xã hội.

Đáng chú ý, việc Quốc hội Việt Nam thông qua Đạo luật Trí tuệ nhân tạo đầu tiên đã thể hiện rõ định hướng phát triển AI theo hướng có trách nhiệm, minh bạch và lấy con người làm trung tâm. Đây được xem là bước đi quan trọng, vừa tạo hành lang pháp lý kiểm soát rủi ro, vừa khuyến khích đổi mới sáng tạo trong khuôn khổ đạo đức và lợi ích xã hội.

AI là xu thế tất yếu. Vấn đề không nằm ở việc ngăn chặn công nghệ, mà ở cách con người giám sát, điều chỉnh và khai thác AI. Chỉ khi dữ liệu được kiểm soát, mô hình được đánh giá thường xuyên, người dùng được trang bị đầy đủ kỹ năng số và cộng đồng cùng chung tay chống bạo lực trực tuyến, trí tuệ nhân tạo mới thực sự trở thành động lực thúc đẩy tiến bộ và thu hẹp khoảng cách giới, thay vì nhân rộng những bất bình đẳng đã tồn tại từ lâu.

Hải Yến

Nguồn TBNH: https://thoibaonganhang.vn/quan-tri-ai-de-khong-nhan-rong-bat-binh-dang-gioi-175813.html