Để con người không bị 'điều khiển' vô thức bởi các thuật toán AI
Các đại biểu Quốc hội cho rằng, văn hóa, đạo đức cần được quan tâm song hành với việc phát triển AI để đảm bảo công nghệ phải phục vụ con người chứ không thay thế con người.
Thảo luận tại tổ về dự án Luật Trí tuệ nhân tạo sáng ngày 21/11, nhiều đại biểu quan tâm đến vấn đề giữ gìn các giá trị văn hóa, đạo đức song hành với phát triển trí tuệ nhân tạo (AI).

Đại biểu Bùi Hoài Sơn phát biểu tại tổ. Ảnh: Media Quốc hội
Đại biểu Bùi Hoài Sơn (Đoàn Hà Nội) đánh giá cao việc dự thảo Luật khẳng định nguyên tắc: “Lấy con người làm trung tâm, tôn trọng nhân phẩm, quyền con người, quyền riêng tư và bảo đảm lợi ích công cộng”. Theo ông, với một đạo luật công nghệ, việc đặt văn hóa, đạo đức, bản sắc và con người ở trung tâm là lựa chọn rất đúng đắn. Đây chính là nền tảng để xây dựng “văn hóa AI” - tức là hệ giá trị, chuẩn mực, lối sống, ứng xử của con người trong một môi trường ngày càng thấm đẫm công nghệ.
Để các nguyên tắc đi vào cuộc sống dễ dàng hơn, đại biểu Bùi Hoài Sơn thống nhất với nhận định của Ủy ban Khoa học, Công nghệ và Môi trường là nên cấu trúc lại các nguyên tắc theo nhóm: Nhóm về con người và quyền, nhóm về an toàn - rủi ro, nhóm về đạo đức - pháp luật, nhóm về phát triển - hội nhập, nhằm tránh trùng lặp, tăng tính logic và dễ áp dụng cho các chủ thể triển khai. Đồng thời, nên cân nhắc bổ sung rõ nguyên tắc về trách nhiệm giải trình và khả năng truy xuất nguồn gốc đối với hệ thống AI, bảo đảm mọi hệ thống có thể được kiểm toán, giám sát trong suốt vòng đời hoạt động, nhất là trong các lĩnh vực nhạy cảm như báo chí, truyền thông, giáo dục, văn hóa.
Đại biểu cũng tán thành với gợi ý của cơ quan thẩm tra về việc dự thảo Luật cần có quy định riêng về quyền của người sử dụng và người bị ảnh hưởng bởi hệ thống AI, như quyền được biết, quyền yêu cầu con người xem xét lại các quyết định tự động do AI đưa ra. Đây là vấn đề không chỉ mang tính pháp lý mà còn là vấn đề văn hóa, nhằm bảo đảm con người luôn giữ quyền kiểm soát, không bị “điều khiển” vô thức bởi các thuật toán trong đời sống hằng ngày.
Về giữ gìn bản sắc văn hóa dân tộc, đại biểu Bùi Hoài Sơn cho rằng chính sách cần quy định rõ hơn về dữ liệu lớn phục vụ huấn luyện AI. Trong đó, cần coi dữ liệu văn hóa - lịch sử, ngôn ngữ, văn học nghệ thuật Việt Nam là một “tài nguyên chiến lược”. Chính sách dữ liệu nên tạo điều kiện để các mô hình AI tiếng Việt được tiếp cận kho tàng ngôn ngữ và văn hóa Việt một cách hợp pháp, có kiểm soát, qua đó vừa bảo vệ bản quyền, vừa giúp AI “nói tiếng Việt” tốt hơn, hiểu văn hóa Việt hơn.

Đại biểu Tạ Văn Hạ. Ảnh: Media Quốc hội
Cũng quan tâm đến vấn đề văn hóa trong sử dụng AI, đại biểu Tạ Văn Hạ (Đoàn Đà Nẵng) cho rằng, hiện Việt Nam chưa có hành lang pháp lý rõ ràng trong việc kiểm soát môi trường ảo. Trong khi đó, văn hóa số đang tác động từng ngày, từng giờ đến mọi mặt đời sống xã hội, đến thế hệ trẻ em. “Chúng ta cần xây dựng và xác định văn hóa số,” ông Hạ nói.
Đại biểu đề nghị bổ sung vào dự thảo Luật quy định nguyên tắc bảo vệ bản sắc văn hóa dân tộc khi sử dụng AI; yêu cầu AI phải tôn trọng ngôn ngữ, giá trị văn hóa và sự đa dạng văn hóa, khuyến khích AI giữ gìn bản sắc văn hóa dân tộc và sáng tạo văn hóa. Giao Chính phủ xây dựng chiến lược về kho dữ liệu văn hóa và ngôn ngữ Việt dùng cho AI. Đồng thời quy định văn hóa sáng tạo AI và khuyến khích ngành công nghiệp sáng tạo văn hóa số dựa trên AI.
Để nâng cao nhận thức, văn hóa sử dụng AI, đại biểu cho rằng phải xây dựng chuẩn mực văn hóa sử dụng AI trong giáo dục và đời sống; đồng thời có cơ chế giám sát, đánh giá tác động văn hóa của AI. “Chúng ta có thể xây dựng bộ tiêu chí riêng, quy tắc ứng xử khi sử dụng AI. Các vấn đề này vô cùng quan trọng, do đó cần được nghiên cứu thấu đáo,” đại biểu Tạ Văn Hạ nêu ý kiến.
Cần xây dựng bộ quy tắc đạo đức trong ứng dụng AI

Đại biểu Lò Thị Luyến (Đoàn Điện Biên). Ảnh: Media Quốc hội
Đại biểu Lò Thị Luyến (Đoàn Điện Biên) lo ngại, lĩnh vực trí tuệ nhân tạo hiện còn rất “mới, lạ”, liên quan tới nhiều luật khác. Bà cho rằng việc xây dựng ban hành luật sẽ là “hơi vội vàng” khi chưa kịp đánh giá những vấn đề đang diễn ra trên thực tế.
Về mặt quản lý, theo đại biểu, trong dự án Luật chưa dự liệu được hết những vấn đề trong tương lai. Bà ví dụ về vấn đề giới hạn độ tuổi giới trẻ được tiếp cận AI: “Vừa qua, trên thế giới đã có một số quốc gia ban hành quy định về độ tuổi tối thiểu để trẻ em được tiếp cận AI; trong khi đó, một số nước xung quanh chúng ta lại chưa cấm, điều này khiến tôi rất lo ngại”.
Theo đại biểu, hiện trong dự thảo Luật chỉ mới quy định tại Điều 7 về các mức độ rủi ro gồm: Rủi ro chấp nhận được, rủi ro thấp, rủi ro trung bình và rủi ro cao; như vậy là chưa rộng và chưa đủ.
“Đối với thế hệ trẻ, nếu chúng ta không hạn chế độ tuổi tiếp cận AI, thực tế đã có những quốc gia không cấm và trẻ em ở đó nghe theo AI, xem AI như bạn, thậm chí yêu AI hoặc kết hôn với AI. Nếu trẻ chưa đủ nhận thức mà được tiếp cận sớm với AI thì rất nguy hiểm,” đại biểu Lò Thị Luyến phân tích, đồng thời đề nghị dự thảo Luật cần quan tâm đầy đủ hơn đến nội dung này.
Nghiên cứu kinh nghiệm thực tiễn tại nhiều quốc gia, đại biểu Nguyễn Tuấn Anh (Đoàn Cần Thơ) cho biết, quá trình xây dựng chính sách về trí tuệ nhân tạo thường bắt đầu bằng việc ban hành các khung đạo đức và nguyên tắc hướng dẫn, sau đó mới đánh giá thực tiễn để hoàn thiện và tiến tới xây dựng luật.
Ông ví dụ, Liên minh châu Âu (EU) trước khi hình thành Đạo luật AI đã công bố Bộ hướng dẫn đạo đức cho AI đáng tin cậy (2019) và thí điểm thực tế tại các doanh nghiệp; Singapore triển khai “Mô hình quản trị AI đáng tin cậy” từ năm 2019 như bộ nguyên tắc mềm trước khi xem xét quy định pháp lý. “Cách tiếp cận theo hướng ‘đạo đức trước - luật sau’ giúp thử nghiệm, điều chỉnh linh hoạt và giảm rủi ro khi ban hành quy định mang tính ràng buộc,” đại biểu Nguyễn Tuấn Anh nêu ý kiến.
Đại biểu đề nghị nghiên cứu bổ sung nguyên tắc chung về đạo đức để giao Chính phủ quy định chi tiết, trong đó có tham chiếu các giá trị của các tổ chức quốc tế. Đồng thời nghiên cứu việc bổ sung nguyên tắc “chịu trách nhiệm giải trình của các bên liên quan về tác động đạo đức và xã hội của hệ thống AI trong suốt quá trình từ nghiên cứu đến sử dụng hệ thống”; làm rõ mối quan hệ giữa quy tắc đạo đức (tính khuyến nghị) và nghĩa vụ pháp lý (tính bắt buộc).
Cũng quan tâm tới vấn đề về rủi ro đạo đức AI, đại biểu Lê Minh Nam (Đoàn Cần Thơ) cho biết, rủi ro từ việc ứng dụng AI, nếu xảy ra, có thể gây hệ quả rất nặng nề, phạm vi cực kỳ rộng, khó kiểm soát, khó khắc phục. “AI, nếu sử dụng cho mục đích tích cực thì rất tích cực; nhưng nếu sử dụng tiêu cực thì hệ lụy rất lớn,” đại biểu nói.
Theo đại biểu, đối với các tổ chức, cơ quan, việc quản lý, kiểm soát thông qua các quy định và chế tài còn tương đối thuận lợi; nhưng đối với cá nhân người dùng, việc kiểm soát không đơn giản. Nếu người sử dụng AI không đúng cách thì vấn đề kiểm soát hành vi rất khó.
Tán thành với ý kiến đại biểu Nguyễn Tuấn Anh về kinh nghiệm nhiều nơi đã xây dựng bộ quy tắc đạo đức trong ứng dụng AI, song đại biểu Lê Minh Nam cũng còn băn khoăn: “Đã nói đến đạo đức thì bên cạnh cơ chế quản lý đối với tổ chức, vẫn phải dựa nhiều vào tính tự giác, ý thức trách nhiệm của người dùng. Để yêu cầu đạo đức trong sử dụng AI thực sự đi vào cuộc sống, cần có yếu tố khuyến khích, thuyết phục, giáo dục, tuyên truyền… chứ không chỉ là chế tài”.












