Phát triển AI có trách nhiệm tại Việt Nam

Năm 2021, Việt Nam đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển, ứng dụng trí tuệ nhân tạo (AI) tầm nhìn đến năm 2030. Chiến lược tập trung vào phát triển AI tại Việt Nam nhưng thiếu định hướng quản trị rủi ro đến từ công nghệ này.

Phát triển AI có trách nhiệm tại Việt Nam. Ảnh nguồn: ITN

Trong bối cảnh AI đang “tăng tốc”, xâm nhập và được ứng dụng mạnh mẽ; việc có một chính sách cân bằng giữa tạo môi trường thuận lợi cho phát triển AI, đồng thời giảm rủi ro, bảo vệ người dùng, rộng hơn là bảo vệ xã hội và con người là yêu cầu đang đặt ra cấp thiết.

Sự thâm nhập của AI vào tất cả lĩnh vực trong đời sống một mặt giúp nâng cao năng suất lao động, tạo ra nhiều của cải hơn cho xã hội; mặt khác gây ra nhiều rủi ro khác nhau đối với con người. Có thể đề cập đến 5 rủi ro đã được dự báo và sẽ trở nên phổ biến trong tương lai, bao gồm: mất việc làm và sự tái cơ cấu lao động, bất bình đẳng trong tiếp cận công lý và hưởng thụ, mất tự do và xâm phạm quyền riêng tư, quyền sở hữu trí tuệ và tin giả. Vì vậy, cần có một chính sách bao trùm thể hiện cách tiếp cận tổng thể trong quản trị các rủi ro do AI tạo ra. Chính sách này có thể được thể hiện dưới dạng một đạo luật như Liên minh châu Âu (EU) hoặc các quy tắc ứng xử và tiêu chuẩn an toàn như Vương quốc Anh và Hoa Kỳ.

Mỗi quốc gia trên thế giới, đặc biệt các quốc gia đóng vai trò quan trọng trong lịch sử phát triển AI đến nay như Hoa Kỳ, Vương quốc Anh, Trung Quốc và Liên minh châu Âu (EU), đang có những hướng tiếp cận chính sách khác nhau đối với AI. Trong khi Hoa Kỳ và Vương quốc Anh ưu tiên đổi mới sáng tạo dựa trên AI có trách nhiệm, thì EU ưu tiên quản lý rủi ro mà AI tạo ra đối với các quyền cơ bản của con người. Còn Trung Quốc nhấn mạnh việc bảo đảm an ninh trong sự phát triển của đất nước này.

Trước bối cảnh đó, dựa trên nền tảng và điều kiện quốc gia, Việt Nam cần tìm ra hướng tiếp cận chính sách phù hợp với mình, thay vì chờ đợi sự thành công của các mô hình quản lý AI trên thế giới rồi học tập, vay mượn, cấy ghép để áp dụng.

Với bài toán, vừa phải tận dụng thành tựu của công nghệ AI để bứt phá thành quốc gia phát triển vào năm 2045, vừa phải quản lý rủi ro do AI tạo ra để phát triển bền vững, các công cụ chính sách mềm dẻo có thể là lời giải cho Việt Nam, bao gồm chính sách quản lý thử nghiệm và bộ quy tắc ứng xử.

Thứ nhất, chính sách quản lý thử nghiệm (regulatory sandbox) là giải pháp phù hợp để bảo đảm tạo môi trường cho đổi mới sáng tạo và hạn chế rủi ro trên diện rộng đối với xã hội. Các nhà lập pháp có thể tham khảo một số gợi ý để triển khai quản lý thử nghiệm AI tại Việt Nam như: (i) tiếp tục tiến nhanh trên quá trình chuyển đổi số, bước từ giai đoạn số hóa thông tin thành dữ liệu sang khuyến khích thử nghiệm các giải pháp công nghệ dựa trên AI vào hoạt động vận hành của doanh nghiệp, cơ quan, tổ chức; (ii) xây dựng và ban hành cơ chế quản lý thử nghiệm dành cho AI với một số ngành, lĩnh vực ưu tiên ví dụ như nông nghiệp, y tế, giao thông vận tải.

Thứ hai, để phản ứng nhanh và linh hoạt trước những viễn cảnh thiếu chắc chắn do AI tạo ra, xây dựng các bộ quy tắc ứng xử, tiêu chuẩn an toàn mang tính khuyến khích áp dụng sẽ phù hợp hơn việc tạo ra các quy định pháp luật mới. Để các bộ quy tắc ứng xử, tiêu chuẩn an toàn được bảo đảm thực thi trên thực tế, cần có sự tham gia đông đảo của các bên liên quan để tạo đồng thuận xã hội trong quá trình xây dựng.

Việc sớm hoàn thiện chiến lược và ban hành chính sách phù hợp liên quan đến AI sẽ giúp Việt Nam tận dụng thời cơ để phát triển kinh tế - xã hội.

Nguyễn Lan Phương - Viện Nghiên cứu chính sách và Phát triển truyền thông (IPS)

Nguồn Đại Biểu Nhân Dân: https://daibieunhandan.vn/chinh-sach-va-cuoc-song/phat-trien-ai-co-trach-nhiem-tai-viet-nam-i361494/