Deepfake – nguy cơ an ninh sâu rộng từ trí tuệ nhân tạo
Các nước đang tích cực trong việc ban hành các quy định pháp luật điều chỉnh việc tạo ra deepfake và những ảnh hưởng từ công nghệ này.
Cuối năm 2023, mạng xã hội xôn xao với video cho thấy cầu thủ nổi tiếng Ronaldo đi bán áo thun ở Việt Nam. Diễn viên Mỹ Keanu Reeves cũng có mặt trong các video tương tự với vô số bài hướng dẫn cách sống thanh lịch. Không ít người tin rằng các video này là thực, thay vì hiểu đây chỉ là kết quả của deepfake - những hình ảnh hay video giả mạo giống như thật, được tạo ra nhờ vào sự kết hợp giữa công nghệ học sâu (deep learning) và học máy (machine learning) của trí tuệ nhân tạo (AI).
Deepfake trong cả an ninh, chính trị
Tuy nhiên, việc sử dụng deepfake không chỉ dừng lại ở lĩnh vực giải trí, quảng cáo, mà còn có thể cho những mục đích xấu, với hậu quả nghiêm trọng hơn. Cơ quan chức năng ở nhiều quốc gia đã cảnh báo về hiện tượng AI bị sử dụng để tạo ra các video khiêu dâm với hình ảnh trẻ em hay người lớn mà không có sự cho phép, hay để tạo ra thông tin xấu, bóp méo, gây ảnh hưởng tới uy tín cá nhân, an ninh quốc gia và thậm chí hòa bình trên thế giới.
Trong lĩnh vực chính trị, chúng ta đã từng chứng kiến các deepfake cảnh Tổng thống Pháp Emmanuel Macron nhặt thùng rác, hay ông Obama và bà Merkel cùng xây lâu đài cát ngoài biển. Nghiêm trọng hơn, một số video deepfake lan truyền các thông tin giả mạo như cảnh Tổng thống Pháp bị ám sát, cảnh Tổng thống Ukraine kêu gọi binh lính đầu hàng quân đội Nga.
Trong lĩnh vực âm nhạc, một bài hát do một người giấu mặt tạo ra từ giọng hát của Drake và The Weekend cũng làm mưa làm gió trên mạng xã hội, sau khi bị Universal Music Group ép phải xóa bỏ. Năm 2023, cảnh sát Mỹ xử lý hàng loạt vụ deepfake hình ảnh, video khiêu dâm sử dụng hình ảnh những nạn nhân là phụ nữ, trẻ em đăng tải trên các mạng xã hội, hay các vụ lừa đảo bằng cách sử dụng deepfake giọng nói.
Ngoài vi phạm các quyền cá nhân, deepfake có thể chịu sự điều chỉnh của pháp luật liên quan tới hành vi cung cấp, chia sẻ thông tin giả mạo, xúc phạm, gây ảnh hưởng tới uy tín, nhân phẩm cá nhân, có thể bị xử lý hành chính, hình sự.
Ở Việt Nam cũng thế, deepfake đang là công nghệ được sử dụng nhiều nhất với mục đích lừa đảo. Nhiều người ở Việt Nam đã tin vào những hình ảnh, video giả mạo này và chuyển tiền cho kẻ xấu, vì nghĩ rằng đó đúng là người thân quen của mình.
Hiện nay, deepfake đang lan tràn trên mạng và thâm nhập vào mọi lĩnh vực, cùng với việc cuộc sống của chúng ta đang được “số hóa” ngày càng sâu rộng, với tốc độ chóng mặt. Công nghệ AI với các sản phẩm deepfake đang là một trong những nguy cơ lớn đối với an ninh, an toàn cá nhân và quốc gia. Nhiều nước vì thế đang nỗ lực xây dựng luật nghiêm minh hơn, phù hợp và hiệu quả hơn để quản lý deepfake, cũng như tìm kiếm các giải pháp về mặt công nghệ để kiểm soát nguy cơ này.
Nhìn từ góc độ pháp lý
Có thể nhìn nhận deepfake ở nhiều góc độ pháp lý khác nhau. Tất nhiên là khi sử dụng deepfake để lừa đảo, chiếm đoạt tài sản thì thủ phạm sẽ bị xử phạt theo các quy định của luật hình sự. Ngoài ra, có thể dễ dàng nhận thấy rằng deepfake khai thác hình ảnh, giọng nói và các nội dung sáng tạo được bảo hộ, vì thế hành vi này có thể vi phạm quyền nhân thân về hình ảnh hay vi phạm quyền sở hữu trí tuệ.
Về nguyên tắc, việc sử dụng hình ảnh cá nhân hay sử dụng tác phẩm được bảo hộ cần phải có sự cho phép của chủ thể, nếu không sẽ có thể bị xử phạt về hành chính, dân sự hay hình sự, tùy vào mức độ nghiêm trọng của vi phạm. Tất nhiên, tồn tại những ngoại lệ mà không cần có sự cho phép của chủ thể, như việc sử dụng hình ảnh cá nhân vì lợi ích công cộng, hay việc tạo một bản sao tác phẩm với mục đích học tập, nghiên cứu..., nhưng thường thì deepfake với mục đích bất hợp pháp không nằm trong các trường hợp nói trên.
Riêng trong trường hợp giọng nói, nếu như luật một số quốc gia như Đức, Pháp quy định rằng cá nhân có quyền nhân thân với giọng nói của mình, thì luật Việt Nam chỉ xếp giọng nói cá nhân vào nhóm các đặc điểm sinh học gắn liền với cá nhân, và vì thế được bảo vệ theo quy định của pháp luật về bảo vệ dữ liệu cá nhân. Cũng cần bổ sung rằng, dưới góc độ quyền sở hữu trí tuệ, giọng nói của cá nhân thể hiện trong các chương trình biểu diễn, thu âm, phim ảnh còn có thể được bảo hộ bằng cơ chế quyền liên quan (gồm quyền nhân thân và quyền tài sản) dành cho người biểu diễn. Nếu AI khai thác giọng nói được quyền liên quan bảo hộ, thì việc khai thác này chỉ có thể được coi là hợp pháp khi đã có sự cho phép của nghệ sĩ.
Ngoài góc độ vi phạm các quyền cá nhân nói trên, deepfake hoàn toàn có thể rơi vào phạm vi áp dụng của các quy định pháp luật liên quan tới hành vi cung cấp, chia sẻ thông tin giả mạo, xúc phạm, gây ảnh hưởng tới uy tín, nhân phẩm cá nhân, có thể bị xử lý hành chính, hình sự.
Hiện nay, một số luật đã được thông qua nhắm vào deepfake. Cụ thể, luật của Liên minh châu Âu quy định nghĩa vụ “minh bạch thông tin”, theo đó các công ty cung cấp dịch vụ AI tạo sinh phải thông báo rõ ràng khi nội dung là do AI tạo ra hay chỉnh sửa. Quy định “dán nhãn” deepfake này cũng đã được đưa vào luật ở Trung Quốc vào năm 2023. Một số quốc gia khác như Hàn Quốc có khuynh hướng hình sự hóa hành vi xem hay sở hữu các deepfake khiêu dâm. Anh cũng hình sự hóa hành vi dùng công nghệ deepfake để tạo ra video mang tính khiêu dâm.
Trong kỷ nguyên số hiện nay, bất cứ ai trong chúng ta cũng có thể là nạn nhân của deepfake. Vì thế mỗi cá nhân cũng cần nâng cao cảnh giác để hạn chế ảnh hưởng tiêu cực từ công nghệ AI này.
Nguồn Saigon Times: https://thesaigontimes.vn/deepfake-nguy-co-an-ninh-sau-rong-tu-tri-tue-nhan-tao/