Nỗi đau suốt đời của những cô gái bị ghép mặt vào clip nóng

Noelle Martin cho rằng những bức ảnh nhạy cảm, video khiêu dâm đã được công nghệ chỉnh sửa có khả năng tồn tại vĩnh viễn. Điều đó sẽ gây nên nỗi đau suốt đời cho nạn nhân.

 Noelle Martin từng bị đánh cắp hình ảnh và ghép vào ảnh nhạy cảm, clip nóng. Ảnh: PerthNow.

Noelle Martin từng bị đánh cắp hình ảnh và ghép vào ảnh nhạy cảm, clip nóng. Ảnh: PerthNow.

Khi Noelle Martin (28 tuổi), nhà hoạt động người Australia, trở thành nạn nhân của công nghệ deepfake, đó là một tội ác mới, thậm chí cơ quan chức năng còn không có tên cho nó.

Giờ đây, vấn nạn ghép mặt vào ảnh nóng đã trở nên phổ biến và được nâng cao để thực hiện các video giả mạo chỉ bằng một nút bấm. Điều này khiến một số chuyên gia phải lên cảnh báo thế giới đang đối mặt với “đại dịch” thực sự.

Vào năm Martin 18 tuổi, cô phát hiện những tấm hình bị đánh cắp từ tài khoản mạng xã hội của mình và ghép vào cơ thể của diễn viên phim người lớn. Theo lời Martin, các bức ảnh này mô tả sai sự thật về cô trong những hành vi tình dục “kinh khủng, mất nhân tính, hèn hạ".

Với cô gái, việc loại bỏ những ảnh cá nhân đáng lo ngại khỏi Internet không khác gì một cuộc chiến dài hơi. Dù đã rất nỗ lực, Martin cũng không thể ngăn chặn chúng được tạo ra nhiều hơn và chia sẻ qua các diễn đàn khác nhau.

Bất lực

Không ít luật sư tại thành phố Perth đã cố gắng kêu gọi cải cách luật pháp vào năm 2018 nhằm hình sự hóa việc phát tán hình ảnh thân mật không có sự đồng thuận ở xứ sở chuột túi.

Thủ phạm không ngừng ra tay và khi công nghệ phát triển, tội ác của chúng cũng tăng theo. Khuôn mặt của Martin sau đó được phủ lên trên các video khiêu dâm bằng công nghệ deepfake.

Do trí tuệ nhân tạo ngày càng cải tiến, các video chân thực đến mức đáng kinh ngạc. Nó có thể mô phỏng chân dung và chuyển động của một người khi quan hệ, nhưng điều đó cũng đồng thời mang đến chấn thương mới cho nạn nhân.

Martin nói với News.com.au rằng nhiều người buồn bã khi phải gánh chịu hậu quả của hình thức lạm dụng tình dục kỹ thuật số này.

“Đây là điều mà họ không thể thoát khỏi vì nó có khả năng tồn tại lâu dài, thậm chí suốt đời. Những kẻ phạm tội đang cướp đi quyền tự quyết, chiếm đoạt danh tính, tên tuổi, hình ảnh của nạn nhân vĩnh viễn. Nó ảnh hưởng đến tự do kinh tế, khả năng có việc làm, các quan hệ cá nhân và sự nghiệp của tôi. Cho dù tôi có làm gì đi nữa, chúng vẫn sẽ mãi mãi xuất hiện", Martin bày tỏ.

Hình ảnh bị đánh cắp của Martin tràn ngập trên nhiều trang web khiêu dâm. Ảnh: New York Times.

Cục Thống kê Australia cho biết mỗi ngày có trung bình 85 vụ tấn công tình dục được ghi nhận.

Con số này chỉ là một phần nhỏ tổng số vụ thực tế, với ước tính 90% hành vi phạm tội khác không được báo cáo, dữ liệu do Viện Y tế và Phúc lợi Australia thu thập từ năm 2020.

Theo một khảo sát gần đây, cứ 10 người thì có một người đã từng bị lạm dụng bởi deepfake, một con số mà Martin tin rằng có thể giảm xuống nếu nhiều người hiểu hơn về sự đồng ý.

Theo cô, có một sự phân biệt sai lầm rằng những gì bị tung lên mạng hoàn toàn tách biệt với thứ diễn ra trong thế giới thực. Hành động lấy hình ảnh của người khác mà không xin phép là một vấn đề nghiêm trọng vì nó gây ra tác hại rất lớn.

“Cuộc sống của chúng ta hoàn toàn hợp nhất trong thời đại kỹ thuật số giữa 2 yếu tố trên. Nếu ai đó cố tình đánh cắp cơ thể, hình ảnh, chân dung của người khác và chiếm đoạt nó mà không có sự chấp thuận là hành vi phạm tội”, cô nói thêm.

Tác hại

Trong series tài liệu "Asking For It" của SBS, Martin xuất hiện cùng với một số nạn nhân khác, bao gồm Saxon Mullins, Grace Tame, Adele (delsi) Moleta, để chia sẻ kinh nghiệm của họ trong việc điều hướng hệ thống pháp luật, đấu tranh cải cách luật pháp và vượt qua chấn thương.

“Tôi hy vọng vấn nạn tấn công tình dục trực tuyến được xử lý một cách nghiêm túc. Tôi muốn sống trong một thế giới, nơi phụ nữ được tự do thực hiện quyền tự quyết của mình để phát huy hết tiềm năng của mình, không bị lạm dụng, cũng như tôn trọng phẩm giá”, cô gái bày tỏ.

Woodrow Hartzog, giáo sư luật và khoa học máy tính tại Đại học Northeastern, cho rằng sẽ có nhiều người trải qua nỗi đau tương tự. “Nhất là với phụ nữ, người da màu và các cộng đồng thiểu số, những người bị kiểm soát bởi công nghệ nhận dạng khuôn mặt”.

Không chỉ xứ sở chuột túi, hình thức cắt, ghép gương mặt vào clip nóng đã xuất hiện ở nhiều quốc gia như Trung Quốc, Mỹ, Hàn Quốc và có xu hướng phát triển mạnh trong thời đại công nghệ số.

Khó loại bỏ hết video ghép gương mặt trái phép và chúng có thể tồn tại vĩnh viễn. Ảnh minh họa: iStock.

Trên chợ thương mại điện tử cũ Xianyu ở đất nước tỷ dân, loạt video khiêu dâm kiểu này được tùy chỉnh theo yêu cầu được rao bán với giá khởi điểm từ 20 nhân dân tệ (3 USD) mỗi phút.

Thậm chí, công nghệ deepfake còn bị lợi dụng để tạo ra các video nhằm hạ uy tín, phỉ báng các nhân vật cấp cao và trở thành mối nguy tiềm ẩn.

Tháng 3/2018, một đoạn clip đã trở nên phổ biến trên mạng xã hội khi gương mặt cựu Đệ nhất phu nhân Mỹ Michelle Obama bị ghép vào diễn viên phim khiêu dâm.

Theo công ty nghiên cứu Sensity AI, đến nay có từ 90-95% các video deepfake trực tuyến mang nội dung tình dục, giả mạo và không có sự đồng ý của nhân vật.

Thảo Ngân

Nguồn Znews: https://zingnews.vn/noi-dau-suot-doi-cua-nhung-co-gai-bi-ghep-mat-vao-clip-nong-post1422888.html