Cảnh báo gia tăng tội phạm sử dụng Deepfake

    Báo Chất Lượng Việt Nam
    VietQ
    4 liên quanGốc

    Theo cảnh báo của Europol, Deepfake có thể khiến mọi người không còn được thoải mái chia sẻ video thực tế hoặc có thể tạo ra sự thiếu tin tưởng vào các nguồn thông tin.

    Việc sử dụng công nghệ Deepfake cho phép thay thế khuôn mặt của một người vào mặt của người khác trong video, đang gia tăng trong giới tội phạm và cần được nhắm mục tiêu. Đây là thông tin cảnh báo đưa ra bởi cơ quan cảnh sát Liên minh châu Âu (Europol).

    Europol đã phát hành báo cáo dài 23 trang, xem xét cách mà trí tuệ nhân tạo và công nghệ Deepfake có thể được sử dụng trong giới tội phạm. Europol cho biết, ngày càng có nhiều thông tin sai lệch, tác động sâu sắc đến cách mọi người nhìn nhận về phương tiện truyền thông. Tổ chức này lo ngại, Deepfake có thể khiến mọi người không còn được thoải mái chia sẻ video thực tế hoặc có thể tạo ra sự thiếu tin tưởng vào các nguồn thông tin.

    Đây là viễn cảnh được Europol gọi là "ngày tận thế thông tin" hoặc "sự lãnh cảm thực tế". Tổ chức này cho rằng, các nhà hoạch định chính sách và cơ quan thực thi pháp luật cần tăng cường giám sát để loại bỏ tình trạng tội phạm sử dụng Deepfake.

    Thuật ngữ "Deepfake" xuất hiện công khai trên Internet từ khoảng cuối năm 2017, với nghĩa gốc của từ này là sự kết hợp giữa "deep learning" (học sâu) và "fake"(giả tạo). Công nghệ này được biết đến rộng rãi khi một người dùng trên mạng xã hội Reddit đã sử dụng nó để hoán đổi gương mặt của người nổi tiếng vào trong các bộ phim người lớn với độ chính xác khá cao mà không mất nhiều công sức. Dù hứng chịu sự chỉ trách mạnh mẽ từ dư luận, nhưng Deepfake vẫn được cả giới chuyên gia lẫn các "tay mơ" dõi theo và thậm chí tham gia phát triển.

    Trong ví dụ mới nhất về công nghệ Deepfake mới được công bố hồi cuối tháng 6/2019, các nhà nghiên cứu đã cho thấy phần mềm mới sử dụng các thuật toán Machine Learning (Học máy) có thể cho phép người dùng chỉnh sửa nội dung đã được văn bản hóa của video để thêm, xóa hoặc thay đổi các từ phát ra từ miệng của người nói trong video.

    Để tạo ra những đoạn giả được thêm vào video gốc, các nhà nghiên cứu đã kết hợp một số kỹ thuật. Đầu tiên, họ quét video gốc để cô lập các âm vị (những âm thanh cấu thành nên các từ) được nói bởi người tham gia. Các nhà nghiên cứu sau đó kết nối âm vị này với các biểu cảm khuôn mặt tương ứng khi thể hiện mỗi âm vị đó. Cuối cùng, họ tạo ra một mô hình 3D của nửa dưới khuôn mặt người nói bằng cách sử dụng video gốc.

    Khi ai đó chỉnh sửa nội dung được văn bản hóa của video, phần mềm sẽ kết hợp tất cả dữ liệu được thu thập này gồm âm vị, hình ảnh và mô hình khuôn mặt 3D để tạo cảnh quay mới phù hợp với nội dung được thêm bớt vào văn bản. Sau đó, phần mềm sẽ dán thành phẩm vào video gốc để tạo nên video cuối cùng.

    Công nghệ này vẫn chưa thực sự hoàn hảo. Các thuật toán chỉ hoạt động trên video dạng quay chính mặt người nói và cần lượng dữ liệu đầu vào khoảng 40 phút. Bài phát biểu được chỉnh sửa cũng không thể khác quá nhiều so với video gốc vì chất lượng âm thanh dù có cải thiện vẫn khá thấp so với chất lượng nguyên bản.

    Các nhà nghiên cứu cũng lưu ý rằng họ chưa thể thay đổi tâm trạng hoặc giọng điệu người nói vì làm như vậy sẽ dẫn đến kết quả "khá kỳ lạ và hơi đáng sợ". Ngoài ra, nếu khuôn mặt người nói bị che khuất bất cứ khi nào, như ai đó vẫy tay trong khi nói thì thuật toán sẽ thất bại hoàn toàn.

    Việc phát triển công nghệ có thể phát hiện ra Deepfake tuy rất quan trọng, nhưng thách thức lớn hơn là làm cho các công nghệ này thực sự được áp dụng rộng rãi và trở nên hữu ích.

    Việc phát triển công nghệ có thể phát hiện ra Deepfake tuy rất quan trọng, nhưng thách thức lớn hơn là làm cho các công nghệ này thực sự được áp dụng rộng rãi và trở nên hữu ích.

    Song những hạn chế luôn xuất hiện trong giai đoạn ban đầu và chúng gần như luôn được khắc phục. Điều đó đồng nghĩa công chúng sẽ sớm phải đối mặt với sự xuất hiện của phần mềm cho phép bất cứ ai chỉnh sửa những gì người khác nói trong video mà không cần trải qua đào tạo công nghệ cao. Rất nhiều người nổi tiếng đã chịu ảnh hưởng bởi các đoạn video giả mạo họ do Deepfake làm ra xuất hiện tràn lan trên Internet - từ cựu Tổng thống Mỹ Barack Obama, Donald Trump, thậm chí gần đây nhất là CEO Mark Zuckerberg của Facebook.

    Những tác hại tiềm ẩn của công nghệ Deepfake là vô cùng đáng lo ngại và các nhà nghiên cứu trong lĩnh vực này thường bị chỉ trích vì đã không xem xét thành quả nghiên cứu của họ sẽ bị lạm dụng. Để trấn an dư luận, các nhà nghiên cứu lĩnh vực Deepfake đã nỗ lực đưa ra công cụ phát hiện Deepfake có độ chính xác cao, tỷ lệ phát hiện đúng lên tới hơn 90%.

    Công cụ này bao gồm một thuật toán có khả năng phát hiện yếu tố chỉnh sửa bằng AI trong video của các chính trị gia nổi tiếng như Donald Trump và Elizabeth Warren, bằng cách theo dõi các cử động khuôn mặt nhỏ nhất mang tính đặc trưng của mỗi cá nhân mà phần mềm chỉnh sửa không nắm bắt được.

    Theo các chuyên gia, những phần mềm và công cụ có thể phát hiện ra video bị chỉnh sửa sẽ chỉ khắc phục được một phần rất nhỏ vấn đề này. Chính những tác giả của công cụ chống Deepfake cũng cho rằng thành quả của họ sẽ trở nên vô ích.

    Trong báo cáo của mình, nhóm tác giả nhận định công nghệ Deepfake và chống Deepfake đang phát triển theo hướng không khác gì mối quan hệ giữa virus và các phần mềm chống virus. Bất cứ lỗi hay điểm yếu nào được phát hiện có thể giúp việc chống virus hiệu quả hơn, những phiên bản virus sau sẽ "vá" được lỗi này và còn trở nên tinh vi hơn trước. Như trong trường hợp Deepfake, những phiên bản đầu tiên có thể khiến gương mặt bị chỉnh sửa của nhân vật luôn trong trạng thái mở mắt, hoặc khuôn miệng lúc phát âm không hề tự nhiên. Những phiên bản sau đã nâng cấp và cải thiện yếu tố này rõ rệt, đến mức khó có thể nhận ra sự khác biệt bằng mắt thường giữa bản gốc và bản chỉnh sửa.

    Bên cạnh đó, việc phát triển công nghệ có thể phát hiện ra Deepfake tuy rất quan trọng nhưng thách thức lớn hơn là làm cho các công nghệ này thực sự được áp dụng rộng rãi và trở nên hữu ích. Các nền tảng mạng xã hội như Facebook, Twitter hay Youtube vẫn chưa xác định rõ ràng chính sách của họ đối với Deepfake. Những nhà quản lý các nền tảng này từ chối xóa, thậm chí "ngó lơ" những video có yếu tố bị chỉnh sửa ngay cả khi có phản hồi chính thức về nội dung bị giả mạo.

    Một đặc điểm của thời đại truyền thông trực tuyến là hình ảnh chất lượng có thể rất thấp và không cần ngữ cảnh cụ thể nhưng vẫn tiếp cận được người xem. Giống như tin tức giả, rất nhiều nội dung thông tin giả mạo có thể dễ dàng bị lật tẩy chỉ với một vài phút tra cứu trên Google, nhưng điều đó không ngăn chặn sự lan truyền của chúng. Deepfake cũng vậy, các thành phẩm của công nghệ này không cần hoàn hảo từng chi tiết và vẫn có rất nhiều người đón nhận.

    Không thể chối bỏ rằng công nghệ Deepfake cũng có nhiều tác dụng, đặc biệt là trong ngành công nghiệp phim ảnh và truyền hình. Deepfake cho phép nhà làm phim sửa các lỗi sai mà không cần tốn tiền và thời gian quay lại. Hay nó cũng giúp tạo ra các bản lồng tiếng thống nhất, trơn tru trong các ngôn ngữ khác nhau. Song những lợi ích này có vẻ nhỏ bé hơn rất nhiều so với thiệt hại tiềm ẩn mà Deepfake có thể dẫn tới.

    Phong Lâm

    Nguồn VietQ: https://vietq.vn/canh-bao-gia-tang-toi-pham-su-dung-deepfake-d199808.html