AI góp phần phát tán thông tin sai sự thật

Trong cuộc xung đột kéo dài 4 ngày vừa qua giữa Ấn Độ và Pakistan, hàng triệu người dùng đã tìm đến các chatbot trí tuệ nhân tạo AI như Grok của Công ty xAI (do tỷ phú Elon Musk sở hữu), ChatGPT của OpenAI và Gemini của Google để xác minh tin tức.

Thế nhưng, đáng ngại ở chỗ, những công cụ này thường xuyên đưa ra các thông tin sai sự thật, làm gia tăng tình trạng hỗn loạn thông tin. Một ví dụ điển hình là việc Grok đã nhầm lẫn một đoạn video cũ tại sân bay Khartoum ở Sudan thành cảnh tên lửa tấn công căn cứ không quân Nur Khan của Pakistan. Thậm chí, một đoạn clip về tòa nhà cháy ở Nepal cũng bị chatbot này khẳng định "nhiều khả năng" là phản ứng quân sự của Pakistan sau các cuộc không kích từ Ấn Độ.

 Người dùng cần thận trong khi sử dụng AI. Ảnh: DW

Người dùng cần thận trong khi sử dụng AI. Ảnh: DW

Chuyên gia McKenzie Sadeghi thuộc tổ chức giám sát thông tin sai lệch NewsGuard cảnh báo: "Sự phụ thuộc ngày càng lớn vào Grok như một công cụ kiểm chứng đang diễn ra trong bối cảnh các nền tảng công nghệ lớn giảm đầu tư vào lực lượng kiểm chứng là con người". Bà Sadeghi nhấn mạnh, các nghiên cứu của NewsGuard cho thấy chatbot AI không phải là nguồn đáng tin cậy cho tin tức, đặc biệt là trong các tình huống tin nóng. Các báo cáo của NewsGuard cũng chỉ ra rằng, 10 chatbot hàng đầu hiện nay có xu hướng lặp lại các luận điệu tuyên truyền sai sự thật.

Trong khi đó, một nghiên cứu do Trung tâm Báo chí kỹ thuật số Tow (thuộc Đại học Columbia) thực hiện, cho thấy 8 công cụ tìm kiếm AI thường xuyên đưa ra câu trả lời sai hoặc suy đoán thay vì thừa nhận không có kiến thức để trả lời về vấn đề được hỏi và đây được coi là một hành vi nguy hiểm đối với công tác kiểm chứng tin tức. Câu chuyện tại Uruguay là một minh chứng rõ ràng về điều này. Khi các kiểm chứng viên của hãng tin AFP yêu cầu Gemini xác minh một hình ảnh do AI tạo ra, chatbot này không chỉ khẳng định đó là ảnh thật mà còn "bịa thêm" chi tiết về danh tính và bối cảnh địa điểm. Thậm chí, Grok gần đây còn tuyên bố một video giả về "rắn khổng lồ bơi trên sông Amazon" là "có thật" và viện dẫn những chuyến thám hiểm khoa học tưởng tượng để củng cố cho nhận định sai lầm của mình. Dù sau đó, hãng tin AFP đã xác nhận đây là video do AI tạo ra, nhưng nhiều người dùng vẫn tiếp tục chia sẻ dựa trên "kết luận của Grok".

Sự tin tưởng của người dùng vào chatbot AI đang gia tăng rõ rệt. Trong khi đó, nhiều nền tảng công nghệ lớn như Meta lại thông báo chấm dứt chương trình kiểm chứng bởi bên thứ ba tại Mỹ. Thay vào đó, họ chuyển sang mô hình "Community Notes" (ghi chú cộng đồng) - tương tự như cách mạng xã hội X triển khai, tức là để người dùng tự kiểm chứng lẫn nhau. Mô hình này bị giới chuyên gia nghi ngờ về hiệu quả, đặc biệt trong một thế giới siêu phân cực về chính trị.

Không những thế, các mô hình ngôn ngữ lớn như ChatGPT đang trở thành “trợ thủ đắc lực” cho tội phạm mạng. Những thủ đoạn lừa đảo qua mạng, đặc biệt là hình thức tống tiền, giả mạo thư điện tử (email) và các cuộc tấn công mạng được hỗ trợ nhờ AI tạo sinh ngày càng tinh vi, khó phát hiện và nguy hiểm hơn bao giờ hết. Theo ông Christophe Axen, Phó Giám đốc Đơn vị tội phạm máy tính khu vực của Cảnh sát Tư pháp liên bang Bỉ tại Lìege, những chiêu trò này từng dễ dàng bị phát hiện nhờ người dùng tinh ý hoặc bộ lọc thư rác. Song hiện nay, AI tạo sinh không những có thể tạo ra email, mà còn có thể mô phỏng cả một cuộc đối thoại khiến người dùng mất cảnh giác.

MINH CHÂU

Nguồn SGGP: https://sggp.org.vn/ai-gop-phan-phat-tan-thong-tin-sai-su-that-post798029.html