Nga cướp Web sites của Ukraine, phát video giả nhái giọng ông Zelenskiy hạ lệnh đầu hàng quân Nga
VietCatholic Media
1. Tổng thống Zelenskiy phản ứng trước video giả mạo của Nga kêu gọi quân dân Ukraine đầu hàng vô điều kiện
Một video giả mạo sử dụng kỹ thuật cao nhái giọng Tổng thống Ukraine Volodymyr Zelenskyy rất tài tình, kêu gọi các công dân Ukraine đầu hàng quân Nga vô điều kiện đã được chia sẻ trên mạng.
Đoạn video giả lan truyền nhanh chóng trên các mạng xã hội cho thấy tổng thống Zelenskyy phát biểu trước quốc dân đồng bào và kêu gọi quân dân Ukraine “hạ vũ khí”.
Một phiên bản của video giả này đã được xem hơn 120,000 lần trên Twitter.
Khuôn mặt và giọng nói của tổng thống Zelenskyy đã được chỉnh sửa trên video bằng công nghệ Artificial Intelligence hay trí tuệ nhân tạo để tạo ra video giả mạo. Các video giả mạo sử dụng công nghệ này gọi là deepfake, có thể dịch là giả mạo tài tình, và bị cấm sử dụng.
Đây là lần đầu tiên kể từ khi Nga xâm lược Ukraine vào ngày 24 tháng Hai một video giả như thế được lan truyền với một thâm ý rõ rệt chứ không phải chỉ là đùa chơi cho vui.
Công nghệ trí tuệ nhân tạo để làm rất giống như thế cho thấy đây hầu như không thể là sản phẩm của cá nhân. Phần lớn thông tin sai lệch đã được nêu trong video cũng cho thấy đây không thể là sản phẩm đơn thuần của các kỹ sư điện toán. Nó phải có sự phối hợp với cục tâm lý chiến của quân đội Nga.
Hầu hết các tin đồn thất thiệt bắt nguồn từ các hình ảnh hoặc video được lấy ra ngoài bối cảnh, từ các cuộc chiến tranh hoặc sự kiện thế giới khác.
Nghiêm trọng nhất là các kênh tin tức Ukraine 24 và Ukraine Today, có chương trình phát sóng trực tiếp đã bị tấn công để quảng bá thông điệp “đầu hàng”.
Sam Gregory, giám đốc chương trình tại Witness, một nhóm nhân quyền và công nghệ, cho biết: “Đây là deepfake đầu tiên mà chúng tôi thấy được sử dụng theo cách có chủ đích và mang tính lừa đảo tinh quái”.
Sam Gregory cho rằng deepfake này không có hiệu quả, bởi vì tổng thống Ukraine nói chuyện với người dân Ukraine hàng đêm. Ông cũng đã nhanh chóng bác bỏ deepfake này.
Deepfake của Nga này cũng không có hiệu quả vì nó được tung ra vào lúc Tổng thống Zelenskiy đang có bài nói chuyện với Quốc Hội Hoa Kỳ vào lúc 9g sáng theo giờ Đông Bộ Hoa Kỳ ngày thứ Tư 16 tháng Ba, tức là 8g tối cùng ngày theo giờ Việt Nam. Trong bài nói chuyện, ông kêu gọi Hoa Kỳ giúp Ukraine đánh bại quân Nga.
Đầu tháng này, Ukraine cũng đã cảnh báo người dân cần lưu ý về các video đưa ra các lời kêu gọi đầu hàng rõ ràng.
Cơ quan chức năng cho biết trong một bài đăng trên Facebook: “Các video được thực hiện thông qua các công nghệ như vậy gần như không thể phân biệt được với video thật.”
“Mục tiêu là làm mất phương hướng, gieo rắc hoảng sợ, làm mất lòng tin của người dân và kích động quân đội chúng ta rút lui. Hãy yên tâm - Ukraine sẽ không đầu hàng. “
Sam Gregory nói với Euronews rằng nỗ lực của Ukraine nhằm cảnh giác các công dân của họ trước về các video giả liên quan đến tổng thống Zelenskyy là một “chiến lược thực sự thích hợp”.
Ông nói: “Đây là lần đầu tiên chúng ta chứng kiến một mối đe dọa thực sự đáng kể có thể lường trước được trong một cuộc xung đột.”
“Tôi nghĩ cách làm của Ukraine cung cấp một mô hình có thể áp dụng trong một số tình huống trên toàn cầu cho các chính trị gia, tính toán trước và sau đó là phản ứng nhanh.”
Hôm thứ Tư, Tổng thống Ukraine đã nhanh chóng công bố một video trên trang Instagram của chính mình, nơi ông phủ nhận bất kỳ tuyên bố nào như vậy.
“Những người duy nhất nên từ bỏ vũ khí là các binh sĩ Nga,” ông Zelenskyy nói.
Đáp lại deepfake của Nga, ai đó cũng đã sáng tác ngay một video giả khác của Tổng thống Nga Vladimir Putin, dường như được tạo ra để trả đũa deepfake của Nga. Một phiên bản trên Twitter đã có hơn 50,000 lượt xem
Trong video, Tổng thống Nga tuyên bố Nga đầu hàng và kêu gọi các binh sĩ “hãy về nhà khi anh em còn sống”.
Đoạn video cũng đã được nhái giọng từ một bài phát biểu quốc gia gần đây của Putin.
Witness đã và đang làm việc để giúp người dùng trực tuyến hiểu các video đáng tin cậy về cuộc xung đột Ukraine và đã kêu gọi các nền tảng truyền thông xã hội cung cấp các công cụ và hướng dẫn cởi mở hơn.
Trong một tuyên bố, người đứng đầu chính sách an ninh tại Meta xác nhận rằng đã xóa video deepfake của Nga liên quan đến Tổng thống Zelenskyy.
Nathaniel Gleicher cho biết: “Chúng tôi đã nhanh chóng xem xét và xóa video này vì vi phạm chính sách của chúng tôi về việc chống lại phương tiện truyền thông bị thao túng gây hiểu lầm và thông báo cho đồng nghiệp của chúng tôi ở các nền tảng khác”.
Tưởng cũng nên nhắc lại trước cuộc xâm lược của Nga, các quan chức Mỹ tuyên bố họ có bằng chứng về kế hoạch của Nga để làm một đoạn video giả “rất đồ họa” về một cuộc tấn công của Ukraine vào lãnh thổ Nga như một cái cớ cho một cuộc xâm lược.
Âm mưu bị cáo buộc liên quan đến việc sử dụng xác chết, cảnh quay các tòa nhà bị nổ tung, khí tài quân sự giả của Ukraine, máy bay không người lái do Thổ Nhĩ Kỳ sản xuất và các diễn viên đóng vai những người đưa tang nói tiếng Nga.