FBI cảnh báo nạn tống tiền tình dục bằng Deepfake ở mức báo động

Kể từ tháng 4, FBI ghi nhận lượng nạn nhân bị tống tiền sử dụng hình ảnh hoặc video được dựng bởi Deepfakes tăng kỷ lục.

Cục Điều tra Liên bang (FBI) phát cảnh báo vấn nạn lừa đảo, tống tiền bằng cách sử dụng deepfake làm công cụ để chỉnh sửa ảnh nóng và video nhạy cảm hiện đang ở mức báo động đỏ. 

Sextortion là một hành vi thức tống tiền qua mạng trong đó các kẻ lừa đảo đe dọa nạn nhân bằng các bằng chứng về hoạt động tình dục, như hình ảnh và video khiêu dâm mà họ đã đánh cắp (thông qua hack) hoặc có được (thông qua ép buộc), thường yêu cầu thanh toán tiền để giữ lại tài liệu.

FBI cảnh báo nạn tống tiền tình dục bằng Deepfake ở mức báo động

Tuy nhiên trong nhiều trường hợp sextortion, nội dung tống tiền không có thực và đó là chiêu trò lừa đảo được dựng bởi deepfake. 

Với những cải tiến của deepfake, tin tắc có thể sử dụng bất kỳ hình ảnh được đăng tải trên tài khoản của nạn nhân, sau đó sử dụng deepfake "ghép" mặt vào bất kỳ video khiêu dâm nào. Những video hoặc hình ảnh đã chỉnh sửa sẽ được lan truyền trên mạng xã hội, diễn đàn công cộng hoặc trang web khiêu dâm. Các deepfakes sau đó được gửi đến nạn nhân để tống tiền hoặc quấy rối.

FBI cảnh báo nạn tống tiền tình dục bằng Deepfake ở mức báo động

Kể từ tháng 4, FBI ghi nhận lượng nạn nhân bị tống tiền sử dụng hình ảnh hoặc video được dựng bởi deepfake tăng kỷ lục.

Dựa trên báo cáo gần đây của nạn nhân, tin tặc thường yêu cầu nạn nhân: Thanh toán (ví dụ: tiền, thẻ quà tặng) kèm theo lời đe dọa chia sẻ hình ảnh hoặc video với các thành viên gia đình hoặc bạn bè trên mạng xã hội nếu không nhận được tiền. Hoặc ép nạn nhân gửi hình ảnh hoặc video thật có nội dung nhạy cảm.

Tốc độ mà các công cụ được hỗ trợ AI được phát tán một cách nhanh chóng. Điều này gây nguy hiểm đến người dùng Internet. 

Có vô vàng công cụ tạo nội dung miễn phí được đăng tải GitHub. Người dùng có thể tạo các video chân thực chỉ từ một hình ảnh duy nhất về khuôn mặt của mục tiêu. Nhiều công cụ trong số này có tính năng bảo vệ tích hợp để ngăn chặn việc lạm dụng, nhưng những công cụ được bán trên các diễn đàn ngầm và chợ đen thì không. 

FBI cảnh báo nạn tống tiền tình dục bằng Deepfake ở mức báo động

FBI khuyến nghị các bậc cha mẹ nên giám sát hoạt động trực tuyến của con mình và nói chuyện với chúng về những rủi ro liên quan đến việc chia sẻ phương tiện cá nhân trực tuyến.

Ngoài ra, các bậc phụ huynh cũng tiến hành tìm kiếm trực tuyến để xác định mức độ tiếp xúc của con mình trên mạng và thực hiện hành động cần thiết để gỡ bỏ nội dung.

Đối với người lớn đăng hình ảnh hoặc video trực tuyến nên hạn chế quyền xem đối với một nhóm nhỏ bạn bè riêng tư để giảm mức độ tiếp xúc. Đồng thời, khuôn mặt của trẻ em phải luôn được làm mờ hoặc đeo khẩu trang.

Hình thức tống tiền tình dục này không phải hoàn toàn mới. Vào năm 2020, một bot deepfake được cung cấp miễn phí trên nền tảng nhắn tin Telegram đã tạo ra hơn 100.000 bức ảnh khỏa thân giả mạo của phụ nữ dựa trên hình ảnh trên mạng xã hội, sau đó những bức ảnh này được chia sẻ trực tuyến.

 

Bài viết liên quan

Bài viết đọc nhiều nhất

Lên đầu trang