Tái diễn cuộc gọi Deepfake lừa đảo

Sau thời gian xuất hiện tại Việt Nam vào năm 2023, đến đầu năm 2025, hình thức lừa đảo bằng các cuộc gọi Deepfake (giả mạo video, hình ảnh, âm thanh) quay trở lại.
Cảnh báo của Cục An toàn thông tin.

Cục An toàn thông tin (Bộ Thông tin và Truyền thông) vừa cảnh báo đến đông đảo người dùng Internet trong nước về thủ đoạn lừa đảo giả mạo video, hình ảnh bằng công nghệ cao xuất hiện trong thời gian qua.

Theo đơn vị này, tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo là thủ đoạn vừa được Bộ Công an nhắn tin cảnh báo rộng rãi tới đông đảo người dân.

Sử dụng công nghệ Deepfake cho phép tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng các video, cuộc gọi nhằm lừa đảo tài chính.

Hơn thế, các chiêu trò lừa đảo này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.

Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm, trong đó Deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân qua các cuộc gọi video; sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.

Trước tình hình trên, Cục An toàn thông tin khuyến cáo người dân cảnh giác với những lời khuyên đầu tư từ người nổi tiếng trên mạng xã hội; cảnh giác với những tin nhắn, email hoặc cuộc gọi không xác định; cần quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video.

Người dân cũng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nói; đồng thời, cài đặt tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.

Tú Ân
baodautu.vn

Tin liên quan

Tin cùng chuyên mục