Xuất hiện hành vi ghép mặt, giọng nói giống hệt người thân để lừa đảo

Các đối tượng sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao để lừa đảo.

Mới đây, chị Nguyễn Thị Th. (ngụ phường Linh Tây, TP. Thủ Đức, TP.HCM) bị lừa mất 20 triệu đồng với hình thức gọi video qua Facebook.

Theo đó, chị Th. đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook hỏi mượn 20 triệu đồng để đủ tiền đáo hạn ngân hàng. Nghi ngờ Facebook người bạn bị chiếm tài khoản, lừa đảo nên chị Th. đã gọi video để kiểm chứng.

Phía bên kia bắt máy, mở video cho chị Th. thấy mặt bạn nhưng hình ảnh mờ, chập chờn và nói đang cần tiền gấp. Khi chị Th. hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Chị Th. tin tưởng, chuyển 20 triệu đồng vào số tài khoản theo yêu cầu.

Sau khi chuyển tiền được 30 phút, chị Th. dùng điện thoại gọi cho cô bạn hỏi thăm thì mới biết mình đã bị lừa.

Xuất hiện hành vi ghép mặt, giọng nói giống hệt người thân để lừa đảo-1

Hình ảnh Công an Tuyên Quang cung cấp.

Chiều 25/3, Công an tỉnh Tuyên Quang cho biết, trên không gian mạng đã xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi, bằng công nghệ ứng dụng trí tuệ nhân tạo (AI).

Cụ thể, chúng sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả người ngoài đời thực với độ chính xác rất cao.

Khi chúng thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể  tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả.

Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Từ những căn cứ nêu trên, Công an tỉnh Tuyên Quang khuyến cáo và đề nghị mọi người nâng cao cảnh giác, khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.

Cần bình tĩnh, sau đó gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram…).

Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

 

Theo Vietnamnet

Xem link gốc Ẩn link gốc https://vietnamnet.vn/xuat-hien-hanh-vi-ghep-mat-giong-noi-giong-het-nguoi-than-de-lua-dao-2124833.html?fbclid=IwAR09oG0I6xMD5uI_Pbq7FKvAhjiTsSNg8YCHb5-umX_5FEWFL_DqkThbg18

lừa đảo


Gửi bài tâm sự

File đính kèm
Hình ảnh
Words
  • Bạn đọc gửi câu chuyện thật của bản thân hoặc người mình biết nếu được cho phép, không sáng tác hoặc lấy từ nguồn khác và hoàn toàn chịu trách nhiệm trước pháp luật về bản quyền của mình.
  • Nội dung về các vấn đề gia đình: vợ chồng, con cái, mẹ chồng-nàng dâu... TTOL bảo mật thông tin, biên tập nội dung nếu cần.
  • Bạn được: độc giả hoặc chuyên gia lắng nghe, tư vấn, tháo gỡ.
  • Mục này không có nhuận bút.