Ngân hàng cảnh báo tình trạng giả dạng khuôn mặt, giả mạo Bộ Công an để lừa đảo: Deepfake ngày càng tinh vi, nguy cơ "bủa vây" người dùng

Deepfake - Lừa đảo cuộc gọi video vẫn diễn ra ngày càng phức tạp và tinh vi.

Ngân hàng cảnh báo hàng loạt thủ đoạn lừa đảo

Trong thời gian qua tình hình lừa đảo chiếm đọat tài sản trên không gian mạng vẫn diễn ra với nhiều diễn biến phức tạp, đặc biệt trong lĩnh vực ngân hàng. Các vụ lừa đảo với nhiều chiêu thức tinh vi nhằm chiếm đoạt thông tin tài khoản ngân hàng ngày càng gia tăng, gây tổn thất lớn cho người dùng.

Mới đây, nhiều ngân hàng đồng loạt đưa ra cảnh báo đối với các khách hàng  những hình thức lừa đảo thường gặp và cách đảm bảo an toàn cho tài khoản.

Ngân hàng cảnh báo tình trạng giả dạng khuôn mặt, giả mạo Bộ Công an để lừa đảo: Deepfake ngày càng tinh vi, nguy cơ bủa vây người dùng-1
Tình trạng lừa đảo ngày càng diễn biến phức tạp với nhiều thủ đoạn tinh vi. Ảnh minh họa.

Những hình thức lừa đảo tài khoản ngân hàng thường gặp:

+ Làm giả các website, fanpage của các ngân hàng, tổ chức tài chính... với giao diện gần giống với website, fanpage thật.

+ Lừa đảo lợi dụng cài đặt phần mềm không rõ nguồn gốc, ứng dụng gián điệp nhằm đánh cắp thông tin về dịch vụ, mật khẩu, mã OTP được gửi từ ngân hàng đến điện thoại di động.

+ Mạo danh cán bộ nhân viên ngân hàng hoặc cán bộ nhân viên thuộc cơ quan công an, tòa án, viện kiểm sát… gọi điện yêu cầu cung cấp thông tin tài khoản, thông tin bảo mật dịch vụ.

+ Tạo tài khoản giả mạo trên MXH, sử dụng thông tin của người khác để nhắn tin vay tiền hoặc sử dụng cuộc gọi video deepfake với hình ảnh và giọng nói mô phỏng theo người thân, bạn bè của nạn nhân để tạo sự tin tưởng.

Trong số những hình thức lừa đảo này, ngân hàng đặc biệt cảnh báo đến người dùng hình thức lừa đảo qua cuộc gọi video hay còn gọi là Deepfake. Đây là một trong những hình thức chủ yếu khiến nhiều nạn nhân sập bẫy lừa đảo với số tiền hàng tỷ đồng.

Ngân hàng cảnh báo tình trạng giả dạng khuôn mặt, giả mạo Bộ Công an để lừa đảo: Deepfake ngày càng tinh vi, nguy cơ bủa vây người dùng-2
Tội phạm công nghệ cao dùng công nghệ deepfake mạo danh công an để lừa đảo đang rất nóng. Ảnh: CAHN

 Với những hình thức trên, ngân hàng này khuyến cáo khách hàng của mình sử dụng các biện pháp sau để đảm bảo an toàn tài khoản:

+ Không truy cập vào các trang web lạ (các trang web tải phần mềm không có bản quyền, key crack...), các website nghi ngờ giả mạo có thể đính kèm virus mà người dùng khó lòng nhận biết. Đồng thời sử dụng các thiết bị tin cậy, bảo mật tốt.

+ Đối với các cuộc gọi Video Deepfake, người dùng có thể nhận biết qua một số dấu hiệu như: Video được tạo sẵn, có nội dung chung chung, không phù hợp với ngữ cảnh giao tiếp thực tế; thời lượng cuộc gọi chỉ vài giây; khuôn mặt thiếu tính cảm xúc khi nói, âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc hoặc video không có âm thanh.

Deepfake ngày càng tinh vi

Khi thật – giả ngày càng khó phân biệt, ai cũng có thể trở thành mục tiêu tấn công của tội phạm. Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC) - ông Nguyễn Phú Lương đã đưa ra một số khuyến cáo đến người dân để hạn chế dính bẫy lừa đảo deepfake.

Đầu tiên, khi tham gia hoạt động trên không gian mạng, người dân cần hình thành thói quen thận trọng, cảnh giác và tư duy “fact check” (kiểm chứng sự thực). Người dùng mạng cần tìm cách kiểm chứng mọi thông tin nhận được bằng cách kiểm tra chéo giữa các nguồn khác nhau. Trong trường hợp nhận được video từ người thân với tình huống hoặc yêu cầu bất ngờ, hãy cố gắng kéo dài cuộc gọi video call để biết chắc đang nói chuyện với người thật chứ không phải đoạn video dựng sẵn.

Sau đó, người dùng cần xác minh lại qua các kênh khác, ưu tiên các kênh trực tiếp hoặc gọi điện thoại qua mạng viễn thông. Đặc biệt, không chia sẻ bất cứ thông tin nào nếu chưa chắc chắn 100% về tính xác thực của nó.

Thứ hai, trước tình trạng lừa đảo bằng deepfake ngày càng diễn biến phức tạp ở nhiều lĩnh vực ngành nghề, trong đó chủ yếu là lừa đảo tài chính, ông Lương khuyến cáo người dân khi nhận được các cuộc gọi video liên quan đến yêu cầu chuyển tiền, vay mượn thì cần xác nhận kỹ và trong mọi trường hợp không chuyển tiền cho các số tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè.

Ngân hàng cảnh báo tình trạng giả dạng khuôn mặt, giả mạo Bộ Công an để lừa đảo: Deepfake ngày càng tinh vi, nguy cơ bủa vây người dùng-3
Để hạn chế lừa đảo qua cuộc gọi video, điều quyết định vẫn ở người dùng.

Ngoài ra, khi nhìn bằng mắt thường có thể thấy khuôn mặt nhân vật trong video deepfake ít biểu cảm, ánh sáng kỳ lạ và bóng đổ không đúng vị trí, nhân vật không có các hành động đưa tay lên gãi mặt hoặc dụi mắt, vì các hành động này sẽ gây lỗi cho AI.

Không chỉ những người có ít hiểu biết về công nghệ mới "dính bẫy" ngay cả những người có hiểu biết kiến thức về kỹ năng sống, công nghệ,... vẫn có khả năng bị lừa. Ông Lương điểm tên một số công cụ có thể kiểm chứng video sử dụng deepfake hay không như: Intel Fake Catcher hay Microsoft Video Authenticator. Các công cụ này sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh.

Ông Lương cũng cho biết thêm, việc tạo ra video deepfake rất dễ dàng, trong khi đó gần như chưa có giải pháp nào để chặn lọc.

"Bối cảnh chung trên thế giới là gặp khó khăn trong việc chặn lọc những video deepfake khỏi không gian mạng. Giải pháp hiện tại là cố gắng tuyên truyền, khuyến cáo người dân thận trọng với mọi thông tin tiếp cận được, luôn tuân thủ các nguyên tắc về an toàn thông tin", ông Lương cho biết.

Theo PHỤ NỮ MỚI

Xem link gốc Ẩn link gốc https://phunumoi.net.vn/ngan-hang-canh-bao-tinh-trang-gia-dang-khuon-mat-gia-mao-bo-cong-an-de-lua-dao-deepfake-ngay-cang-tinh-vi-nguy-co-bua-vay-nguoi-dung-d288833.html

lừa đảo


Gửi bài tâm sự

File đính kèm
Hình ảnh
Words
  • Bạn đọc gửi câu chuyện thật của bản thân hoặc người mình biết nếu được cho phép, không sáng tác hoặc lấy từ nguồn khác và hoàn toàn chịu trách nhiệm trước pháp luật về bản quyền của mình.
  • Nội dung về các vấn đề gia đình: vợ chồng, con cái, mẹ chồng-nàng dâu... TTOL bảo mật thông tin, biên tập nội dung nếu cần.
  • Bạn được: độc giả hoặc chuyên gia lắng nghe, tư vấn, tháo gỡ.
  • Mục này không có nhuận bút.