- Bạn đọc gửi câu chuyện thật của bản thân hoặc người mình biết nếu được cho phép, không sáng tác hoặc lấy từ nguồn khác và hoàn toàn chịu trách nhiệm trước pháp luật về bản quyền của mình.
- Nội dung về các vấn đề gia đình: vợ chồng, con cái, mẹ chồng-nàng dâu... TTOL bảo mật thông tin, biên tập nội dung nếu cần.
- Bạn được: độc giả hoặc chuyên gia lắng nghe, tư vấn, tháo gỡ.
- Mục này không có nhuận bút.
Mất tiền đau vì tin vào cuộc gọi Deepfake
Không chỉ lừa đảo chuyển tiền, tội phạm mạng còn sử dụng Deepfake để lồng ghép hình ảnh nạn nhân vào video khiêu dâm, thậm chí lan truyền tin giả gây bất ổn xã hội.
“Chuyển giúp anh 30 triệu nhé, mấy hôm nữa anh trả sau”, đó là nội dung tin nhắn Messenger mà một ông anh thân thiết gửi cho Lê Khải (TP.HCM). Tin nhắn được gửi đến lúc 22h tối, khoảng thời gian 2 anh em vẫn thường trao đổi với nhau lúc cuối ngày.
Thấy ông anh chỉ vừa đăng status kết quả một trận đấu bóng đá ít phút trước, Lê Khải không mảy may nghi ngờ nội dung tin nhắn. Nhưng khi nhớ tới mấy vụ lừa đảo đọc được trên báo, để thêm phần chắc chắn, anh quyết định gọi video call để kiểm tra.
“Anh đây”, giọng nói cùng hình ảnh ông anh thân thuộc hiện ra qua màn hình điện thoại. Nhận thấy khung cảnh đằng sau có phần nhạy cảm, Khải không nghĩ nhiều, chỉ bảo “vâng” rồi cúp máy và âm thầm thực hiện lệnh chuyển tiền.
Phải đến ngày hôm sau, Khải mới biết rằng, trong tối hôm đó, anh cùng rất nhiều người quen khác của ông anh nọ đã trở thành nạn nhân của những kẻ lừa đảo.
Vụ việc kể trên là một kịch bản điển hình được bọn tội phạm mạng thường xuyên sử dụng thời gian gần đây. Trong kịch bản này, nạn nhân rất dễ rơi vào cái bẫy mà kẻ lừa đảo đã giăng sẵn bởi sự tiếp tay của Deepfake - công nghệ đang nổi lên như một mối hiểm họa mới.
Những cuộc gọi Deepfake, giả mạo người thân, bạn bè, cán bộ cơ quan quản lý nhà nước xuất hiện ngày càng nhiều thời gian gần đây. Ảnh: Trọng Đạt
"Tôn Hành Giả - Giả Hành Tôn" thời 4.0
Với những ai từng xem bộ phim truyền hình nổi tiếng Tây Du Ký, chắc hẳn họ sẽ không quên được câu chuyện Tôn Hành Giả - Giả Hành Tôn. Trong kiếp nạn Mỹ Hầu Vương giả, chỉ đến khi Phật Tổ Như Lai hiện thân, ngài mới có đủ bản lĩnh để phân biệt đâu là Giả Hành Tôn, đâu là Tôn Hành Giả.
Có một điều trớ trêu là câu chuyện Tôn Hành Giả - Giả Hành Tôn đang xuất hiện ngày một nhiều hơn trong thời đại 4.0. Không cần phải có nhiều phép thần thông biến hóa như trong phim, các Giả Hành Tôn thời 4.0 chỉ cần nắm trong tay một công cụ duy nhất, đó chính là Deepfake.
Xuất hiện và dần trở nên phổ biến từ năm 2017, Deepfake là một từ ghép của “deep” trong “deep learning” (học sâu) và “fake” (giả mạo). Deep learning là phương pháp AI tiên tiến sử dụng nhiều lớp thuật toán machine learning để trích xuất dần các tính năng cao cấp hơn từ dữ liệu đầu vào.
Nó có khả năng học hỏi từ dữ liệu phi cấu trúc, chẳng hạn như khuôn mặt con người, chuyển động vật lý và giọng nói. Các dữ liệu này sau đó sẽ được xử lý để tạo ra video Deepfake thông qua mạng GAN (Generative Adversarial Network). Mạng lưới này liên tục kiểm tra các hình ảnh tạo ra theo thiết lập từ trước, nhờ đó, hình ảnh sẽ ngày càng thuyết phục hơn.
Sự tiến bộ của công nghệ xử lý hình ảnh và giọng nói bằng các thuật toán học sâu cũng đi kèm với nó là nhiều hệ lụy. Ảnh: Minh họa
Chia sẻ với PV VietNamNet, ông Nguyễn Văn Cường, Giám đốc an ninh mạng, Tập đoàn công nghệ Bkav cho biết, Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video, trong đó khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video hoặc âm thanh của người khác.
Quá trình này bao gồm việc phân tích và tách riêng các đặc điểm của khuôn mặt và giọng nói, sau đó ghép chúng vào nội dung mới. Kết quả là một đoạn video hoặc âm thanh mới có thể hiển thị người mục tiêu đang nói hoặc thực hiện các hành động mà thực tế họ không thực sự làm. Deepfake có thể tạo ra nội dung giả mạo rất giống với nguyên bản, gây nhầm lẫn và khó phân biệt cho người xem, từ đó tạo ra những tác động tiêu cực cho cá nhân và xã hội.
Deepfake có thể được sử dụng để tạo ra video giả mạo bất kỳ ai, đặc biệt là trong các tình huống lừa đảo chiếm đoạt tài sản thông qua cuộc gọi video call giả mạo người thân để yêu cầu chuyển tiền.
Người tạo video Deepfake cũng có thể sử dụng chúng để phỉ báng, xâm phạm quyền riêng tư của người khác. Điều này có thể gây ra hậu quả nghiêm trọng cho danh dự và sự tin tưởng của người bị tác động.
Ngoài ra, Deepfake còn từng bị lạm dụng để tạo ra video giả mạo của các quan chức, chính trị gia hoặc người nổi tiếng, với các phát ngôn hoặc hành động có thể gây ra sự bất ổn xã hội.
“Những tác động tiêu cực của Deepfake có thể lan rộng và gây ảnh hưởng đáng kể đến đời sống cá nhân, quan hệ xã hội, chính trị và kinh tế. Điều này đòi hỏi sự chú ý, phòng ngừa, nhận diện và giải quyết các vấn đề liên quan”, Giám đốc an ninh mạng Tập đoàn Bkav nói.
“Dịch dung” chỉ bằng 1 bức ảnh và 5 giây giọng nói
Không cần phải dùng tới các ca phẫu thuật thẩm mỹ phức tạp, tốn kém, trong thời đại công nghệ số, việc “dịch dung”, biến thân thành một người khác, thậm chí với khuôn mặt và giọng nói của một người cụ thể được thực hiện tương đối dễ dàng.
Theo bà Võ Dương Tú Diễm, Giám đốc vùng Việt Nam, Cambodia và Myanmar, công ty bảo mật Kaspersky, nhờ những tiến bộ trong machine learning (học máy), các video Deepfake mang tính thuyết phục có thể được thực hiện trong một khoảng thời gian rất ngắn, chỉ bằng 1 bức ảnh duy nhất và chỉ 5 giây giọng nói của nạn nhân.
Giải thích thêm, bà Diễm cho hay, nhiều người dùng hay đăng tải các video ngắn hoặc ảnh của họ lên mạng xã hội. Đây là nguồn nguyên liệu đầu vào để tội phạm mạng có thể tạo ra các tác phẩm Deepfake của hầu hết mọi người mà chúng muốn một cách dễ dàng. Thông qua Deepfake, nguồn dữ liệu người dùng này sẽ được sử dụng vào nhiều mục đích khác nhau, bao gồm trả thù, lừa đảo tài chính, thao túng chính trị và quấy rối.
Chỉ bằng 1 bức ảnh và 5 giây giọng nói của nạn nhân, tội phạm mạng đã có đủ thông tin để hình thành một video Deepfake. Ảnh minh họa.
Lĩnh vực đầu tiên và rõ ràng nhất mà Deepfake tập trung hướng đến là nội dung khiêu dâm. Những người nổi tiếng là những nạn nhân đầu tiên, thế nhưng ngay cả những người bình thường cũng bắt đầu lo lắng về vấn đề này.
Khi sở hữu khuôn mặt và giọng nói của người khác, kẻ xấu sẽ có vô vàn kịch bản sử dụng khác nhau như bắt nạt học đường, gọi điện lừa đảo chuyển tiền, tống tiền người quản lý công ty hoặc thậm chí cả các hoạt động gián điệp công nghiệp.
Với việc có ngày càng nhiều các ứng dụng Fintech (công nghệ tài chính), khối lượng dữ liệu tài chính gia tăng trở thành “miếng mồi” ngon thu hút tội phạm mạng. Bên cạnh đó, một lượng lớn thông tin cá nhân quan trọng hiện đang được lưu trữ trên thiết bị di động. Nhiều nhóm tội phạm mạng sử dụng Deepfake và các phần mềm độc hại cao cấp để tấn công vào điện thoại nhằm đánh cắp dữ liệu của nạn nhân.
Sau khi lừa đảo thành công, không có lý do gì để tội phạm mạng dừng hoạt động, từ đó dẫn đến ngày càng nhiều người bị mắc bẫy.
Tỉnh táo, cảnh giác với cuộc gọi bất thường
Theo ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin (Bộ TT&TT), với các cuộc gọi Deepfake, bằng mắt thường vẫn có thể nhận thấy một số các dấu hiệu như thời gian gọi thường rất ngắn chỉ vài giây, khuôn mặt của người trong cuộc gọi video giả mạo thường thiếu cảm xúc và khá "trơ" khi nói, tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể không nhất quán với nhau…
Ngoài ra, cũng có thể nhận thấy sự bất thường từ màu da của nhân vật trong video cuộc gọi, ánh sáng kỳ dị và bóng đổ không đúng vị trí, khiến cho video trông không tự nhiên. Âm thanh cũng là điểm có thể nhận thấy sự khác lạ, khi không đồng nhất với hình ảnh, có nhiều tiếng ồn lạc vào hoặc video không có âm thanh. Thông thường, kẻ gian sẽ ngắt cuộc gọi giữa chừng với lý do mất sóng, sóng yếu…
Những vụ giả danh công an để lừa đảo chuyển tiền hiện rất phổ biến. Với sự kết hợp của công nghệ Deepfake, tội phạm mạng thậm chí có thể giả danh bất cứ ai. Ảnh: Trọng Đạt
Theo ông Nguyễn Văn Cường, năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, do vậy, các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao.
“Người dùng không nên tin các video clip có thời lượng ngắn, chất lượng thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru, không ngắt nghỉ… Đó là những dấu hiệu giúp người dùng phân biệt và nhận ra video giả mạo”, vị chuyên gia này cảnh báo.
Để tránh trở thành nạn nhân của Deepfake, theo ông Cường, người dùng cần hạn chế chia sẻ thông tin cá nhân trên các nền tảng trực tuyến và mạng xã hội. Người dùng cũng nên cân nhắc trước khi đăng tải hình ảnh hoặc video cá nhân và chia sẻ với người khác để bảo vệ thông tin cá nhân khỏi bị rò rỉ vào tay giới tội phạm mạng.
Ở góc nhìn của mình, bà Võ Dương Tú Diễm cho hay, từ hàng trăm triệu tài khoản giả mạo trên mạng xã hội cho đến sự lan truyền của fake news và sự gia tăng liên tục của các cuộc tấn công lừa đảo, việc suy nghĩ kỹ về những gì chúng ta nhìn thấy chưa bao giờ quan trọng hơn thế.
Trong thời đại công nghệ số, người dùng chỉ có thể tự bảo vệ bản thân bằng cách hạn chế sự hiện diện công khai trên mạng xã hội, chuyển các bài đăng sang chế độ riêng tư. Người dùng nên thiết lập thói quen bảo mật tốt, sử dụng mật khẩu mạnh, mỗi tài khoản nên dùng một mật khẩu khác nhau, đồng thời sử dụng các giải pháp bảo mật để bảo vệ máy tính, smartphone và mạng Internet gia đình.
Theo Vietnamnet
-
Pháp luật1 ngày trướcBức xúc vì hàng xóm to tiếng với vợ mình chỉ vì chuyện dùng vòi xịt nước, Nguyễn Văn Bắc ở Hà Tĩnh đã cầm dao đâm chết người này và làm bị thương một người khác.
-
Pháp luật1 ngày trướcTổng cục Hải quan yêu cầu các đơn vị phối hợp chặt chẽ với Cục Điều tra chống buôn lậu để trao đổi thông tin với Hải quan các nước, Interpol, Tổ chức Hải quan thế giới....lập chuyên án đấu tranh các đường dây buôn lậu vàng, chuyển tiền bất hợp pháp xuyên quốc gia.
-
Pháp luật1 ngày trướcCông an huyện Thủy Nguyên (TP Hải Phòng) vừa bắt quả tang Nguyễn Bá Khánh (SN 1991, chủ thầu xây dựng) và Lường Văn Cường (SN 1994, quản lý lao động) chia nhỏ ma túy (heroin) để bán và trả công cho công nhân bằng ma túy.
-
Pháp luật2 ngày trướcMột người đàn ông ở Hà Nội bị lừa số tiền gần 2,5 tỷ đồng khi tham gia "làm nhiệm vụ VIP" trên mạng xã hội.
-
Pháp luật2 ngày trướcTạo lập hơn 50 nhóm trên Telegram, 2 đối tượng đăng tải nội dung môi giới mại dâm trên toàn quốc để thực hiện hành vi lừa đảo, chiếm đoạt hàng tỷ đồng.
-
Pháp luật2 ngày trướcNgười mẹ giao xe ô tô BMW cho con trai “biểu diễn” gây náo loạn tại trung tâm TP.HCM. Mới đây, hai mẹ con bị CSGT xử phạt hành chính.
-
Pháp luật6 ngày trướcKhông có tiền tiêu nên Lường Văn Nam lên kế hoạch cướp chiếc Hyundai Accent của chị N. T. ở Hà Nội rồi bỏ chạy.
-
Pháp luật6 ngày trướcSau tiếng “bốp” khô khốc, chị H ngã vật xuống đất. Trong cơn choáng váng chị H vẫn cảm nhận được bàn tay của gã đàn ông vừa đánh mình đang lục lọi. Biết mình đã gặp kẻ cướp, nhưng chị H chẳng thể làm gì, chị nằm im, bất lực.
-
Pháp luật11/05/2024Nghe tiếng hô hoán cứu, một số người dân đã nhanh chóng chạy ra và thấy L. đang cầm dao. Thấy vậy, họ chạy vào nhà cầm gậy ra khống chế đối người này.
-
Pháp luật10/05/2024Tại phiên tòa, Đào Thị Mộng Thường khẳng định mình và nạn nhân có quan hệ tình cảm, số tiền kia là “tình phí” do người đàn ông cho.
-
Pháp luật08/05/2024Công an thành phố Lai Châu đang điều tra vụ việc người đàn ông bị đánh hội đồng dã man ở một cây xăng trên địa bàn. Người dân và cộng đồng mạng rất bất bình về tính côn đồ, hung hãn của nhóm người sau khi clip được chia sẻ trên mạng xã hội.
-
Pháp luật08/05/2024Ba người sống lang thang ở công viên, cùng nhau đi nhậu, sau đó 2 người trong nhóm bàn nhau cướp tiền của người còn lại. Sau khi bị cướp, người này dùng dao đâm chết 1 trong 2 người đã cướp tiền của mình. Vụ án xảy ra tại công viên ở Thành phố Long Xuyên, tỉnh An Giang.
-
Pháp luật07/05/2024Sau khi thu tiền hàng của công ty trên 600 triệu đồng, Lâm Văn Sel chuyển vào tài khoản cá nhân rồi tự nghỉ việc và chiếm đoạt số tiền trên.
-
Pháp luật06/05/2024Anh H. đã tự ý sử dụng xe nâng hàng dẫn đến gây hậu quả nghiêm trọng làm chết người có thể bị truy cứu trách nhiệm hình sự theo quy định của Bộ Luật Tố tụng hình sự.