- Bạn đọc gửi câu chuyện thật của bản thân hoặc người mình biết nếu được cho phép, không sáng tác hoặc lấy từ nguồn khác và hoàn toàn chịu trách nhiệm trước pháp luật về bản quyền của mình.
- Nội dung về các vấn đề gia đình: vợ chồng, con cái, mẹ chồng-nàng dâu... TTOL bảo mật thông tin, biên tập nội dung nếu cần.
- Bạn được: độc giả hoặc chuyên gia lắng nghe, tư vấn, tháo gỡ.
- Mục này không có nhuận bút.
AI giả giọng thành người thân, nạn nhân mất trắng 15.000 USD
Ai cũng tưởng cuộc điện thoại đó là người thân đang kêu cứu nhưng thực ra những kẻ lừa đảo đã sử dụng AI để giả giọng.
Theo Washington Post, tội phạm công nghệ bước lên tầm cao mới nhờ những bước tiến trong công nghệ trí tuệ nhân tạo (AI). Giờ đây chúng có thể giả giọng bất cứ thành viên nào trong gia đình bạn, sau đó thực hiện cuộc gọi “kêu cứu” và lấy tiền của nạn nhân trong sự ngỡ ngàng của chính họ.
Cơn ác mộng này đã xảy ra với gia đình anh Perkin, người Canada, 39 tuổi. Một người tự nhận là luật sư gọi cho cha mẹ anh, nói anh đã gây ra vụ tai nạn xe hơi, khiến một nhà ngoại giao Mỹ tử vong. Người này cho biết Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý khoảng 21.000 CAD (hơn 15.000 USD).
Lừa đảo qua giả giọng nói bằng AI ngày càng phổ biến. (Ảnh minh họa: Washington Post)
Để tăng độ tin cậy, người này chuyển máy cho Perkin, thực chất là kết nối với thiết bị AI giả giọng.
"Perkin giả mạo nói rất cần tiền, chỉ còn biết gọi cho cha mẹ. Giọng nói đủ gần gũi khiến cha mẹ tôi tin đó là tôi", anh Perkin nói với Washington Post.
Vài giờ sau, vị luật sư hối thúc cha mẹ anh chuyển tiền trước khi Perkin ra tòa, nên họ đã ra ngân hàng rút và gửi đi 15.449 USD cho vị luật sư giả mạo. Cha mẹ của Perkin nói họ có cảm giác cuộc gọi "có gì đó bất thường", nhưng vẫn làm theo vì nghĩ đang nói chuyện với con trai. Tối hôm đó, khi Perkin gọi điện, tất cả mới vỡ lẽ.
Anh Perkin nghi ngờ các video anh đăng trên YouTube là nguồn âm thanh cho kẻ lừa đảo sử dụng AI để giả giọng.
Gia đình Perkin đã trình báo cảnh sát với chính quyền liên bang Canada, nhưng các hành động pháp lý này không giúp họ lấy lại tiền đã mất. "Tiền đã mất. Không có bảo hiểm việc lấy lại là không thể", anh Perkin nói.
Tương tự, một buổi sáng, bà Ruth Card, 73 tuổi ở Regina (Canada), nhận được cuộc gọi từ một người đàn ông có giọng giống cháu bà, anh Brandon. Kẻ lừa đảo nói anh Brandon đang bị tạm giam, không có điện thoại để liên lạc và cần một số tiền để được tại ngoại.
"Trong đầu tôi lúc đó chỉ lóe lên suy nghĩ rằng tôi phải giúp thằng bé ngay lập tức", bà Ruth Card nói với Washington Post.
Bà cùng chồng - ông Greg Grace (75 tuổi) vội đi đến ngân hàng và rút 3.000 CAD (2.207 USD) - mức tối đa bà có thể rút hàng ngày. Cả hai định qua ngân hàng thứ hai để lấy số tiền tương tự.
May mắn cho họ là vị giám đốc ngân hàng đã gọi cả hai vào văn phòng và nói rằng, một khách hàng khác cũng nhận được cuộc gọi giống hệt, cũng bị giả giọng người thân với mức "chính xác đến kỳ lạ".
Đó là khi họ nhận ra bị lừa. Cả hai sau đó đã gọi điện cho anh Brandon và biết rằng cháu mình không hề bị bắt.
Bà Ruth Card cùng chồng suýt nữa trở thành nạn nhân của những kẻ lừa đảo khi nghĩ rằng cháu trai đang gặp nạn. (Ảnh: Washington Post)
"Chúng tôi bị cuốn theo câu chuyện mà không tìm hiểu kỹ. Khi đó, tôi tin chắc đang nói chuyện với Brandon mà không nghi ngờ", bà Card cho hay.
Các vụ lừa đảo công nghệ tăng mạnh thời gian qua, nhưng câu chuyện của bà Card hay Perkin cho thấy xu hướng mới đáng lo ngại - kẻ gian đang lợi dụng AI bắt chước giọng nói cho mục đích lừa tiền. Công nghệ này ngày càng rẻ, dễ tiếp cận khiến số nạn nhân ngày càng tăng, chủ yếu nhắm đến người lớn tuổi.
Theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), trong năm 2022, giả mạo danh tính là hình thức lừa đảo phổ biến thứ hai ở Mỹ với hơn 36.000 trường hợp được ghi nhận. Tội phạm thường giả mạo bạn bè hoặc gia đình để khiến nạn nhân mắc lừa. Riêng lừa đảo qua điện thoại chiếm hơn 5.100 trường hợp, gây thiệt hại hơn 11 triệu USD.
Sự tiến bộ của AI thời gian qua nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. Chỉ bằng một mẫu âm thanh trong một vài câu nói thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.
Giới chuyên gia đánh giá, công cụ AI giả giọng nói đang tràn lan, nhưng các cơ quan quản lý vẫn loay hoay kiểm soát. Trong khi đó, hầu hết nạn nhân đều khó xác định thủ phạm vì kẻ lừa đảo hoạt động trên khắp thế giới. Các công ty tạo ra AI cũng chưa phải chịu trách nhiệm về việc chúng bị kẻ khác lạm dụng.
"Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", Giáo sư Hany Farid tại Đại học California nhận xét. "Kẻ gian sẽ buộc nạn nhân phải phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".
Cũng theo ông, phần mềm AI ngày nay đủ thông minh để phân tích giọng nói của một người.
"Chỉ cần một bản ghi âm từ Facebook, TikTok, giọng nói của bạn sẽ được sao chép chỉ trong 30 giây", giáo sư Farid nói.
ElevenLabs, công ty đứng sau VoiceLab - công cụ AI tái tạo giọng nói, cảnh báo ngày càng nhiều phần mềm giả giọng có mặt trên thị trường, dẫn đến tình trạng lạm dụng.
Trong khi đó, Will Maxson, hiện làm việc tại Ủy ban Thương mại liên bang Mỹ FTC, cho biết việc theo dõi kẻ lừa đảo giọng nói "đặc biệt khó khăn" vì chúng có thể sử dụng điện thoại và ở bất kỳ đâu. Theo ông, nếu nhận cuộc gọi từ người lạ hoặc từ người thân nhờ hỗ trợ, người dùng cần kiểm tra bằng cách gọi lại cho chính người đang gặp sự cố, cũng như gọi cho các thành viên khác trong gia đình để xác minh thông tin.
(Nguồn: The Washington Post)
Theo VTC News
-
Thế giới9 phút trướcNgười phụ nữ cao nhất thế giới và người phụ nữ thấp nhất thế giới đã gặp nhau trong một buổi trà chiều tại London, Anh để kỷ niệm Ngày Kỷ lục Thế giới Guinness.
-
Thế giới59 phút trướcĐoạn clip gây sốc đang khiến cư dân mạng vô cùng bức xúc vì hành vi phản giáo dục của giáo viên mầm non.
-
Thế giới59 phút trướcNgười đàn ông vô tình đốt vợ trong lúc cãi nhau. Hậu quả, cặp vợ chồng và hai con trai của họ đều bị bỏng.
-
Thế giới3 giờ trướcTheo sách Kỷ lục Guinness, Ambati từng được công nhận là bác sĩ trẻ nhất thế giới. Hiện tại, ông là chuyên gia nhãn khoa hàng đầu đang làm việc tại Mỹ.
-
Thế giới4 giờ trướcMột mỏ vàng khổng lồ với trữ lượng ước tính hơn 1.000 tấn đã được phát hiện ở Trung Quốc, hãng thông tấn Tân Hoa Xã đưa tin, dẫn nguồn cơ quan địa chất tỉnh Hồ Nam.
-
Thế giới4 giờ trướcPhát hiện này đã khiến cặp vợ chồng thu mua phế liệu vô cùng bàng hoàng.
-
Thế giới4 giờ trướcSau 20 năm ly hôn vì chồng ngoại tình, người vợ bỏ qua mọi lỗi lầm, quay lại chăm sóc chồng cũ bại liệt.
-
Thế giới5 giờ trướcMột tác phẩm của nghệ sĩ Maurizio Cattelan, bao gồm một miếng băng keo và một quả chuối dán trên tường, đã được bán với gần 160 tỷ đồng.
-
Thế giới8 giờ trướcSau một lần bị cấp trên đổ lỗi một cách bất công, người đàn ông rơi vào trạng thái buồn bực, uất ức và bị mất ngủ suốt nhiều năm.
-
Thế giới8 giờ trướcCô gái trở thành tâm điểm chú ý trên mạng xã hội sau hành động liều lĩnh của mình tại vườn thú.
-
Thế giới8 giờ trướcĐám cưới đang diễn ra vui vẻ, cô dâu cười rạng ngời hạnh phúc thì chú rể bật video "nhá hình" cô dâu thân mật với người đàn ông khác khiến cả hội trường xôn xao.
-
Thế giới18 giờ trướcCác video của bà mẹ 2 con chứa đầy những kỷ niệm thú vị về con trai và những lời khuyên hướng đến vợ tương lai của họ. Cô muốn trở thành mẹ chồng mà các con dâu có thể tin tưởng.
-
Thế giới18 giờ trướcEllen DeGeneres, Portia de Rossi và Eva Longoria là những cái tên tiếp theo rời khỏi nước Mỹ sau chiến thắng của ông Donald Trump trong cuộc bầu cử Tổng thống Mỹ.
-
Thế giới23 giờ trướcMột người phụ nữ 73 tuổi đã bị chính con chó Pitbull của mình tấn công và cắn tử vong tại nhà riêng.