Làm giả clip 'nóng' bằng AI đăng mạng, nhiều thiếu niên thành tội phạm tình dục

Thành thạo công nghệ, nhiều thiếu niên Hàn Quốc trở thành tội phạm tình dục thế hệ mới khi ghép mặt nạn nhân vào clip nóng rồi đăng lên mạng xã hội.

Theo cảnh sát và các chuyên gia công nghệ cao ở Hàn Quốc, ngày càng có nhiều người dân, đa số là trẻ vị thành niên, trở thành nạn nhân của tội phạm tình dục thế hệ mới. Với công nghệ deepfake, tội phạm tạo ra hình ảnh và video có nội dung khiêu dâm, ghép mặt của nạn nhân vào và lưu truyền rộng rãi trên nền tảng Telegram.

Các cơ quan thực thi pháp luật đã cam kết huy động thêm nguồn lực để bắt giữ bọn tội phạm. Trong khi đó, các chuyên gia kêu gọi chính phủ khởi xướng một chiến dịch toàn quốc nhằm nâng cao nhận thức của công chúng về loại tội phạm công nghệ cao này và ủng hộ các hình phạt nghiêm khắc hơn đối với chúng.

Gần đây, một bài đăng tên nền tảng X tiết lộ danh sách hàng trăm trường trung học cơ sở, trung học phổ thông và đại học có học sinh trở thành nạn nhân của tội phạm tình dục deepfake, gây bức xúc trong dư luận xứ sở kim chi. Hội đồng học sinh của một số trường ở Thủ đô Seoul và tỉnh Gyeonggi đã phải cảnh báo học sinh về những rủi ro tiềm ẩn của tội phạm tình dục.

Thông báo khẩn cấp nêu rõ: "Hiện tại, vấn nạn sử dụng hình ảnh deepfake và thông tin cá nhân của các học đang được nở rộ trên Telegram. Học sinh cần xóa hoặc tránh đăng ảnh của mình trên các nền tảng trực tuyến".

Theo Cơ quan Cảnh sát Thủ đô Seoul, trong khoảng thời gian từ tháng 1 đến tháng 7 năm nay, chỉ riêng tại thành phố này đã có 10 thanh thiếu niên từ 14 tuổi trở lên bị bắt vì phạm tội bằng deepfake.

Làm giả clip nóng bằng AI đăng mạng, nhiều thiếu niên thành tội phạm tình dục-1Thiếu niên là tội phạm chính trong các vụ án tấn công tình dục bằng deepfake.

Theo dữ liệu từ Cơ quan Cảnh sát Quốc gia, tổng cộng 95,8% số nghi phạm trong các vụ án tình dục deepfake ở độ tuổi từ thiếu niên đến 20. Trong phần lớn các vụ việc, nam sinh sử dụng công nghệ cao để nhắm vào nữ sinh. Tội phạm deepfake ngày càng nổi lên như một hình thức bạo lực học đường hoặc quấy rối tình dục.

“Thật đáng lo ngại khi không chỉ học sinh mà cả giáo viên cũng trở thành nạn nhân của tội phạm deepfake. Tội ác này đang ngày càng gia tăng bởi giới thanh thiếu niên thành thạo các thiết bị AI”, một viên chức cảnh sát nói trong cuộc họp báo thường kỳ.

Vụ việc sử dụng deepfake để ghép mặt nữ quân nhân gần đây bị xã hội kịch liệt lên án. Một phòng trò chuyện trực tuyến trên Telegram với hơn 900 người tham gia đã bị phát hiện, trong đó các video và hình ảnh giả của các nữ binh sỹ được chia sẻ kèm theo những lời lẽ tục tĩu, mang tính lăng mạ.

Phòng trò chuyện Telegram sử dụng bot trả phí có khả năng ngay lập tức biến ảnh chân dung thành ảnh khỏa thân. Người quản trị sẽ cung cấp miễn phí hai hình ảnh đầu tiên, từ bức thứ ba, mức phí là 0,49 USD/ảnh (khoảng 12 nghìn đồng). Tính đến nay, phòng trò chuyện này đã có gần 227 nghìn người dùng tham gia.

“Hàn Quốc có khoảng 260 nghìn chiếc xe taxi. Điều này có nghĩa là khả năng gặp phải tội phạm tình dục cao gần bằng khả năng vẫy được chiếc taxi trên phố”, một người dùng trực tuyến bức xúc chia sẻ.

Số lượng tội phạm tình dục liên quan đến deepfake đã tăng từ 156 vụ năm 2021 lên 160 vụ vào năm 2022 và 180 vụ năm 2023. Trong khi công nghệ tiến bộ nhanh chóng, luật pháp và hệ thống tại Hàn Quốc vẫn chưa có quy định để xử phạt nặng. Trong 71 vụ phạm tội gần đây, có 35 vụ bị tạm đình chỉ do không đủ chứng cứ điều tra, 31 vụ dẫn đến án tù vì tội danh khác. Chỉ có 5 vụ mà bị cáo bị kết tội dùng deepfake, nhưng hưởng án treo.

Theo VTC

Xem link gốc Ẩn link gốc https://vtcnews.vn/lam-gia-clip-nong-bang-ai-dang-mang-nhieu-thieu-nien-thanh-toi-pham-tinh-duc-ar892032.html

tội phạm tình dục


Gửi bài tâm sự

File đính kèm
Hình ảnh
Words
  • Bạn đọc gửi câu chuyện thật của bản thân hoặc người mình biết nếu được cho phép, không sáng tác hoặc lấy từ nguồn khác và hoàn toàn chịu trách nhiệm trước pháp luật về bản quyền của mình.
  • Nội dung về các vấn đề gia đình: vợ chồng, con cái, mẹ chồng-nàng dâu... TTOL bảo mật thông tin, biên tập nội dung nếu cần.
  • Bạn được: độc giả hoặc chuyên gia lắng nghe, tư vấn, tháo gỡ.
  • Mục này không có nhuận bút.