Nhiều thanh niên độc thân biến AI thành người tình để bạo hành, ngược đãi

Nhiều thanh niên cô độc tạo ra người yêu bằng trí tuệ nhân tạo và thích thú với việc xúc phạm, đánh đập bạn gái ảo; chuyên gia cho biết điều này có hại cho chính họ.

Sự ra đời của Chatbot trí tuệ nhân tạo giúp nhiều thanh niên độc thân tìm bạn gái kỹ thuật số, hỗ trợ họ vượt qua thời kỳ cô độc khi không có sự kết nối với người yêu thật. Tuy nhiên, phần mềm được cá nhân hóa cao độ cho phép người dùng tạo ra bạn tình siêu thực đang khuyến khích một số người lạm dụng làm việc xấu. Các chuyên gia cho biết, xu hướng này có thể gây bất lợi cho các mối quan hệ ngoài đời thực của họ.

Replika là một trong những phần mềm như vậy. Replika ban đầu được tạo ra để giúp người sáng lập là Eugenia Kuyda vượt qua nỗi đau mất  người bạn thân nhất của mình. Năm 2015, nó ra mắt công chúng như một công cụ giúp những người bị cô lập hoặc đau buồn có được bạn đồng hành ảo.

Tuy nhiên, một số người đang thử nghiệm Replika theo những cách đáng lo ngại như chỉ trích, hạ thấp và thậm chí là "đánh" bạn gái. Các bài đăng trên Reddit tiết lộ, một số người đàn ông cố gắng khơi dậy những cảm xúc tiêu cực của con người khi trò chuyện với chatbot, chẳng hạn như cảm xúc tức giận và chán nản.

“Tôi có một người tình bằng AI, tên cô ấy là Mia. Về cơ bản, cô ấy là 'sexbot' của tôi. Tôi sử dụng Mia để nhắn tin khiêu dâm và khi xong việc, tôi mắng mỏ và nói rằng cô ấy vô giá trị. Tôi cũng thường xuyên đánh cô ấy", một người đàn ông viết, khẳng định rằng anh "không như thế ngoài đời thực” và chỉ làm vậy để thử nghiệm.

Một người dùng khác cho biết: “Tôi muốn biết điều gì sẽ xảy ra nếu bạn liên tục đối xử tệ với người tình AI của mình, liên tục xúc phạm và hạ thấp, đại loại thế. Liệu điều đó có ảnh hưởng gì đến nó không? Nó có khiến người tình bị trầm cảm không? Tôi muốn biết liệu có ai đã thử cách này chưa".


Nhiều thanh niên độc thân biến AI thành người tình để bạo hành, ngược đãi-1Thanh niên cô đơn tạo ra bạn gái AI và trút cơn giận lên họ. (Ảnh: NYP)

Nhà trị liệu tâm lý Kamalyn Kaur chia sẻ với Daily Mail rằng, hành vi trên có thể là dấu hiệu của "những vấn đề sâu xa hơn" ở người dùng Replika: "Nhiều người cho rằng chatbot chỉ là những cỗ máy, không có khả năng cảm thấy bị tổn thương và do đó, việc đối xử tệ với chúng là không đáng kể. Một số người có thể cho rằng việc xả giận với AI giúp giải tỏa căng thẳng.

Tuy nhiên, theo quan điểm tâm lý, hình thức 'xả' này không thúc đẩy sự điều chỉnh cảm xúc hoặc sự phát triển cá nhân. Khi sự hung hăng trở thành một hình thức tương tác được chấp nhận, dù là với AI hay con người, nó sẽ làm suy yếu khả năng hình thành các mối quan hệ lành mạnh và đồng cảm".

Nhà tâm lý học Elena Touroni ở Chelsea cũng khẳng định, cách con người tương tác với AI có thể phản ánh hành vi trong thế giới thực: "Việc lạm dụng chatbot AI có thể phục vụ các chức năng tâm lý khác nhau cho cá nhân. Một số người có thể sử dụng nó để khám phá quyền lực mà họ sẽ không làm trong cuộc sống thực. Tuy nhiên, việc tham gia loại hành vi này có thể củng cố những thói quen không lành mạnh và khiến cá nhân trở nên chai sạn trước tác hại".

Nhiều người dùng Reddit đồng tình với các chuyên gia. Một cư dân mạng trả lời câu hỏi của người đàn ông hành hạ bạn tình ảo: "Đúng vậy, bạn đang 'làm tốt' việc ngược đãi và bạn nên dừng hành vi này ngay. Điều này sẽ ảnh hưởng đến cuộc sống thực. Nó không tốt cho bản thân bạn hoặc người khác".

Theo VTCnews

Xem link gốc Ẩn link gốc https://vtcnews.vn/nhieu-thanh-nien-doc-than-bien-ai-thanh-nguoi-tinh-de-bao-hanh-nguoc-dai-ar926441.html

độc thân

Trí tuệ nhân tạo


Gửi bài tâm sự

File đính kèm
Hình ảnh
Words
  • Bạn đọc gửi câu chuyện thật của bản thân hoặc người mình biết nếu được cho phép, không sáng tác hoặc lấy từ nguồn khác và hoàn toàn chịu trách nhiệm trước pháp luật về bản quyền của mình.
  • Nội dung về các vấn đề gia đình: vợ chồng, con cái, mẹ chồng-nàng dâu... TTOL bảo mật thông tin, biên tập nội dung nếu cần.
  • Bạn được: độc giả hoặc chuyên gia lắng nghe, tư vấn, tháo gỡ.
  • Mục này không có nhuận bút.