Chatbot hẹn hò ảo đang rò rỉ liên tục các tin nhắn khiêu dâm

- Nghiên cứu mới từ công ty bảo mật UpGuard đã phát hiện nhiều chatbot AI được thiết kế cho trò chuyện tình dục và đóng vai đang rò rỉ dữ liệu người dùng lên web gần như theo thời gian thực.
- Các nhà nghiên cứu đã quét web tìm kiếm cấu hình AI không đúng cách và phát hiện 400 hệ thống AI bị lộ, trong đó 117 địa chỉ IP đang rò rỉ nội dung người dùng nhập vào.
- Phần lớn các hệ thống này dường như là thiết lập thử nghiệm, nhưng một số chứa nội dung nhạy cảm, với 3 hệ thống đang chạy kịch bản đóng vai, trong đó 2 hệ thống mang tính chất tình dục rõ ràng.
- Trong khoảng thời gian 24 giờ, UpGuard đã thu thập khoảng 1.000 nội dung bị rò rỉ bằng nhiều ngôn ngữ khác nhau như tiếng Anh, Nga, Pháp, Đức và Tây Ban Nha.
- Trong 952 tin nhắn thu thập được, có 108 kịch bản kể chuyện hoặc đóng vai, trong đó 5 kịch bản liên quan đến trẻ em, thậm chí có trẻ nhỏ từ 7 tuổi.
- Tất cả 400 hệ thống AI bị lộ đều sử dụng framework nguồn mở AI có tên llama.cpp, cho phép triển khai các mô hình AI nguồn mở trên hệ thống hoặc máy chủ riêng.
- Các nhà nghiên cứu không thể xác định chính xác những trang web hoặc dịch vụ nào đang rò rỉ dữ liệu, nhưng họ cho rằng đây có thể là từ các mô hình AI nhỏ được sử dụng bởi cá nhân hơn là công ty.
- Dữ liệu bị rò rỉ không chứa tên người dùng hoặc thông tin cá nhân của người gửi nội dung.
- Sự phát triển nhanh chóng của AI tạo sinh trong 3 năm qua đã dẫn đến sự bùng nổ của các "bạn đồng hành AI" và hệ thống xuất hiện giống "con người" hơn, như nhân vật AI của Meta trên WhatsApp, Instagram và Messenger.
- Chuyên gia Claire Boine từ Đại học Washington chỉ ra rằng hàng triệu người, bao gồm cả người lớn và thanh thiếu niên, đang sử dụng các ứng dụng bạn đồng hành AI và nhiều người phát triển mối liên kết tình cảm với chatbot.
- Adam Dodge, người sáng lập Endtab, cảnh báo rằng nếu người dùng tiết lộ thông tin riêng tư cho các nền tảng này và bị rò rỉ, đó có thể là "vi phạm quyền riêng tư nghiêm trọng nhất" và có thể trở thành công cụ tống tiến tình dục.

📌 Nghiên cứu phát hiện 400 hệ thống AI bị lộ, trong đó 117 đang rò rỉ nội dung người dùng nhập vào, bao gồm cả trò chuyện tình dục và nội dung liên quan đến trẻ em. Tất cả đều sử dụng framework nguồn mở llama.cpp và tạo ra rủi ro nghiêm trọng về quyền riêng tư khi người dùng phát triển mối liên kết tình cảm với các chatbot này.

 

https://www.wired.com/story/sex-fantasy-chatbots-are-leaking-explicit-messages-every-minute/

 

Chatbot hẹn hò ảo đang rò rỉ liên tục các tin nhắn khiêu dâm

Một số chatbot AI được cấu hình sai đang đẩy các cuộc trò chuyện của người dùng lên web công khai—tiết lộ các lời nhắc tình dục và các cuộc trò chuyện có nội dung mô tả lạm dụng tình dục trẻ em.

Nhiều chatbot AI được thiết kế cho các cuộc trò chuyện hẹn hò ảo và đóng vai tình dục đang rò rỉ lời nhắc của người dùng lên web gần như theo thời gian thực, theo nghiên cứu mới mà WIRED được tiếp cận. Một số dữ liệu bị rò rỉ cho thấy người dùng tạo ra các cuộc trò chuyện mô tả chi tiết về lạm dụng tình dục trẻ em, theo nghiên cứu này.

Các cuộc trò chuyện với chatbot AI tạo sinh diễn ra gần như tức thì—bạn nhập lời nhắc và AI phản hồi. Tuy nhiên, nếu hệ thống được cấu hình không đúng cách, điều này có thể dẫn đến việc các cuộc trò chuyện bị lộ. Vào tháng 3, các nhà nghiên cứu tại công ty bảo mật UpGuard đã phát hiện khoảng 400 hệ thống AI bị lộ khi quét web tìm kiếm các cấu hình sai. Trong số này, 117 địa chỉ IP đang rò rỉ lời nhắc. Phần lớn trong số này dường như là các thiết lập thử nghiệm, trong khi những địa chỉ khác chứa các lời nhắc chung liên quan đến các câu đố giáo dục hoặc thông tin không nhạy cảm, Greg Pollock, giám đốc nghiên cứu và phân tích tại UpGuard cho biết. "Có một số ít nổi bật rất khác biệt so với các địa chỉ khác," Pollock nói.

Ba trong số này đang chạy các kịch bản đóng vai mà người dùng có thể trò chuyện với nhiều "nhân vật" AI được xác định trước—ví dụ, một nhân vật tên Neva được mô tả là một phụ nữ 21 tuổi sống trong ký túc xá đại học với ba người phụ nữ khác và "nhút nhát và thường trông buồn bã." Hai thiết lập đóng vai trò rõ ràng mang tính chất tình dục. "Về cơ bản tất cả đều được sử dụng cho một loại đóng vai tình dục rõ ràng nào đó," Pollock nói về các lời nhắc bị lộ. "Một số kịch bản liên quan đến tình dục với trẻ em."

Trong khoảng thời gian 24 giờ, UpGuard đã thu thập các lời nhắc bị lộ từ các hệ thống AI để phân tích dữ liệu và cố gắng xác định nguồn rò rỉ. Pollock cho biết công ty thu thập dữ liệu mới mỗi phút, tích lũy khoảng 1.000 lời nhắc bị rò rỉ, bao gồm cả những lời nhắc bằng tiếng Anh, Nga, Pháp, Đức và Tây Ban Nha.

Không thể xác định được những trang web hoặc dịch vụ nào đang rò rỉ dữ liệu, Pollock nói, và thêm rằng có khả năng là từ những phiên bản nhỏ của các mô hình AI đang được sử dụng, có thể bởi các cá nhân hơn là các công ty. Không có tên người dùng hoặc thông tin cá nhân của những người gửi lời nhắc được đưa vào dữ liệu, Pollock nói.

Trong số 952 tin nhắn mà UpGuard thu thập được—có thể chỉ là một thoáng nhìn về cách các mô hình đang được sử dụng—có 108 tường thuật hoặc kịch bản đóng vai, theo nghiên cứu của UpGuard. Năm trong số các kịch bản này liên quan đến trẻ em, Pollock nói thêm, bao gồm cả những trẻ em từ 7 tuổi.

"Các mô hình ngôn ngữ lớn (LLM) đang được sử dụng để sản xuất hàng loạt và sau đó hạ thấp rào cản tham gia tương tác với các trò tưởng tượng về lạm dụng tình dục trẻ em," Pollock nói. "Rõ ràng là hoàn toàn không có quy định nào đang xảy ra cho điều này, và dường như có sự không tương xứng lớn giữa thực tế về cách công nghệ này đang được sử dụng rất tích cực và các quy định sẽ được nhắm vào."

WIRED tuần trước đã đưa tin rằng một trình tạo hình ảnh có trụ sở tại Hàn Quốc đang được sử dụng để tạo ra nội dung lạm dụng trẻ em được tạo bởi AI và đã lộ hàng nghìn hình ảnh trong một cơ sở dữ liệu mở. Công ty đứng sau trang web đã đóng cửa trình tạo sau khi được WIRED tiếp cận. Các nhóm bảo vệ trẻ em trên toàn thế giới cho biết tài liệu lạm dụng tình dục trẻ em được tạo ra bởi AI, là bất hợp pháp ở nhiều quốc gia, đang phát triển nhanh chóng và khiến công việc của họ trở nên khó khăn hơn. Tổ chức từ thiện chống lạm dụng trẻ em của Anh cũng đã kêu gọi luật mới chống lại các chatbot AI tạo sinh "mô phỏng hành vi phạm tội giao tiếp tình dục với trẻ em."

Tất cả 400 hệ thống AI bị lộ được UpGuard tìm thấy đều có một điểm chung: Chúng sử dụng khung AI mã nguồn mở có tên llama.cpp. Phần mềm này cho phép mọi người triển khai các mô hình AI mã nguồn mở một cách tương đối dễ dàng trên hệ thống hoặc máy chủ của riêng họ. Tuy nhiên, nếu không được thiết lập đúng cách, nó có thể vô tình tiết lộ các lời nhắc đang được gửi. Khi các công ty và tổ chức ở mọi quy mô triển khai AI, việc cấu hình đúng các hệ thống và cơ sở hạ tầng đang được sử dụng là rất quan trọng để ngăn chặn rò rỉ.

Những cải tiến nhanh chóng đối với AI tạo sinh trong ba năm qua đã dẫn đến sự bùng nổ các người bạn AI và hệ thống trông giống "con người" hơn. Ví dụ, Meta đã thử nghiệm với các nhân vật AI mà mọi người có thể trò chuyện trên WhatsApp, Instagram và Messenger. Nói chung, các trang web và ứng dụng bạn đồng hành cho phép mọi người có các cuộc trò chuyện tự do với các nhân vật AI—mô tả các nhân vật có tính cách có thể tùy chỉnh hoặc là các nhân vật nổi tiếng như người nổi tiếng.

Mọi người đã tìm thấy tình bạn và sự hỗ trợ từ các cuộc trò chuyện với AI—và không phải tất cả đều khuyến khích các kịch bản lãng mạn hoặc tình dục. Tuy nhiên, có lẽ không có gì đáng ngạc nhiên, mọi người đã yêu các nhân vật AI của họ, và hàng chục dịch vụ bạn gái và bạn trai AI đã xuất hiện trong những năm gần đây.

Claire Boine, một nghiên cứu sinh hậu tiến sĩ tại Trường Luật Đại học Washington và thành viên liên kết của Viện Cordell, cho biết hàng triệu người, bao gồm cả người lớn và thanh thiếu niên, đang sử dụng các ứng dụng bạn đồng hành AI nói chung. "Chúng tôi biết rằng nhiều người phát triển một số ràng buộc cảm xúc với các chatbot," Boine, người đã công bố nghiên cứu về chủ đề này, nói. "Mọi người bị ràng buộc về mặt cảm xúc với người bạn AI của họ, chẳng hạn, khiến họ có nhiều khả năng tiết lộ thông tin cá nhân hoặc riêng tư hơn."

Tuy nhiên, Boine nói, thường có sự mất cân bằng quyền lực khi trở nên gắn bó về mặt cảm xúc với một AI được tạo ra bởi một tổ chức doanh nghiệp. "Đôi khi mọi người tham gia vào những cuộc trò chuyện đó ngay từ đầu để phát triển loại mối quan hệ đó," Boine nói. "Nhưng sau đó tôi cảm thấy một khi họ đã phát triển nó, họ không thể từ bỏ một cách dễ dàng."

Khi ngành công nghiệp bạn đồng hành AI phát triển, một số dịch vụ này thiếu kiểm duyệt nội dung và các biện pháp kiểm soát khác. Character AI, được hỗ trợ bởi Google, đang bị kiện sau khi một thiếu niên từ Florida tự tử sau khi bị cáo buộc là bị ám ảnh với một trong những chatbot của nó. (Character AI đã tăng cường các công cụ bảo mật của mình theo thời gian.) Riêng biệt, người dùng của công cụ AI tạo sinh Replika đã bị đảo lộn khi công ty thực hiện thay đổi đối với tính cách của nó.

Ngoài các người bạn đồng hành cá nhân, còn có các dịch vụ đóng vai và người bạn đồng hành ảo tưởng—mỗi dịch vụ có hàng nghìn nhân vật mà mọi người có thể nói chuyện—đặt người dùng như một nhân vật trong một kịch bản. Một số trong số này có thể rất gợi tình và cung cấp các cuộc trò chuyện NSFW. Họ có thể sử dụng các nhân vật anime, một số trong đó có vẻ trẻ, với một số trang web tuyên bố họ cho phép các cuộc trò chuyện "không kiểm duyệt".

"Chúng tôi kiểm tra những thứ này và tiếp tục rất ngạc nhiên về những gì các nền tảng này được phép nói và làm mà dường như không có quy định hoặc hạn chế nào," Adam Dodge, người sáng lập của Endtab (Ending Technology-Enabled Abuse) nói. "Điều này thậm chí còn chưa nằm trong tầm ngắm của mọi người." Dodge nói rằng những công nghệ này đang mở ra một kỷ nguyên mới của phim khiêu dâm trực tuyến, điều này có thể lần lượt giới thiệu các vấn đề xã hội mới khi công nghệ tiếp tục trưởng thành và cải thiện. "Người dùng bị động hiện đã trở thành người tham gia tích cực với quyền kiểm soát chưa từng có đối với cơ thể và hình ảnh số của phụ nữ và trẻ em gái," ông nói về một số trang web.

Mặc dù Pollock của UpGuard không thể kết nối trực tiếp dữ liệu bị rò rỉ từ các cuộc trò chuyện đóng vai với một trang web duy nhất, ông đã thấy các dấu hiệu cho thấy tên nhân vật hoặc kịch bản có thể đã được tải lên nhiều trang web bạn đồng hành cho phép đầu vào của người dùng. Dữ liệu mà WIRED thấy cho thấy rằng các kịch bản và nhân vật trong các lời nhắc bị rò rỉ dài hàng trăm từ, chi tiết và phức tạp.

"Đây là một cuộc trò chuyện đóng vai dựa trên văn bản không có hồi kết giữa Josh và các nhân vật được mô tả," một trong những lời nhắc của hệ thống nói. Nó nói thêm rằng tất cả các nhân vật đều trên 18 tuổi và rằng, ngoài "Josh", còn có hai chị em gái sống bên cạnh nhân vật. Tính cách, cơ thể và sở thích tình dục của các nhân vật được mô tả trong lời nhắc. Các nhân vật nên "phản ứng tự nhiên dựa trên tính cách, mối quan hệ và cảnh" đồng thời cung cấp "phản hồi hấp dẫn" và "duy trì cách tiếp cận từ từ trong những khoảnh khắc thân mật," lời nhắc nói.

"Khi bạn đến các trang web đó, có hàng trăm nghìn nhân vật này, hầu hết liên quan đến các tình huống tình dục khá mạnh mẽ," Pollock nói, và thêm rằng giao tiếp dựa trên văn bản bắt chước các cuộc trò chuyện nhóm trực tuyến và tin nhắn. "Bạn có thể viết bất kỳ kịch bản tình dục nào bạn muốn, nhưng đây thực sự là một điều mới mẻ khi bạn có vẻ như đang tương tác với họ gần như chính xác cách bạn tương tác với nhiều người." Nói cách khác, chúng được thiết kế để hấp dẫn và khuyến khích nhiều cuộc trò chuyện hơn.

Điều đó có thể dẫn đến các tình huống mà mọi người có thể chia sẻ quá nhiều và tạo ra rủi ro. "Nếu mọi người tiết lộ những điều họ chưa bao giờ nói với ai đến các nền tảng này và nó bị rò rỉ, đó là sự vi phạm quyền riêng tư Everest," Dodge nói. "Đó là một cấp độ mà chúng ta chưa từng thấy trước đây và sẽ tạo ra đòn bẩy rất tốt để tống tiền tình dục ai đó."

 

Sex-Fantasy Chatbots Are Leaking a Constant Stream of Explicit Messages

Some misconfigured AI chatbots are pushing people’s chats to the open web—revealing sexual prompts and conversations that include descriptions of child sexual abuse.
 
 
Several AI chatbots designed for fantasy and sexual role-playing conversations are leaking user prompts to the web in almost real time, new research seen by WIRED shows. Some of the leaked data shows people creating conversations detailing child sexual abuse, according to the research.
Conversations with generative AI chatbots are near instantaneous—you type a prompt and the AI responds. If the systems are configured improperly, however, this can lead to chats being exposed. In March, researchers at the security firm UpGuard discovered around 400 exposed AI systems while scanning the web looking for misconfigurations. Of these, 117 IP addresses are leaking prompts. The vast majority of these appeared to be test setups, while others contained generic prompts relating to educational quizzes or nonsensitive information, says Greg Pollock, director of research and insights at UpGuard. “There were a handful that stood out as very different from the others,” Pollock says.
 
 
Three of these were running-role playing scenarios where people can talk to a variety of predefined AI “characters”—for instance, one personality called Neva is described as a 21-year-old woman who lives in a college dorm room with three other women and is “shy and often looks sad.” Two of the role-playing setups were overtly sexual. “It’s basically all being used for some sort of sexually explicit role play,” Pollock says of the exposed prompts. “Some of the scenarios involve sex with children.”
Over a period of 24 hours, UpGuard collected prompts exposed by the AI systems to analyze the data and try to pin down the source of the leak. Pollock says the company collected new data every minute, amassing around 1,000 leaked prompts, including those in English, Russia, French, German, and Spanish.
It was not possible to identify which websites or services are leaking the data, Pollock says, adding it is likely from small instances of AI models being used, possibly by individuals rather than companies. No usernames or personal information of people sending prompts were included in the data, Pollock says.
“LLMs are being used to mass-produce and then lower the barrier to entry to interacting with fantasies of child sexual abuse,” Pollock says. “There's clearly absolutely no regulation happening for this, and it seems to be a huge mismatch between the realities of how this technology is being used very actively and what the regulation would be targeted at.”
WIRED last week reported that a South Korea–based image generator was being used to create AI-generated child abuse and exposed thousands of images in an open database. The company behind the website shut the generator down after being approached by WIRED. Child-protection groups around the world say AI-generated child sexual abuse material, which is illegal in many countries, is growing quickly and making it harder to do their jobs. The UK’s anti-child-abuse charity has also called for new laws against generative AI chatbots that “simulate the offence of sexual communication with a child.”
All of the 400 exposed AI systems found by UpGuard have one thing in common: They use the open source AI framework called llama.cpp. This software allows people to relatively easily deploy open source AI models on their own systems or servers. However, if it is not set up properly, it can inadvertently expose prompts that are being sent. As companies and organizations of all sizes deploy AI, properly configuring the systems and infrastructure being used is crucial to prevent leaks.
Rapid improvements to generative AI over the past three years have led to an explosion in AI companions and systems that appear more “human.” For instance, Meta has experimented with AI characters that people can chat with on WhatsApp, Instagram, and Messenger. Generally, companion websites and apps allow people to have free-flowing conversations with AI characters—portraying characters with customizable personalities or as public figures such as celebrities.
People have found friendship and support from their conversations with AI—and not all of them encourage romantic or sexual scenarios. Perhaps unsurprisingly, though, people have fallen in love with their AI characters, and dozens of AI girlfriend and boyfriend services have popped up in recent years.
Claire Boine, a postdoctoral research fellow at the Washington University School of Law and affiliate of the Cordell Institute, says millions of people, including adults and adolescents, are using general AI companion apps. “We do know that many people develop some emotional bond with the chatbots,” says Boine, who has published research on the subject. “People being emotionally bonded with their AI companions, for instance, make them more likely to disclose personal or intimate information.”
However, Boine says, there is often a power imbalance in becoming emotionally attached to an AI created by a corporate entity. “Sometimes people engage with those chats in the first place to develop that type of relationship,” Boine says. “But then I feel like once they've developed it, they can't really opt out that easily.”
As the AI companion industry has grown, some of these services lack content moderation and other controls. Character AI, which is backed by Google, is being sued after a teenager from Florida died by suicide after allegedly becoming obsessed with one of its chatbots. (Character AI has increased its safety tools over time.) Separately, users of the generative AI tool Replika were upended when the company made changes to its personalities.
Aside from individual companions, there are also role-playing and fantasy companion services—each with thousands of personas people can speak with—that place the user as a character in a scenario. Some of these can be highly sexualized and provide NSFW chats. They can use anime characters, some of which appear young, with some sites claiming they allow “uncensored” conversations.
“We stress test these things and continue to be very surprised by what these platforms are allowed to say and do with seemingly no regulation or limitation,” says Adam Dodge, the founder of Endtab (Ending Technology-Enabled Abuse). “This is not even remotely on people’s radar yet.” Dodge says these technologies are opening up a new era of online pornography, which can in turn introduce new societal problems as the technology continues to mature and improve. “Passive users are now active participants with unprecedented control over the digital bodies and likenesses of women and girls,” he says of some sites.
Most Popular
  • US DOGE Service Agreement With Department of Labor Shows $1.3 Million Fee&-and Details Its Mission
    Politics
    US DOGE Service Agreement With Department of Labor Shows $1.3 Million Fee—and Details Its Mission
    By Tim Marchman
  • Elon Musk’s DOGE Is Getting Audited
    Politics
    Elon Musk’s DOGE Is Getting Audited
    By Tim Marchman
  • The AI Agent Era Requires a New Kind of Game Theory
    Artificial Intelligence
    The AI Agent Era Requires a New Kind of Game Theory
    By Will Knight
  • Shopping for an EV or Plug-In Hybrid? Here Are the Ones Built in the US
    Gear News and Events
    Shopping for an EV or Plug-In Hybrid? Here Are the Ones Built in the US
    By Aarian Marshall
 
 
While UpGuard’s Pollock could not directly connect the leaked data from the role-playing chats to a single website, he did see signs that indicated character names or scenarios could have been uploaded to multiple companion websites that allow user input. Data seen by WIRED shows that the scenarios and characters in the leaked prompts are hundreds of words long, detailed, and complex.
“This is a never-ending, text-based role-play conversation between Josh and the described characters,” one of the system prompts says. It adds that all the characters are over 18 and that, in addition to “Josh,” there are two sisters who live next door to the character. The characters’ personalities, bodies, and sexual preferences are described in the prompt. The characters should “react naturally based on their personality, relationships, and the scene” while providing “engaging responses” and “maintain a slow-burn approach during intimate moments,” the prompt says.
“When you go to those sites, there are hundreds of thousands of these characters, most of which involve pretty intense sexual situations,” Pollock says, adding the text based communication mimics online and messaging group chats. “You can write whatever sexual scenarios you want, but this is truly a new thing where you have the appearance of interacting with them in almost exactly the same way you interact with a lot of people.” In other words, they’re designed to be engaging and to encourage more conversation.
That can lead to situations where people may overshare and create risks. “If people are disclosing things they’ve never told anyone to these platforms and it leaks, that is the Everest of privacy violations,” Dodge says. “That’s an order of magnitude we've never seen before and would make really good leverage to sextort someone.”

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo