OpenAI và MIT công bố nghiên cứu mới về mối liên hệ giữa việc sử dụng ChatGPT và cảm giác cô đơn.
Nghiên cứu theo dõi gần 1.000 người trong 1 tháng, sử dụng ChatGPT ít nhất 5 phút mỗi ngày.
Kết quả cho thấy những người dùng ChatGPT nhiều hơn có xu hướng:
Báo cáo mức độ phụ thuộc cảm xúc cao hơn vào chatbot
Sử dụng chatbot một cách có vấn đề hơn
Cảm thấy cô đơn hơn
Những người dễ gắn bó cảm xúc trong các mối quan hệ và tin tưởng chatbot có khả năng cảm thấy cô đơn và phụ thuộc cảm xúc vào ChatGPT cao hơn.
Nghiên cứu thứ hai phân tích 3 triệu cuộc trò chuyện của người dùng với ChatGPT, cho thấy rất ít người thực sự sử dụng ChatGPT cho các cuộc trò chuyện cảm xúc.
Các nhà nghiên cứu cảnh báo không nên kết luận rằng sử dụng nhiều chatbot nhất thiết sẽ có hậu quả tiêu cực.
OpenAI coi nghiên cứu này là cách để hiểu rõ hơn cách mọi người tương tác và bị ảnh hưởng bởi chatbot phổ biến của họ.
Mục tiêu là thông báo cho việc thiết kế có trách nhiệm và trao quyền cho mọi người hiểu ý nghĩa của việc sử dụng chatbot.
Các nhà nghiên cứu hy vọng công trình này sẽ dẫn đến nhiều nghiên cứu hơn về cách con người tương tác với AI.
📌 Nghiên cứu của OpenAI và MIT với 1.000 người dùng trong 1 tháng cho thấy mối liên hệ giữa việc sử dụng ChatGPT nhiều và cảm giác cô đơn, phụ thuộc cảm xúc cao hơn. Kết quả gợi ý cần thiết kế chatbot có trách nhiệm và nghiên cứu thêm về tác động của AI đối với con người.
https://www.bloomberg.com/news/articles/2025-03-21/openai-study-finds-links-between-chatgpt-use-and-loneliness
Nghiên cứu của OpenAI cho thấy mối liên hệ giữa việc sử dụng ChatGPT và sự cô đơn
ChatGPT trên điện thoại thông minh. Nhiếp ảnh gia: Andrey Rudakov/Bloomberg
Tác giả: Rachel Metz
Ngày 21 tháng 3 năm 2025, 5:00 PM UTC
Việc sử dụng chatbot như ChatGPT nhiều hơn có thể liên quan đến sự gia tăng cảm giác cô đơn và giảm thời gian giao tiếp với người khác, theo nghiên cứu mới từ OpenAI phối hợp với Viện Công nghệ Massachusetts (MIT).
Những người dành nhiều thời gian trò chuyện hoặc nhắn tin với ChatGPT mỗi ngày có xu hướng báo cáo mức độ phụ thuộc về cảm xúc cao hơn và sử dụng chatbot theo hướng tiêu cực, cùng với cảm giác cô đơn gia tăng, theo nghiên cứu được công bố vào thứ Sáu. Kết quả này là một phần của 2 nghiên cứu được thực hiện bởi các nhà nghiên cứu từ 2 tổ chức và chưa được đánh giá bởi giới chuyên môn.
Việc ra mắt ChatGPT vào cuối năm 2022 đã khởi động cơn sốt về trí tuệ nhân tạo (AI) tạo sinh. Kể từ đó, mọi người đã sử dụng chatbot cho nhiều mục đích, từ lập trình đến các phiên "trị liệu" thay thế. Khi các nhà phát triển như OpenAI tung ra các mô hình tinh vi hơn và các tính năng giọng nói giúp chatbot bắt chước tốt hơn cách con người giao tiếp, khả năng hình thành các mối quan hệ "ảo" (parasocial) với chatbot ngày càng trở nên rõ ràng hơn.
Trong những tháng gần đây, đã có những lo ngại mới về tác hại cảm xúc tiềm ẩn của công nghệ này, đặc biệt là đối với người dùng trẻ tuổi và những người gặp vấn đề về sức khỏe tâm thần. Character Technologies Inc. đã bị kiện vào năm ngoái sau khi chatbot của công ty này bị cáo buộc khuyến khích ý định tự sát trong các cuộc trò chuyện với trẻ vị thành niên, bao gồm một thiếu niên 14 tuổi đã tự kết liễu cuộc sống của mình.
OpenAI, có trụ sở tại San Francisco, coi các nghiên cứu mới này là một cách để hiểu rõ hơn về cách người dùng tương tác và bị ảnh hưởng bởi chatbot phổ biến của công ty. “Một số mục tiêu của chúng tôi thực sự là giúp người dùng hiểu được ý nghĩa của việc sử dụng ChatGPT và thực hiện công việc này để định hướng thiết kế có trách nhiệm,” Sandhini Agarwal, người đứng đầu nhóm AI đáng tin cậy của OpenAI và là đồng tác giả của nghiên cứu, cho biết.
Để thực hiện các nghiên cứu, các nhà nghiên cứu đã theo dõi gần 1.000 người trong vòng một tháng. Những người tham gia có nhiều kinh nghiệm khác nhau với ChatGPT và được chỉ định ngẫu nhiên để sử dụng phiên bản chỉ có văn bản hoặc một trong hai phiên bản có tính năng giọng nói khác nhau, với yêu cầu sử dụng ít nhất 5 phút mỗi ngày. Một số người được yêu cầu trò chuyện mở về bất kỳ chủ đề nào họ muốn; những người khác được yêu cầu có các cuộc trò chuyện mang tính cá nhân hoặc không mang tính cá nhân với chatbot.
Các nhà nghiên cứu phát hiện ra rằng những người có xu hướng gắn bó về mặt cảm xúc nhiều hơn trong các mối quan hệ với con người và dễ tin tưởng vào chatbot hơn có khả năng cảm thấy cô đơn hơn và phụ thuộc cảm xúc nhiều hơn vào ChatGPT. Các nhà nghiên cứu cho biết không có sự khác biệt về kết quả giữa những người tương tác với các phiên bản chatbot có giọng nói thu hút hơn hoặc kém thu hút hơn.
Trong nghiên cứu thứ hai, các nhà nghiên cứu đã sử dụng phần mềm để phân tích 3 triệu cuộc trò chuyện của người dùng với ChatGPT và cũng khảo sát mọi người về cách họ tương tác với chatbot. Họ phát hiện rất ít người thực sự sử dụng ChatGPT cho các cuộc trò chuyện mang tính cảm xúc.
Đây vẫn là giai đoạn đầu của lĩnh vực nghiên cứu này và chưa rõ ràng mức độ mà chatbot có thể khiến người dùng cảm thấy cô đơn, so với việc những người vốn đã dễ cảm thấy cô đơn và phụ thuộc về cảm xúc có thể bị chatbot làm trầm trọng thêm cảm giác đó.
Cathy Mengying Fang, đồng tác giả của nghiên cứu và là nghiên cứu sinh tại MIT, cho biết các nhà nghiên cứu thận trọng trước việc mọi người sử dụng phát hiện này để kết luận rằng sử dụng chatbot nhiều hơn nhất định sẽ có tác động tiêu cực. Bà cho biết nghiên cứu không kiểm soát lượng thời gian người dùng sử dụng chatbot như một yếu tố chính và cũng không so sánh với một nhóm đối chứng không sử dụng chatbot.
Các nhà nghiên cứu hy vọng công trình này sẽ dẫn đến nhiều nghiên cứu hơn về cách con người tương tác với AI. “Tập trung vào bản thân AI là điều thú vị,” Pat Pataranutaporn, đồng tác giả của nghiên cứu và là nhà nghiên cứu sau tiến sĩ tại MIT, cho biết. “Nhưng điều thực sự quan trọng, đặc biệt khi AI đang được triển khai trên quy mô lớn, là hiểu được tác động của nó đối với con người.”
OpenAI Study Finds Links Between ChatGPT Use and Loneliness
ChatGPT on a smartphone.
ChatGPT on a smartphone.Photographer: Andrey Rudakov/Bloomberg
By Rachel Metz
March 21, 2025 at 5:00 PM UTC
Higher use of chatbots like ChatGPT may correspond with increased loneliness and less time spent socializing with other people, according to new research from OpenAI in partnership with the Massachusetts Institute of Technology.
Those who spent more time typing or speaking with ChatGPT each day tended to report higher levels of emotional dependence on, and problematic use of, the chatbot, as well as heightened levels of loneliness, according to research released Friday. The findings were part of a pair of studies conducted by researchers at the two organizations and have not been peer reviewed.
The launch of ChatGPT in late 2022 helped kick off a frenzy for generative artificial intelligence. Since then, people have used chatbots for everything from coding to ersatz therapy sessions. As developers like OpenAI push out more sophisticated models and voice features that make them better at mimicking the ways humans communicate, there is arguably more potential for forming parasocial relationships with these chatbots.
In recent months, there have been renewed concerns about the potential emotional harms of this technology, particularly among younger users and those with mental health issues. Character Technologies Inc. was sued last year after its chatbot allegedly encouraged suicidal ideation in conversations with minors, including one 14-year-old who took his own life.
San Francisco-based OpenAI sees the new studies as a way to get a better sense of how people interact with, and are affected by, its popular chatbot. “Some of our goals here have really been to empower people to understand what their usage can mean and do this work to inform responsible design,” said Sandhini Agarwal, who heads OpenAI’s trustworthy AI team and co-authored the research.
To conduct the studies, the researchers followed nearly 1,000 people for a month. Participants had a wide range of prior experience with ChatGPT and were randomly assigned a text-only version of it or one of two different voice-based options to use for at least five minutes per day. Some were told to carry out open-ended chats about anything they wanted; others were told to have personal or non-personal conversations with the service.
The researchers found that people who tend to get more emotionally attached in human relationships and are more trusting of the chatbot were more likely to feel lonelier and more emotionally dependent on ChatGPT. The researchers didn’t find a difference in outcomes between users who interacted with versions of the chatbot that used a more or less engaging voice, they said.
In the second study, researchers used software to analyze 3 million user conversations with ChatGPT and also surveyed people about how they interact with the chatbot. They found very few people actually use ChatGPT for emotional conversations.
It’s still early days for this body of research and remains unclear how much chatbots may cause people to feel lonelier verses how much people prone to a sense of loneliness and emotional dependence may have those feelings exacerbated by chatbots.
Cathy Mengying Fang, a study co-author and MIT graduate student, said the researchers are wary of people using the findings to conclude that more usage of the chatbot will necessarily have negative consequences for users. The study didn’t control for the amount of time people used the chatbot as a main factor, she said, and didn’t compare to a control group that doesn’t use chatbots.
The researchers hope the work leads to more studies on how humans interact with AI. “Focusing on the AI itself is interesting,” said Pat Pataranutaporn, a study co-author and a postdoctoral researcher at MIT. “But what is really critical, especially when AI is being deployed at scale, is to understand its impact on people.”