OpenAI đã chặn nhiều tài khoản sử dụng ChatGPT để viết nội dung quảng cáo và gỡ lỗi mã cho một công cụ giám sát mạng xã hội, được cho là có nguồn gốc từ Trung Quốc
Công cụ có tên "Qianyue Overseas Public Opinion AI Assistant" được thiết kế để thu thập dữ liệu thời gian thực về các cuộc biểu tình chống Trung Quốc tại Mỹ, Anh và các nước phương Tây khác
Phần mềm này nhắm vào việc xác định các cuộc trò chuyện trực tuyến ở phương Tây về biểu tình liên quan đến nhân quyền tại Trung Quốc, thu thập từ các nền tảng như X, Facebook và Instagram
Các tài khoản bị chặn đã sử dụng nhiều công cụ AI khác nhau, bao gồm mô hình nguồn mở Llama của Meta Platforms
OpenAI cấm sử dụng AI của mình cho mục đích giám sát truyền thông và theo dõi cá nhân trái phép, đặc biệt là thay mặt cho các chế độ độc tài
Công ty cũng phát hiện và chặn:
Các tài khoản liên quan đến chiến dịch tuyên truyền của Iran
Một kế hoạch lừa đảo việc làm giả mạo liên quan đến Triều Tiên
Các tài khoản từ Trung Quốc tạo bài viết tiếng Tây Ban Nha chỉ trích chính phủ Mỹ
OpenAI đang cảnh báo các chính trị gia Mỹ về mối đe dọa ngày càng tăng từ AI do Trung Quốc phát triển, đặc biệt sau sự xuất hiện của các mô hình AI cạnh tranh từ startup DeepSeek
Meta đề cập đến việc Trung Quốc đang đầu tư hơn 1 nghìn tỷ USD để vượt qua Mỹ về công nghệ, và các công ty công nghệ Trung Quốc đang phát hành các mô hình AI nguồn mở với tốc độ ngang bằng các công ty Mỹ
📌 OpenAI phát hiện và ngăn chặn mạng lưới tài khoản sử dụng ChatGPT phục vụ giám sát xã hội từ Trung Quốc. Sự việc làm dấy lên lo ngại về việc lạm dụng công nghệ AI phương Tây, trong bối cảnh Trung Quốc đang đầu tư 1 nghìn tỷ USD để cạnh tranh công nghệ với Mỹ.
https://www.bloomberg.com/news/articles/2025-02-21/openai-bans-accounts-appearing-to-work-on-a-surveillance-tool
OpenAI cấm các tài khoản có dấu hiệu phát triển công cụ giám sát
Công ty AI cho biết các tài khoản này có thể có liên quan đến Trung Quốc.
Nhiếp ảnh gia: Andrey Rudakov/Bloomberg
Tác giả: Shirin Ghaffary
Ngày 21 tháng 2 năm 2025 lúc 14:30 UTC
OpenAI gần đây đã cấm một số tài khoản sử dụng ChatGPT để viết bài quảng cáo và gỡ lỗi mã nguồn cho một công cụ giám sát mạng xã hội bị nghi ngờ có nguồn gốc từ Trung Quốc, công ty cho biết. Đây là một phần trong nỗ lực rộng hơn của startup AI này nhằm kiểm soát việc sử dụng trái phép các mô hình AI mạnh mẽ của mình.
Theo một báo cáo mà công ty có trụ sở tại San Francisco công bố vào thứ Sáu, các tài khoản này đã sử dụng ChatGPT để quảng bá và cải thiện một công cụ mà họ tuyên bố là trợ lý AI có khả năng thu thập dữ liệu thời gian thực và báo cáo về các cuộc biểu tình phản đối Trung Quốc tại Mỹ, Anh và các nước phương Tây khác. Báo cáo cho biết thông tin này sau đó sẽ được chuyển đến chính quyền Trung Quốc.
Những phát hiện này xuất hiện trong bối cảnh ngày càng có nhiều lo ngại tại Mỹ về việc Trung Quốc sử dụng công nghệ Mỹ để phục vụ lợi ích của mình. “Đây là một cái nhìn khá đáng lo ngại về cách một tác nhân phi dân chủ đã cố gắng sử dụng AI dân chủ hoặc AI có nguồn gốc từ Mỹ vào mục đích phi dân chủ, theo chính những tài liệu mà họ tạo ra,” Ben Nimmo, điều tra viên chính của OpenAI trong nhóm tình báo và điều tra của công ty, cho biết trong một cuộc họp báo vào thứ Năm.
Bằng cách công khai những trường hợp như vậy, Nimmo cho biết OpenAI muốn làm sáng tỏ cách “các chế độ độc tài có thể cố gắng tận dụng AI do Mỹ phát triển, AI dân chủ, để chống lại Mỹ và các nước đồng minh, cũng như chống lại chính người dân của họ.”
OpenAI cho biết các tài khoản trong mạng lưới này có nhắc đến việc sử dụng các công cụ AI khác để phát triển mã nguồn của họ, bao gồm một phiên bản của Llama, mô hình mã nguồn mở do Meta Platforms Inc. phát triển. Trong một tuyên bố, Meta cho biết nếu dịch vụ của họ bị lạm dụng, thì đó có thể chỉ là một trong nhiều công cụ có sẵn cho người dùng, bao gồm cả các mô hình AI do Trung Quốc phát triển. OpenAI lưu ý rằng công ty không thể xác định liệu mã nguồn này có thực sự được triển khai hay không.
Phần mềm có tên “Trợ lý AI Dư luận Hải ngoại Qianyue” không thể được OpenAI xác minh độc lập, mặc dù startup này đã có quyền truy cập vào nội dung của tài liệu tiếp thị có vẻ như do nhóm phát triển cung cấp. Nội dung quảng bá mô tả mục đích của phần mềm “giám sát xã hội” này là gửi báo cáo giám sát đến chính quyền Trung Quốc, cơ quan tình báo và nhân viên tại các đại sứ quán Trung Quốc. Phần mềm này dường như tập trung vào việc xác định các cuộc thảo luận trực tuyến tại các quốc gia phương Tây về các cuộc biểu tình liên quan đến nhân quyền ở Trung Quốc. Mô tả về phần mềm cho thấy nó thu thập dữ liệu từ các cuộc trò chuyện trên mạng xã hội như X, Facebook và Instagram.
Theo báo cáo về mối đe dọa của công ty, chính sách của OpenAI nghiêm cấm sử dụng AI để giám sát thông tin liên lạc hoặc theo dõi cá nhân trái phép, bao gồm cả việc “thực hiện thay mặt cho các chính phủ và chế độ độc tài có ý đồ đàn áp quyền tự do cá nhân và các quyền cơ bản.”
Trong những tháng gần đây, OpenAI đã cảnh báo các chính trị gia Mỹ về mối đe dọa kinh tế và an ninh quốc gia ngày càng gia tăng từ AI do Trung Quốc phát triển, đặc biệt là sau sự xuất hiện của các mô hình AI đầy cạnh tranh từ startup Trung Quốc DeepSeek. Một số chính trị gia có lập trường cứng rắn với Trung Quốc ở Mỹ đã chỉ trích Meta vì phát hành mã nguồn mở các công cụ AI của mình, cho rằng điều này giúp các công ty AI Trung Quốc đạt được tiến bộ. Trong khi các mô hình của OpenAI hiện vẫn thuộc sở hữu độc quyền, công ty gần đây đã cân nhắc việc mã nguồn mở một số mô hình để đáp lại sự cạnh tranh ngày càng tăng từ DeepSeek và các đối thủ khác.
Trong một tuyên bố, Meta nhấn mạnh rằng các mô hình AI hiện đang được phát hành rộng rãi trên toàn cầu, cho rằng việc hạn chế một số công nghệ phương Tây có thể không tạo ra khác biệt đáng kể đối với các tác nhân xấu. “Trung Quốc đã đầu tư hơn 1 nghìn tỷ USD để vượt qua Mỹ về công nghệ, và các công ty công nghệ Trung Quốc đang phát hành các mô hình AI nguồn mở của riêng họ với tốc độ nhanh ngang với các công ty Mỹ,” đại diện của Meta cho biết.
Trong báo cáo của mình, OpenAI cũng chia sẻ một số ví dụ khác về các tài khoản bị cấm vì lạm dụng công cụ AI của công ty — bao gồm các tài khoản có liên quan đến chiến dịch gây ảnh hưởng của Iran sử dụng ChatGPT để tạo bài đăng trên mạng xã hội và bài viết; một tài khoản khác dường như liên quan đến một kế hoạch tuyển dụng lừa đảo tương tự như các vụ lừa đảo bị nghi ngờ có liên hệ với Triều Tiên; và một nhóm tài khoản khác có khả năng liên quan đến Trung Quốc, chuyên tạo ra các bài báo bằng tiếng Tây Ban Nha chỉ trích chính phủ Mỹ.
OpenAI Bans Accounts Appearing to Work on a Surveillance Tool
The AI startup said the accounts were likely linked to China.
Photographer: Andrey Rudakov/Bloomberg
By Shirin Ghaffary
February 21, 2025 at 2:30 PM UTC
OpenAI recently banned several accounts that had been using ChatGPT to write sales pitches and debug code for a suspected social media surveillance tool that likely originated in China, the company said — part of a broader effort by the AI startup to police malicious uses of its powerful AI models.
According to a report the San Francisco startup released on Friday, the accounts were using ChatGPT to advertise and augment what they claimed was an AI assistant capable of collecting real-time data and reports about anti-China protests in the US, UK and other Western countries. That information would then be relayed to Chinese authorities, the report said.
The findings come at a time of growing concern in the US around Chinese use of American technology to advance its own interests. “This is a pretty troubling glimpse into the way one non-democratic actor tried to use democratic or US-based AI for non-democratic purposes, according to the materials they were generating themselves,” said Ben Nimmo, OpenAI’s principal investigator on the company’s intelligence and investigations team, during a press call Thursday.
By publishing such cases, Nimmo said OpenAI aims to shed light on how “authoritarian regimes may try to leverage US-built AI, democratic AI, against the US and allied countries, as well as their own people.”
OpenAI said that the accounts in the network referenced using other AI tools to develop their code, including a version of Llama, the open source model developed by Meta Platforms Inc. In a statement, Meta said that if its service was involved, it was likely one of many such tools available to the users, including AI models made in China. OpenAI noted it does not have visibility into whether this code was deployed.
The software, called “Qianyue Overseas Public Opinion AI Assistant,” couldn’t be independently verified by OpenAI, though the startup had access to the text of apparent marketing materials. The marketing copy detailed how the purpose of the “social listening” software was to send surveillance reports to Chinese authorities, intelligence agents and staff at Chinese embassies. The software appeared to be specifically focused on identifying online conversations in Western countries about demonstrations related to human rights in China. Descriptions of the software said it pulled from social media conversations on platforms such as X, Facebook and Instagram.
It is against OpenAI’s policies to use its AI for communications surveillance or unauthorized monitoring of individuals, including “on behalf of governments and authoritarian regimes that seek to suppress personal freedoms and rights,” according to the company’s threat report.
In recent months, OpenAI has been warning politicians in the US about what it sees as a growing economic and national security threat from Chinese-built AI, particularly in the wake of the surprisingly competitive AI models from Chinese startup DeepSeek. Some China hawks in the US have criticized Meta for open sourcing its AI tools, saying that it is empowering Chinese AI companies to make advancements. While OpenAI’s models are currently kept proprietary, the company has recently been considering open sourcing models in line with growing competition from DeepSeek and others.
In a statement, Meta pointed to the growing availability of AI models globally, saying that the limited availability of some Western technology may not matter much when it comes to bad actors. “China is already investing more than a trillion dollars to surpass the US technologically, and Chinese tech companies are releasing their own open AI models as fast as companies in the US,” a representative for the company said.
In its report, OpenAI also shared several other examples of accounts that it banned for misusing its tools — including ones linked to Iranian influence operations using ChatGPT to generate social media posts and articles; another appearing to represent a deceptive employment scheme that mimicked scams linked to North Korea; and another set of accounts likely linked to China that were generating Spanish-language articles critical of the US government.