Manus AI: Khi thử nghiệm AI bước ra ngoài vào thế giới thực

  • Manus AI là một hệ thống được xây dựng dựa trên các mô hình có sẵn, có khả năng tương tác với internet và thực hiện chuỗi nhiệm vụ mà không cần xin phép người dùng.

  • Khi giao nhiệm vụ trực tuyến như xây dựng mạng lưới tài khoản mạng xã hội quảng cáo, nghiên cứu và viết tài liệu chiến lược, hoặc đặt vé và khách sạn cho hội nghị, Manus sẽ lập kế hoạch chi tiết và tự thực hiện.

  • Nhà phát triển Manus đến từ Trung Quốc, tuyên bố đã xây dựng tác nhân AI tổng quát đầu tiên trên thế giới "biến suy nghĩ thành hành động".

  • Dù nhiều phòng thí nghiệm AI trên thế giới đã thử nghiệm cách tiếp cận "agentic" này trong môi trường kín, điều đáng chú ý là Manus đã được phát hành công khai.

  • Trải nghiệm sử dụng Manus cho thấy hệ thống vẫn còn nhiều hạn chế: câu trả lời gây nhầm lẫn, độ trễ gây thất vọng và vòng lặp vô tận.

  • Các phòng thí nghiệm lớn của Mỹ như OpenAI thường thận trọng hơn trong việc phát hành sản phẩm. OpenAI đã chờ chín tháng trước khi phát hành đầy đủ GPT-2 vào năm 2019.

  • Google cũng giữ chatbot Lamda trong nội bộ từ năm 2020 và mất hơn hai năm mới phát hành thành Bard.

  • Các phòng thí nghiệm lớn đặc biệt thận trọng với AI dạng tác nhân vì cấp quyền tự do cho AI tìm giải pháp có thể tăng nguy cơ gây hại.

  • Anthropic và Google đã giới thiệu tính năng "sử dụng máy tính" nhưng chưa phát hành rộng rãi, với nhiều giới hạn về chính sách và công nghệ.

  • Sự xuất hiện của Manus làm khó khăn hơn cho cách tiếp cận thận trọng này khi khoảng cách giữa các phòng thí nghiệm AI lớn và các công ty khởi nghiệp đang thu hẹp.

  • Một số nhà quan sát Mỹ lo ngại về nguồn gốc Trung Quốc của Manus, nhưng thành công của Manus không thể sánh với DeepSeek, công ty Trung Quốc từng gây chấn động thế giới với mô hình AI giá rẻ.

  • Bất kỳ công ty nào từ Mỹ, Trung Quốc hay nơi khác đều có thể tạo ra tác nhân tương tự nếu sử dụng các thành phần có sẵn và sẵn sàng chấp nhận rủi ro.

  • Dù chưa có dấu hiệu Manus gây nguy hiểm, nhưng an toàn không thể chỉ dựa vào việc thử nghiệm quy mô lớn trước khi phát hành.

  • Các cơ quan quản lý và công ty cần giám sát các hệ thống đang được sử dụng, phản ứng nhanh chóng với mọi tác hại và sẵn sàng loại bỏ hoàn toàn các hệ thống gây hại.

📌 Manus đánh dấu kỷ nguyên mới khi thử nghiệm AI không còn diễn ra trong phòng thí nghiệm mà ở thế giới thực. Các phương pháp an toàn truyền thống không còn phù hợp, đòi hỏi cách tiếp cận mới: giám sát liên tục, phản ứng nhanh và sẵn sàng can thiệp khi cần thiết.

https://www.economist.com/leaders/2025/03/13/with-manus-ai-experimentation-has-burst-into-the-open

 

Với Manus, thử nghiệm AI đã bùng nổ ra công khai
Những phương thức cũ để đảm bảo an toàn đang ngày càng trở nên không phù hợp

Minh họa: Rose Wong
Ngày 13 tháng 3 năm 2025

Việc quan sát cánh tay tự động của tác nhân AI Manus cuộn qua hàng chục cửa sổ trình duyệt mang lại cảm giác bất an. Giao cho Manus một nhiệm vụ có thể hoàn thành trực tuyến, chẳng hạn như xây dựng mạng lưới quảng bá qua các tài khoản mạng xã hội, nghiên cứu và viết tài liệu chiến lược, hoặc đặt vé và khách sạn cho một hội nghị, và Manus sẽ viết ra một kế hoạch chi tiết, khởi động một phiên bản của chính nó để duyệt web và cố gắng thực hiện nhiệm vụ đó tốt nhất có thể.

Manus AI là một hệ thống được xây dựng trên các mô hình hiện có, có khả năng tương tác với internet và thực hiện một chuỗi nhiệm vụ mà không cần xin phép người dùng. Các nhà phát triển của Manus, có trụ sở tại Trung Quốc, tuyên bố đã tạo ra tác nhân AI tổng quát đầu tiên trên thế giới có khả năng "biến suy nghĩ của bạn thành hành động". Tuy nhiên, các phòng thí nghiệm AI trên khắp thế giới từ lâu đã thử nghiệm cách tiếp cận "tác nhân" này trong nội bộ. Điều khiến Manus trở nên đáng chú ý không phải là việc nó tồn tại, mà là việc các nhà sáng tạo đã hoàn toàn giải phóng nó. Một kỷ nguyên mới của thử nghiệm đã đến, và nó đang diễn ra không phải trong các phòng thí nghiệm, mà ngay ngoài đời thực.

Sử dụng Manus lâu hơn, sẽ thấy rõ rằng hệ thống này vẫn còn rất nhiều điểm cần cải thiện để trở nên thực sự hữu ích. Các câu trả lời khó hiểu, sự chậm trễ gây khó chịu và các vòng lặp không hồi kết khiến trải nghiệm trở nên thất vọng. Khi tung ra sản phẩm, rõ ràng các nhà phát triển đã ưu tiên hoàn thành công việc sớm hơn là làm tốt công việc đó.

Đây là sự tương phản với cách tiếp cận của các phòng thí nghiệm lớn của Mỹ. Một phần vì lo ngại về sự an toàn của các phát minh của mình, các công ty này đã giữ sản phẩm ở trạng thái thử nghiệm, kiểm tra và điều chỉnh cho đến khi đạt được phiên bản 1.0 đủ tốt. OpenAI đã mất 9 tháng trước khi chính thức phát hành GPT-2 vào năm 2019. Chatbot Lamda của Google đã hoạt động nội bộ từ năm 2020, nhưng công ty này đã giữ nó lại hơn 2 năm trước khi ra mắt dưới tên Bard.

Các phòng thí nghiệm lớn cũng đã thận trọng với AI tác nhân, và điều đó có lý do. Trao cho một tác nhân quyền tự do đưa ra các phương pháp riêng để giải quyết vấn đề, thay vì dựa vào hướng dẫn từ con người ở từng bước, cũng có thể làm tăng khả năng gây hại. Anthropic và Google đã trình diễn các tính năng "sử dụng máy tính", nhưng chưa công ty nào triển khai rộng rãi. Trong các bài kiểm tra và bản xem trước dành cho nhà phát triển, các hệ thống này vẫn bị giới hạn bởi chính sách hơn là công nghệ, khi liên tục trao lại quyền kiểm soát cho người dùng hoặc khi cần hoàn thành một nhiệm vụ phức tạp.

Sự tồn tại của Manus khiến cho cách tiếp cận thận trọng này trở nên khó duy trì hơn. Khi khoảng cách trước đây giữa các phòng thí nghiệm AI lớn và các công ty khởi nghiệp thu hẹp lại, các ông lớn không còn có thể đủ thời gian để trì hoãn. Và điều đó cũng có nghĩa là cách tiếp cận đảm bảo an toàn của họ không còn khả thi nữa.

Với một số người Mỹ, những người đang lo lắng rằng Trung Quốc có thể đang dẫn trước phương Tây, việc Manus có nguồn gốc từ Trung Quốc càng làm gia tăng mối đe dọa. Nhưng thành công của Manus chưa thể sánh với DeepSeek, một công ty Trung Quốc đã làm cả thế giới kinh ngạc với mô hình AI giá rẻ của mình. Bất kỳ công ty nào, dù của Mỹ, Trung Quốc hay quốc gia khác, đều có thể tạo ra một tác nhân tương tự, miễn là sử dụng đúng các thành phần có sẵn và có đủ tinh thần chấp nhận rủi ro.

May mắn là hiện tại chưa có dấu hiệu nào cho thấy Manus đã gây ra thiệt hại nghiêm trọng. Nhưng đảm bảo an toàn giờ đây không thể chỉ là việc các phòng thí nghiệm lớn thực hiện thử nghiệm quy mô lớn trước khi ra mắt. Thay vào đó, các cơ quan quản lý và công ty sẽ cần theo dõi sát sao những hệ thống đang được sử dụng thực tế, phản ứng nhanh chóng với bất kỳ thiệt hại nào được phát hiện và, nếu cần, rút các hệ thống hoạt động sai lệch ra khỏi thị trường. Dù thích hay không, Manus cho thấy rằng tương lai của phát triển AI sẽ diễn ra công khai. ■

 

With Manus, AI experimentation has burst into the open
The old ways of ensuring safety are becoming increasingly irrelevant

Illustration: Rose Wong
Mar 13th 2025

Watching the automatic hand of the Manus AI agent scroll through a dozen browser windows is unsettling. Give it a task that can be accomplished online, such as building up a promotional network of social-media accounts, researching and writing a strategy document, or booking tickets and hotels for a conference, and Manus will write a detailed plan, spin up a version of itself to browse the web, and give it its best shot.
Manus ai is a system built on top of existing models that can interact with the internet and perform a sequence of tasks without deferring to a human user for permission. Its makers, who are based in China, claim to have built the world’s first general AI agent that “turns your thoughts into actions”. Yet ai labs around the world have already been experimenting with this “agentic” approach in private. What makes Manus notable is not that it exists, but that it has been fully unleashed by its creators. A new age of experimentation is here, and it is happening not within labs, but out in the real world.
Spend more time using Manus and it becomes clear that it still has a lot further to go to become consistently useful. Confusing answers, frustrating delays and never-ending loops make the experience disappointing. In releasing it, its makers have obviously prized a job done first over a job done well.
This is in contrast to the approach of the big American labs. Partly because of concerns about the safety of their innovations, they have kept them under wraps, poking and prodding them until they hit a decent version 1.0. OpenAI waited nine months before fully releasing gpt-2 in 2019. Google’s Lamda chatbot was functioning internally in 2020, but the company sat on it for more than two years before releasing it as Bard.
Big labs have been cautious about agentic ai, too, and for good reason. Granting an agent the freedom to come up with its own ways of solving a problem, rather than relying on prompts from a human at every step, may also increase its potential to do harm. Anthropic and Google have demonstrated “computer use” features, for instance, yet neither has released them widely. And in assorted tests and developer previews, these systems are as limited by policy as technology, handing control back to the user at regular intervals or whenever a complex task needs to be finalised.
The existence of Manus makes this cautious approach harder to sustain, however. As the previously wide gap between big AI labs and upstarts narrows, the giants no longer have the luxury of taking their time. And that also means their approach to safety is no longer workable.
To some American observers, fixated on the idea that China might be stealing a march on the West, the fact that Manus is Chinese is especially threatening. But Manus’s success is nowhere near the scale of that of DeepSeek, a Chinese firm that stunned the world with its cheap AI model. Any company, be it American, Chinese or otherwise, could produce a similar agent, provided it used the right off-the-shelf components and had a large enough appetite for risk.
Fortunately, there is little sign yet that Manus has done anything dangerous. But safety can no longer be just a matter of big labs conducting large-scale testing before release. Instead, regulators and companies will need to monitor what is already used in the wild, rapidly respond to any harms they spot and, if necessary, pull misbehaving systems out of action entirely. Whether you like it or not, Manus shows that the future of ai development will play out in the open. ■

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo