Mối nguy hiểm của việc phụ thuộc vào Deep Research của OpenAI

 

  • Đầu tháng 2/2025, OpenAI giới thiệu Deep Research, công cụ AI tạo sinh đa bước, có thể tạo ra một bài nghiên cứu hoàn chỉnh chỉ trong vài phút – thu hút sự chú ý của giới học thuật, đặc biệt là các nhà kinh tế.

  • Nhiều học giả nổi tiếng đánh giá cao, ví dụ Tyler Cowen so sánh hiệu quả của nó với trợ lý nghiên cứu trình độ tiến sĩ làm việc một đến hai tuần.

  • Tuy nhiên, Deep Research vẫn không thể thực hiện nghiên cứu sơ cấp như khảo sát, quan sát hành vi, hay phỏng vấn thực tế – và tất nhiên là không thể pha cà phê.

  • Vấn đề đầu tiên là hạn chế về “sáng tạo dữ liệu”: công cụ hoạt động tốt với câu hỏi đơn giản, nhưng dễ sai trong các yêu cầu phân tích sâu, hoặc truy xuất số liệu chi tiết như chi tiêu cụ thể theo nhóm tuổi.

  • Thứ hai là “sự chuyên chế của số đông”: do được huấn luyện trên dữ liệu phổ biến, Deep Research có xu hướng chọn thông tin thông dụng thay vì chính xác hay chuyên sâu – như nhầm lẫn về bất bình đẳng thu nhập ở Mỹ hay sai lầm về ý nghĩa thật của "bàn tay vô hình" trong lý thuyết của Adam Smith.

  • Cuối cùng, nguy cơ nghiêm trọng nhất là trí tuệ bị thụ động hóa: người dùng có thể lười suy nghĩ, giảm khả năng phát hiện nghịch lý và sáng tạo – vì “viết là tư duy”, và nếu AI viết thay, con người sẽ nghĩ ít hơn.

  • Nhà đầu tư Paul Graham cảnh báo rằng việc phụ thuộc AI để viết sẽ làm con người ngu đi, vì bỏ lỡ cơ hội luyện tập tư duy thông qua nghiên cứu.

  • Bài viết kết luận rằng Deep Research nên được dùng như một công cụ hỗ trợ, nhưng không thay thế quá trình tư duy và khám phá cá nhân, vốn là cốt lõi trong nghiên cứu học thuật và sáng tạo chuyên môn.

📌 Deep Research giúp viết nhanh, xử lý thông tin phổ biến hiệu quả nhưng dễ mắc lỗi khi đụng tới dữ liệu phức tạp và tư duy phản biện. Nguy hiểm hơn, nó có thể dẫn đến sự phụ thuộc, làm giảm khả năng suy nghĩ độc lập – điều cốt lõi trong nghiên cứu, học thuật và đổi mới tư duy. Hãy dùng công cụ này như trợ lý, không phải người dẫn dắt.

https://www.economist.com/finance-and-economics/2025/02/13/the-danger-of-relying-on-openais-deep-research

Mối nguy hiểm của việc phụ thuộc vào Deep Research của OpenAI

Các nhà kinh tế học đang mê mẩn, nhưng họ nên cẩn trọng

Một quả cầu tiên tri với chữ AI được viết trên đó và những bàn tay xung quanh nó.

Minh họa: Álvaro Bernis

Ngày 13 tháng 2 năm 2025

Vào đầu tháng 2, OpenAI, công ty trí tuệ nhân tạo nổi tiếng nhất thế giới, đã phát hành Deep Research, một công cụ "được thiết kế để thực hiện nghiên cứu chuyên sâu, nhiều bước". Chỉ với vài cú nhấn bàn phím, công cụ này có thể tạo ra một bài báo về bất kỳ chủ đề nào trong vài phút. Nhiều học giả yêu thích nó. "Việc hỏi Deep Research của OpenAI về các chủ đề mà tôi đang viết bài báo đã mang lại kết quả vô cùng phong phú," Ethan Mollick của Đại học Pennsylvania cho biết. Một số nhà kinh tế học còn đi xa hơn. "Tôi chắc chắn đối với các tạp chí hạng B, bạn có thể xuất bản các bài báo mà bạn 'viết' trong một ngày", Kevin Bryan của Đại học Toronto nói. "Tôi nghĩ về chất lượng như là tương đương với việc có một trợ lý nghiên cứu giỏi ở cấp độ tiến sĩ, và gửi người đó đi với một nhiệm vụ trong một hoặc hai tuần," Tyler Cowen của Đại học George Mason, một nhà kinh tế học có địa vị như thần tượng ở Thung lũng Silicon, cho biết.

Bạn có nên bỏ ra 200 đô la mỗi tháng cho Deep Research không? Ông Cowen đã quảng cáo cho các xu hướng trong quá khứ, như ông đã làm với Web3 và Clubhouse, một mạng xã hội từng phổ biến. Mặt khác, nếu Deep Research xấp xỉ một hình thức siêu trí tuệ nhân tạo, như nhiều người tin, thì 2.400 đô la một năm là món hời lớn nhất trong lịch sử thế giới. Để giúp bạn quyết định, nhà báo của chúng tôi đã thử nghiệm mô hình mới này. Deep Research là một trợ lý nghiên cứu tốt như thế nào, cho các nhà kinh tế học và những người khác?

Trước tiên, những kết luận hiển nhiên. Deep Research không thể tiến hành nghiên cứu sơ cấp, từ việc tổ chức thăm dò ý kiến ở Peru đến việc cảm nhận ngôn ngữ cơ thể của một giám đốc điều hành mà công ty của họ bạn có thể đầu tư bán khống. Nó cũng không thể pha cà phê, làm cho nó trở thành một sự thay thế kém cho một trợ lý con người. Một lời phàn nàn khác là đầu ra của Deep Research hầu như luôn là văn xuôi nặng nề, ngay cả khi bạn yêu cầu nó sống động hơn. Tuy nhiên, hầu hết mọi người chưa bao giờ là những nhà văn giỏi, nên họ sẽ không quan tâm nếu trợ lý AI của họ hơi buồn tẻ.

Tuy nhiên, sử dụng Deep Research làm trợ lý một thời gian, ba vấn đề quan trọng hơn nổi lên: "sáng tạo dữ liệu", "sự chuyên chế của đa số" và "lối tắt trí tuệ". Bắt đầu với sáng tạo dữ liệu. Mô hình của OpenAI có thể xử lý các câu hỏi đơn giản—"tỷ lệ thất nghiệp của Pháp năm 2023 là bao nhiêu?"—mà không gặp khó khăn. Nó có thể xử lý các câu hỏi phức tạp hơn một chút—"cho tôi biết tỷ lệ thất nghiệp trung bình năm 2023 của Pháp, Đức và Ý, được tính theo trọng số dân số"—một cách dễ dàng.

Tuy nhiên, khi đề cập đến các câu hỏi dữ liệu đòi hỏi nhiều sáng tạo hơn, mô hình gặp khó khăn. Nó ước tính sai số tiền trung bình mà một hộ gia đình Mỹ do người từ 25 đến 34 tuổi đứng đầu chi cho rượu whisky vào năm 2021, mặc dù bất kỳ ai quen thuộc với dữ liệu của Cục Thống kê Lao động đều có thể tìm thấy câu trả lời chính xác (20 đô la) trong vài giây. Nó không thể nói chính xác cho bạn tỷ lệ doanh nghiệp Anh hiện đang sử dụng AI, mặc dù văn phòng thống kê tạo ra ước tính thường xuyên. Mô hình thậm chí còn gặp khó khăn lớn hơn với các câu hỏi phức tạp hơn, bao gồm cả những câu hỏi liên quan đến phân tích dữ liệu nguồn được tạo ra bởi các cơ quan thống kê. Đối với những câu hỏi như vậy, trợ lý con người vẫn giữ được lợi thế.

Vấn đề thứ hai là sự chuyên chế của đa số. Deep Research được đào tạo trên một phạm vi rộng lớn các dữ liệu công khai. Đối với nhiều nhiệm vụ, đây là một điểm cộng. Nó cực kỳ giỏi trong việc tạo ra các bản tóm tắt chi tiết, có nguồn. Ông Cowen đã yêu cầu nó tạo ra một bài báo dài 10 trang giải thích lý thuyết tiền thuê của David Ricardo. Đầu ra sẽ là một phần bổ sung đáng kính cho bất kỳ sách giáo khoa nào.

Tuy nhiên, khối lượng nội dung khổng lồ được sử dụng để đào tạo mô hình tạo ra một vấn đề trí tuệ. Deep Research có xu hướng dựa vào những ý tưởng thường xuyên được thảo luận hoặc xuất bản, thay vì những thứ tốt nhất. Khối lượng thông tin áp chế chất lượng thông tin. Điều này xảy ra với thống kê: Deep Research có xu hướng tham khảo các nguồn dễ tiếp cận (như báo chí), thay vì dữ liệu tốt hơn có thể nằm sau paywall hoặc khó tìm hơn.

Điều tương tự cũng xảy ra với các ý tưởng. Hãy xem xét câu hỏi - được các nhà kinh tế học thảo luận nhiều - về việc liệu bất bình đẳng thu nhập của Mỹ có đang gia tăng không. Trừ khi được hướng dẫn làm khác đi, mô hình này một cách nhạt nhẽo giả định rằng bất bình đẳng đã tăng vọt kể từ những năm 1960 (như quan điểm thông thường) thay vì vẫn giữ nguyên hoặc chỉ tăng một chút (quan điểm của nhiều chuyên gia). Hoặc xem xét ý nghĩa thực sự của "bàn tay vô hình" của Adam Smith, ý tưởng nền tảng trong kinh tế học. Trong một bài báo được xuất bản vào năm 1994, Emma Rothschild của Đại học Harvard đã phá bỏ khái niệm cho rằng Smith sử dụng thuật ngữ này để chỉ lợi ích của thị trường tự do. Deep Research biết về nghiên cứu của bà Rothschild nhưng vẫn lặp lại sự hiểu lầm phổ biến. Nói cách khác, những người sử dụng Deep Research làm trợ lý có nguy cơ tìm hiểu về quan điểm đồng thuận, không phải quan điểm của các chuyên gia. Đó là một rủi ro lớn cho bất kỳ ai kiếm thu nhập thông qua sáng tạo và tư duy cá nhân, từ trí thức công chúng đến nhà đầu tư.

Cái bẫy ngốc nghếch

Vấn đề thứ ba với việc sử dụng Deep Research làm trợ lý là nghiêm trọng nhất. Đó không phải là vấn đề với chính mô hình, mà là cách nó được sử dụng. Không thể tránh khỏi, bạn thấy mình đang đi tắt về mặt trí tuệ. Paul Graham, một nhà đầu tư Thung lũng Silicon, đã lưu ý rằng các mô hình AI, bằng cách đề nghị viết thay cho mọi người, có nguy cơ làm cho họ trở nên ngốc nghếch. "Viết là suy nghĩ," ông đã nói. "Thực tế, có một loại suy nghĩ chỉ có thể được thực hiện bằng cách viết." Điều tương tự cũng đúng với nghiên cứu. Đối với nhiều công việc, nghiên cứu là suy nghĩ: nhận thấy mâu thuẫn và khoảng trống trong quan điểm thông thường. Nguy cơ của việc thuê ngoài tất cả nghiên cứu của bạn cho một trợ lý siêu thông minh là bạn giảm số lượng cơ hội để có những ý tưởng tốt nhất của mình.

Theo thời gian, OpenAI có thể khắc phục các vấn đề kỹ thuật của mình. Đến một thời điểm nào đó, Deep Research cũng có thể nghĩ ra những ý tưởng tuyệt vời, biến nó từ một trợ lý thành nhà nghiên cứu chính. Cho đến lúc đó, hãy sử dụng Deep Research, ngay cả ở mức 200 đô la một tháng. Chỉ là đừng mong đợi nó sẽ thay thế trợ lý nghiên cứu trong tương lai gần. Và hãy chắc chắn rằng nó không khiến bạn trở nên ngốc nghếch.

The danger of relying on OpenAI’s Deep Research

Economists are in raptures, but they should be careful

 
In early February Openai, the world’s most famous artificial-intelligence firm, released Deep Research, which is “designed to perform in-depth, multi-step research”. With a few strokes of a keyboard, the tool can produce a paper on any topic in minutes. Many academics love it. “Asking OpenAI’s Deep Research about topics I am writing papers on has been incredibly fruitful,” said Ethan Mollick of the University of Pennsylvania. Some economists go further. “I am *sure* for B-level journals, you can publish papers you ‘wrote’ in a day”, said Kevin Bryan of the University of Toronto. “I think of the quality as comparable to having a good PhD-level research assistant, and sending that person away with a task for a week or two,” said Tyler Cowen of George Mason University, an economist with cult-like status in Silicon Valley.
Should you shell out $200 a month for Deep Research? Mr Cowen has hyped fads in the past, as he did with Web3 and Clubhouse, a once-popular social-media network. On the other hand, if Deep Research approximates a form of artificial superintelligence, as many believe, then $2,400 a year is the greatest bargain in the history of the world. To help you decide, your columnist has kicked the tyres of the new model. How good a research assistant is Deep Research, for economists and others?
The obvious conclusions first. Deep Research is unable to conduct primary research, from organising polls in Peru to getting a feel for the body language of a chief executive whose company you might short. Nor can it brew a coffee, making it a poor substitute for a human assistant. Another complaint is that Deep Research’s output is almost always leaden prose, even if you ask it to be more lively. Then again, most people were never good writers anyway, so will hardly care if their ai assistant is a bit dull.
Use Deep Research as an assistant for a while, though, and three more important issues emerge: “data creativity”, the “tyranny of the majority” and “intellectual shortcuts”. Begin with data creativity. OpenAI’s model can handle straightforward questions—“what was France’s unemployment rate in 2023?”—without breaking step. It can handle marginally more complex questions—“tell me the average unemployment rate in 2023 for France, Germany and Italy, weighted by population”—with ease.
When it comes to data questions requiring more creativity, however, the model struggles. It wrongly estimates the average amount of money that an American household headed by a 25- to 34-year-old spent on whisky in 2021, even though anyone familiar with the Bureau of Labour Statistics data can find the exact answer ($20) in a few seconds. It cannot accurately tell you what share of British businesses currently use ai, even though the statistics office produces a regular estimate. The model has even greater difficulty with more complex questions, including those involving the analysis of source data produced by statistical agencies. For such questions, human assistants retain an edge.
The second issue is the tyranny of the majority. Deep Research is trained on an enormous range of public data. For many tasks, this is a plus. It is astonishingly good at producing detailed, sourced summaries. Mr Cowen asked it to produce a ten-page paper explaining David Ricardo’s theory of rent. The output would be a respectable addition to any textbook.
Yet the sheer volume of content used to train the model creates an intellectual problem. Deep Research tends to draw on ideas that are frequently discussed or published, rather than the best stuff. Information volume tyrannises information quality. It happens with statistics: Deep Research is prone to consulting sources that are easily available (such as newspapers), rather than better data that may be behind a paywall or are harder to find.
Something similar happens with ideas. Consider the question—much discussed by economists—of whether American income inequality is rising. Unless prompted to do otherwise, the model blandly assumes that inequality has soared since the 1960s (as is the conventional wisdom) rather than remained flat or increased only a bit (the view of many experts). Or consider the true meaning of Adam Smith’s “invisible hand”, the foundational idea in economics. In a paper published in 1994, Emma Rothschild of Harvard University demolished the notion that Smith used the term to refer to the benefits of free markets. Deep Research is aware of Ms Rothschild’s research but nonetheless repeats the popular misconception. In other words, those using Deep Research as an assistant risk learning about the consensus view, not that of the cognoscenti. That is a huge risk for anyone who makes their income through individual creativity and thought, from public intellectuals to investors.

The idiot trap

A third problem with employing Deep Research as an assistant is the most serious. It is not an issue with the model itself, but how it is used. Ineluctably, you find yourself taking intellectual shortcuts. Paul Graham, a Silicon Valley investor, has noted that AI models, by offering to do people’s writing for them, risk making them stupid. “Writing is thinking,” he has said. “In fact there’s a kind of thinking that can only be done by writing.” The same is true for research. For many jobs, researching is thinking: noticing contradictions and gaps in the conventional wisdom. The risk of outsourcing all your research to a supergenius assistant is that you reduce the number of opportunities to have your best ideas.
With time, OpenAI may iron out its technical issues. At some point, Deep Research may also be able to come up with amazing ideas, turning it from an assistant to the lead researcher. Until then, use Deep Research, even at $200 a month. Just don’t expect it to replace research assistants any time soon. And make sure it doesn’t turn you stupid. ■

Không có file đính kèm.

3

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo