Tại sao chi tiêu cho AI không chậm lại

-  Các công ty công nghệ lớn, chính phủ và nhà đầu tư mạo hiểm đang đổ tiền vào AI ở mức chưa từng có

-  Xu hướng chuyển dịch từ mô hình ngôn ngữ lớn sang mô hình lập luận (reasoning models) đang diễn ra mạnh mẽ

-  Mô hình lập luận tiêu thụ tài nguyên gấp 100 lần so với mô hình ngôn ngữ lớn thông thường do quá trình "suy luận chuỗi" kéo dài

-  OpenAI, DeepSeek và xAI đã ra mắt các mô hình lập luận: o1, R1 và Grok 3

-  Google, Microsoft và Meta dự kiến chi 215 tỷ USD cho đầu tư cơ bản (chủ yếu cho trung tâm dữ liệu AI) trong năm 2025, tăng 45% so với năm trước

-  DeepSeek R1 đã chứng minh khả năng giảm chi phí đào tạo AI, nhưng nhu cầu tăng từ mô hình lập luận vẫn khiến tổng nhu cầu tài nguyên tăng gấp 10 lần

-  Các công ty đang chuyển hướng từ đào tạo mô hình sang sử dụng mô hình (inference)

-  Công ty Baseten cho biết khách hàng của họ tiêu thụ nhiều tài nguyên AI hơn dù đã cắt giảm chi phí 60%

-  Dự đoán trong 2 năm tới, chip AI chuyên dụng có thể giúp hệ thống hiệu quả hơn 1.000 lần

-  Nhà đầu tư kỳ vọng nhu cầu AI có thể tăng gấp nghìn tỷ lần trong thập kỷ tới

📌 Nhu cầu tài nguyên điện toán cho AI dự kiến tăng mạnh do sự phát triển của mô hình lập luận tiêu tốn gấp 100 lần tài nguyên. Ba gã khổng lồ công nghệ dự chi 215 tỷ USD cho cơ sở hạ tầng AI năm 2025, phản ánh kỳ vọng thị trường AI tăng gấp 1.000 lần trong tương lai gần.

 

https://www.wsj.com/tech/ai/ai-chatgpt-chips-infrastructure-openai-81cf4d40

#WSJ

Tại sao chi tiêu cho AI không chậm lại

Nhu cầu ngày càng tăng đối với các mô hình suy luận sẽ tiếp tục tiêu thụ điện năng, vi mạch và diện tích trung tâm dữ liệu trong tương lai gần

Tác giả: Christopher Mims
Ngày 21/02/2025 – 8:00 PM ET


Bất chấp một giai đoạn ngắn nhà đầu tư nghi ngờ, tiền đang đổ vào trí tuệ nhân tạo (AI) từ các công ty công nghệ lớn, chính phủ và các quỹ đầu tư mạo hiểm ở mức chưa từng có. Để hiểu tại sao, cần nhìn vào cách AI đang thay đổi.

Công nghệ này đang chuyển từ mô hình ngôn ngữ lớn (LLM) truyền thống sang mô hình suy luận và AI agent. Huấn luyện mô hình ngôn ngữ lớn—loại mà bạn thường thấy trong các chatbot AI miễn phí—đòi hỏi một lượng lớn điện năng và thời gian tính toán. Tuy nhiên, chúng ta đang nhanh chóng tìm ra cách để giảm lượng tài nguyên cần thiết khi vận hành chúng. Trong khi đó, mô hình suy luận, vốn được xây dựng dựa trên LLM, lại khác biệt ở chỗ việc vận hành chúng tiêu tốn nhiều tài nguyên hơn nhiều, cả về vi mạch lẫn điện năng.

Kể từ khi OpenAI giới thiệu mô hình suy luận đầu tiên của mình, o1, vào tháng 9, các công ty AI đã gấp rút tung ra các hệ thống cạnh tranh. Trong số đó có DeepSeek’s R1, mô hình gây chấn động giới công nghệ cũng như làm thay đổi định giá của nhiều công ty công nghệ và năng lượng vào đầu năm nay, cùng với Grok 3 của xAI (công ty của Elon Musk) vừa được ra mắt.

DeepSeek đã gây ra một "cơn hoảng loạn" vì nó cho thấy có thể huấn luyện một mô hình AI với chi phí thấp hơn nhiều so với các mô hình khác, điều này có thể làm giảm nhu cầu đối với trung tâm dữ liệu và các vi mạch tiên tiến đắt đỏ. Nhưng điều DeepSeek thực sự làm được là đẩy ngành AI tiến xa hơn về phía các mô hình suy luận tiêu tốn nhiều tài nguyên, có nghĩa là cơ sở hạ tầng điện toán vẫn cực kỳ cần thiết.

Với những khả năng vượt trội của mình, các hệ thống suy luận có thể sớm trở thành tiêu chuẩn cho nhiều tác vụ AI. CEO OpenAI, Sam Altman, cho biết bản nâng cấp lớn tiếp theo của mô hình AI của công ty ông sẽ bao gồm khả năng suy luận nâng cao.


Tại sao mô hình suy luận cần nhiều năng lượng hơn?

Mô hình suy luận có thể tiêu thụ gấp 100 lần tài nguyên tính toán so với mô hình ngôn ngữ lớn truyền thống, theo bài đăng gần đây của Kari Briski, Phó chủ tịch quản lý sản phẩm AI tại Nvidia.

🔍 Lý do:

  • Các mô hình này dành nhiều phút hoặc thậm chí hàng giờ để tự "trò chuyện" với chính mình theo chuỗi suy luận phức tạp.
  • Người dùng có thể không nhìn thấy toàn bộ quá trình này, nhưng nó tiêu tốn một lượng lớn vi mạch và điện năng.
  • Số lượng tài nguyên mà AI sử dụng tỷ lệ thuận với số từ được tạo ra. Nếu một mô hình suy luận tạo ra gấp 100 lần số từ để trả lời một câu hỏi, nó sẽ tiêu thụ lượng điện năng và tài nguyên tương ứng.

Việc các mô hình suy luận truy cập internet càng làm tăng mức tiêu thụ tài nguyên. Các mô hình "deep research" của Google, OpenAI và Perplexity đều hoạt động theo cách này.


Chi tiêu cho AI vẫn tiếp tục tăng mạnh

Nhu cầu về sức mạnh tính toán chỉ mới bắt đầu tăng. Để đáp ứng điều đó, Google, Microsoft và Meta đang lên kế hoạch chi ít nhất 215 tỷ USD vào chi tiêu vốn trong năm 2025, chủ yếu dành cho trung tâm dữ liệu AI. Đây sẽ là mức tăng 45% so với năm ngoái.

📈 Dự báo nhu cầu AI trong tương lai có thể tính toán theo một công thức đơn giản:

1️⃣ Giá trị đầu tiên trong phương trình này là tài nguyên tính toán cần thiết để xử lý một token thông tin trong một hệ thống AI như ChatGPT.

2️⃣ Vào tháng 1, có vẻ như chi phí xử lý mỗi token (cả về sức mạnh tính toán và chi phí đô la) sẽ giảm mạnh sau khi DeepSeek R1 ra mắt.

3️⃣ DeepSeek chứng minh rằng có thể huấn luyện và triển khai AI hiệu quả hơn nhiều so với cách tiếp cận trước đây của các phòng thí nghiệm AI Mỹ. Điều này có vẻ như sẽ giảm đáng kể nhu cầu tính toán cho AI, có thể chỉ còn 1/10 hoặc ít hơn so với hiện tại.

4️⃣ Nhưng nếu các mô hình suy luận trở thành tiêu chuẩn và tăng mức tiêu thụ tài nguyên lên 100 lần, thì tổng nhu cầu điện toán sẽ vẫn tăng gấp 10 lần so với hiện nay.

📌 Kết luận: Ngay cả khi công nghệ giúp giảm chi phí tính toán cho mỗi mô hình AI, tổng nhu cầu tài nguyên vẫn tăng lên theo cấp số nhân do sự phổ biến của mô hình suy luận.


Sự dịch chuyển từ huấn luyện AI sang vận hành AI

Các doanh nghiệp đang ngày càng phát hiện ra rằng các mô hình AI mới mạnh mẽ hơn rất nhiều, khiến họ sử dụng AI thường xuyên hơn. Điều này làm dịch chuyển nhu cầu tính toán từ huấn luyện mô hình sang vận hành mô hình (hay còn gọi là "inference" trong ngành AI).

💡 Khác biệt giữa huấn luyện và vận hành AI:

  • Huấn luyện (Training): Dạy mô hình AI cách hiểu và xử lý dữ liệu (tốn nhiều tài nguyên nhưng chỉ diễn ra một lần).
  • Vận hành (Inference): Mô hình trả lời câu hỏi, thực hiện tác vụ mỗi khi người dùng gọi (diễn ra liên tục và có thể tiêu tốn nhiều tài nguyên hơn).

📌 Điểm mấu chốt: Khi AI được ứng dụng nhiều hơn trong công việc hằng ngày, chi phí vận hành sẽ chiếm phần lớn chi tiêu cho AI, thay vì chỉ tập trung vào huấn luyện mô hình như trước đây.

Chi tiêu cho AI không chậm lại – và nhu cầu đang tăng vọt

Mô hình suy luận đang thúc đẩy nhu cầu khổng lồ về tài nguyên tính toán AI


Tuhin Srivastava, CEO của Baseten—công ty cung cấp tài nguyên điện toán AI cho các doanh nghiệp khác—cho biết rằng sự chuyển dịch sang vận hành AI (inference) đã diễn ra mạnh mẽ.

Khách hàng của Baseten chủ yếu là các công ty công nghệ sử dụng AI trong ứng dụng và dịch vụ của họ, bao gồm:

  • Descript – Công cụ giúp người sáng tạo nội dung chỉnh sửa âm thanh và video trực tiếp từ bản ghi chép.
  • PicnicHealth – Startup chuyên xử lý hồ sơ y tế.

🔍 Nhận định của Srivastava:
💡 Khách hàng của Baseten ngày càng cần nhiều tài nguyên AI hơn khi nhu cầu đối với sản phẩm của họ tăng nhanh chóng.
📈 Ví dụ: "Chúng tôi đã giúp một khách hàng giảm chi phí xuống 60% chỉ trong 6 tháng. Nhưng chỉ 3 tháng sau, mức tiêu thụ tài nguyên AI của họ đã cao hơn cả lúc ban đầu."


Các phòng thí nghiệm AI lớn vẫn tiếp tục cuộc đua

Các phòng thí nghiệm AI hàng đầu như OpenAI, Google và Meta vẫn đang chạy đua để phát triển những mô hình AI ngày càng mạnh mẽ hơn.

🎯 Mục tiêu: Chiếm lĩnh thị trường AI—một thị trường vẫn còn non trẻ nhưng có tiềm năng khổng lồ.
💰 Bất chấp chi phí, những công ty này sẵn sàng đầu tư hàng chục tỷ USD vào AI để dẫn đầu cuộc chơi.

📢 Chris Taylor, CEO của Fractional AI (một startup tại San Francisco giúp các công ty phần mềm tích hợp AI tùy chỉnh) nhận định:
"Tôi nghĩ rằng các phòng thí nghiệm AI tiên phong sẽ phải tiếp tục rót một lượng tiền khổng lồ để đẩy ranh giới công nghệ tiến xa hơn."

🚀 Các công ty như Baseten, Fractional AI và nhiều công ty khác trong hệ sinh thái AI đều phụ thuộc vào những mô hình AI tiên tiến nhất để cung cấp dịch vụ cho khách hàng của họ.


AI có thể trở nên hiệu quả hơn 1.000 lần trong vài năm tới

🔮 Dự báo từ Tomasz Tunguz, nhà đầu tư mạo hiểm và sáng lập Theory Ventures:
💡 Trong vòng vài năm tới, vi mạch chuyên biệt cho AI sẽ giúp hệ thống AI hiệu quả hơn gấp 1.000 lần so với hiện tại.
💰 Nhà đầu tư và các công ty công nghệ lớn đang đặt cược rằng:

  • Trong vòng 10 năm tới, nhu cầu đối với AI có thể tăng gấp 1.000 tỷ lần nhờ vào mô hình suy luận và tốc độ ứng dụng AI nhanh chóng.

📌 Tầm nhìn về tương lai của AI:
"Mỗi lần bạn nhấn một phím trên bàn phím, hoặc phát âm một từ vào micro, ít nhất một AI sẽ xử lý hoặc thao túng dữ liệu đó," Tunguz nói.
👉 Nếu điều đó trở thành hiện thực, thị trường AI có thể lớn hơn gấp 1.000 lần so với hiện nay.

🔥 AI không chỉ đang phát triển—nó đang bùng nổ với tốc độ chưa từng có.

 

Why AI Spending Isn’t Slowing Down
Soaring demand for reasoning models will consume electricity, microchips and data-center real estate for the foreseeable future
Christopher Mims
By 
Christopher Mims
Feb. 21, 2025 8:00 pm ET

Despite a brief period of investor doubt, money is pouring into artificial intelligence from big tech companies, national governments and venture capitalists at unprecedented levels. To understand why, it helps to appreciate the way that AI itself is changing.
The technology is shifting away from conventional large language models and toward reasoning models and AI agents. Training conventional large language models—the kind you’ve encountered in free versions of most AI chatbots—requires vast amounts of power and computing time. But we’re rapidly figuring out ways to reduce the amount of resources they need to run when a human calls on them. Reasoning models, which are based on large language models, are different in that their actual operation consumes many times more resources, in terms of both microchips and electricity.
Since OpenAI previewed its first reasoning model, called o1, in September, AI companies have been rushing to release systems that can compete. This includes DeepSeek’s R1, which rocked the AI world and the valuations of many tech and power companies at the beginning of this year, and Elon Musk’s xAI, which just debuted its Grok 3 reasoning model. 
DeepSeek caused a panic of sorts because it showed that an AI model could be trained for a fraction of the cost of other models, something that could cut demand for data centers and expensive advanced chips. But what DeepSeek really did was push the AI industry even harder toward resource-intensive reasoning models, meaning that computing infrastructure is still very much needed.
Owing to their enhanced capabilities, these reasoning systems will likely soon become the default way that people use AI for many tasks. OpenAI Chief Executive Sam Altman said the next major upgrade to his company’s AI model will include advanced reasoning capabilities.
Why do reasoning models—and the products they’re a part of, like “deep research” tools and AI agents—need so much more power? The answer lies in how they work.
AI reasoning models can easily use more than 100 times as much computing resources as conventional large language models, Nvidia’s vice president of product management for AI, Kari Briski, wrote in a recent blog post. That multiplier comes from reasoning models spending minutes or even hours talking to themselves—not all of which the user sees—in a long “chain of thought.” The amount of computing resources used by a model is proportional to the number of words generated, so a reasoning model that generates 100 times as many words to answer a question will use that much more electricity and other resources.
Things can get even more resource-intensive when reasoning models access the internet, as Google’s, OpenAI’s and Perplexity’s “deep research” models do.
These demands for computing power are just the beginning. As a reflection of that, Google, Microsoft and Meta Platforms are collectively planning to spend at least $215 billion on capital expenditures—much of that for AI data centers—in 2025. That would represent a 45% increase in their capital spending from last year.
To demonstrate the projections of future AI demand, we can lay out a simple equation.
The first value in our equation is the amount of computing resources needed to process a single token of information in an AI like the one that powers ChatGPT.
In January, it appeared that the cost per token—in both computing power and dollars—would crash in the wake of the release of DeepSeek R1, the Chinese AI model. DeepSeek, with its accompanying paper, showed it was possible to both train and deliver AI in a way that was radically more efficient than the approaches previously disclosed by American AI labs.
On its face, this would seem to indicate that AI’s future demand for computing power would be some fraction of its current amount—say, a tenth, or even less. But the increase in demand from reasoning models when they are answering queries could more than make up for that. To look at in the most simplistic way, if new, more efficient AI models based on the insights that went into DeepSeek slash demand for computing power for AI by a tenth, but reasoning models become the standard and increase demand for those models by a factor of 100, that’s still a 10-fold increase in future demand for power for AI.
This is just the starting point. As businesses are discovering that the new AI models are more capable, they’re calling on them more and more often. This is shifting demand for computing capacity from training models toward using them—or what’s called “inference” in the AI industry.

Tuhin Srivastava, CEO of Baseten, which provides AI computing resources to other companies, says that this swing toward inference is already well under way. His customers consist of tech companies that use AI in their apps and services, such as Descript, which allows content creators to edit audio and video directly from a transcript of a recording, and PicnicHealth, a startup that processes medical records. Baseten’s customers are finding that they need more AI processing power as demand for their own products rapidly grows, says Srivastava. 
“For one customer, we brought their costs down probably 60% six months ago, and within three months, they were already consuming at a higher level than they were consuming initially,” he adds.
All of the big AI labs at companies like OpenAI, Google and Meta are still trying to best one another by training ever-more-capable AI models. Whatever the cost, the prize is capturing as much of the still-nascent market for AIs as possible.
“I think it’s entirely possible that frontier labs need to keep pumping in staggering amounts of money in order to push the frontier forward,” says Chris Taylor, CEO of Fractional AI, a San Francisco-based startup that helps other software companies build and integrate custom AIs. His company, like Baseten and many others in the blossoming AI ecosystem, relies on those cutting-edge models to deliver results for its own customers.
Over the next couple of years, new innovations and more AI-specific microchips could mean systems that deliver AI to end customers become a thousand times more efficient than they are today, says Tomasz Tunguz, a venture capitalist and founder of Theory Ventures. The bet that investors and big tech companies are making, he adds, is that over the course of the coming decade, the amount of demand for AI models could go up by a factor of a trillion or more, thanks to reasoning models and rapid adoption.
“Every keystroke in your keyboard, or every phoneme you utter into a microphone, will be transcribed or manipulated by at least one AI,” says Tunguz. And if that’s the case, he adds, the AI market could soon be 1,000 times larger than it is today.
For more WSJ Technology analysis, reviews, advice and headlines, sign up for our weekly newsletter.
Write to Christopher Mims at [email protected]

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo