Trung Quốc bắt buộc trung tâm dữ liệu dùng 50% chip AI nội địa thay Nvidia

  • Chính phủ Trung Quốc vừa ban hành quy định yêu cầu các trung tâm dữ liệu công cộng phải sử dụng trên 50% chip AI nội địa, nhằm giảm phụ thuộc vào công nghệ Mỹ giữa bối cảnh Washington siết chặt kiểm soát xuất khẩu bán dẫn.

  • Chính sách bắt nguồn từ hướng dẫn của Thượng Hải tháng 3/2024, đặt mục tiêu đến năm 2025 các trung tâm tính toán thông minh của thành phố phải vượt ngưỡng 50% chip nội địa. Từ đầu 2025, quy định này đã trở thành chính sách toàn quốc.

  • Hơn 500 dự án trung tâm dữ liệu mới được công bố tại Trung Quốc trong 2023–2024, trải dài từ Nội Mông đến Quảng Đông, nhằm đáp ứng nhu cầu bùng nổ của AI tạo sinh.

  • Các chip Nvidia H100, H800 bị Mỹ cấm xuất sang Trung Quốc, trong khi chip H20 vừa được dỡ bỏ hạn chế vẫn bị Bắc Kinh nghi ngờ về rủi ro an ninh mạng. Nvidia phủ nhận cáo buộc này.

  • Chip nội địa, điển hình Huawei Ascend, hiện đáp ứng được suy luận (inference) trên mô hình đã huấn luyện, nhưng còn yếu trong huấn luyện AI mới. Vì vậy, Nvidia vẫn là lựa chọn hàng đầu cho phần lớn nhà phát triển.

  • iFlytek (đang bị Mỹ trừng phạt) là công ty Trung Quốc duy nhất công khai dùng chip Huawei để huấn luyện mô hình AI.

  • Vấn đề lớn: hệ sinh thái phần mềm. Nvidia sở hữu CUDA, Huawei dùng CANN. Việc chuyển đổi mô hình giữa hai nền tảng gây tốn công và rủi ro cho các trung tâm dữ liệu.

  • Công ty SiliconFlow (Bắc Kinh) hợp tác với Huawei xây dựng giải pháp tối ưu DeepSeek R1 trên kiến trúc Cloud Matrix 384 và chip Ascend, đạt hiệu quả vượt Nvidia H800, theo nghiên cứu công bố tháng 6/2025.

  • Tuy vậy, nhiều trung tâm dữ liệu bình thường không đủ kỹ sư trình độ cao để xử lý thách thức tích hợp chip hỗn hợp, khiến quá trình “nội địa hóa” chip AI gặp khó khăn.


📌 Trung Quốc ban hành quy định buộc trung tâm dữ liệu phải dùng trên 50% chip AI nội địa, trong bối cảnh Mỹ cấm xuất khẩu H100/H800. Hơn 500 dự án mới khởi động từ 2023–2024, nhưng chip Huawei Ascend vẫn yếu ở huấn luyện mô hình. SiliconFlow + Huawei chứng minh DeepSeek R1 chạy hiệu quả hơn Nvidia H800, song phần lớn trung tâm dữ liệu gặp khó do rào cản phần mềm (CUDA vs CANN). Chính sách thể hiện quyết tâm tự chủ bán dẫn nhưng đi kèm thách thức kỹ thuật lớn.

https://www.scmp.com/tech/tech-war/article/3322119/china-mandates-more-domestic-ai-chips-data-centres-cut-reliance-nvidia

China mandates more domestic AI chips for data centres to cut reliance on Nvidia

In 2023 and 2024, more than 500 new data centre projects were announced across the country, in places such as Inner Mongolia and Guangdong
 
 
Ben Jiangin Beijing
China is requiring its data centres to use more home-grown computing chips in a move that underscores Beijing’s accelerated efforts to cut reliance on foreign technology as the US tightens export controls.
Publicly owned computing hubs across the country have been asked to source more than 50 per cent of their chips from domestic producers to support the indigenous semiconductor sector, according to people familiar with the matter.
The mandate finds its origins in guidelines proposed in March last year by the Shanghai municipality, which was among the first in the country to stipulate that “adoption of domestic computing and storage chips at the city’s intelligent computing centres should be above 50 per cent by 2025”.
The guidelines were part of a policy to strengthen artificial intelligence computing resources in China’s financial hub. The plan was backed by government agencies including branches of the National Development and Reform Commission (NDRC) in the city and the Shanghai Communications Administration, an agency under the Ministry of Industry and Information Technology (MIIT).
One source, who works as an adviser in the data centre industry, said that earlier this year the Shanghai chip quotas for the city’s intelligent computing centres had become mandatory nationwide policy.
he MIIT and NDRC did not immediately respond to a request for comment on Saturday outside business hours.
The latest move comes as China has pushed harder for more tech autonomy, as the US further tightens export controls to restrict Chinese access to advanced semiconductors amid a protracted tech war in critical fields such as AI.
As part of its response, China has sped up the construction of so-called intelligent computing centres that pool computing resources to meet the demands of the local AI industry.
In 2023 and 2024, more than 500 new data centre projects were announced across the country, in places such as Inner Mongolia and Guangdong, according to MIT Technology Review, which cited data from market research firm KZ Consulting.
Generative AI technology demands substantial computing resources, which rely on advanced semiconductors such as Nvidia’s H100 and H800 chips, which Washington has prohibited from being exported to China.
The Chinese government has also questioned whether H20 chips, which recently received US approval for sale to Chinese customers after a short suspension, pose network security hazards to the country, an allegation that Nvidia has refuted.
Chinese chips, despite being inferior to those of Nvidia, were “usable” in inferencing for trained AI models, but when it came to training new AI models, Nvidia chips were still the go-to choice among mainstream AI developers, another source added.
US-sanctioned iFlytek is the only Chinese tech firm that has publicly announced it is using Huawei Technologies’ chips to train its AI models.
Meanwhile, the rush to adopt local AI chips has led to technical challenges for AI data centres that use a mix of domestic and foreign chips, according to the source.
AI chips typically run on an accompanying software ecosystem from their manufacturer, such as Nvidia’s CUDA, or Huawei CANN. Models developed on one solution need to be adapted to run on another company’s chips, which can prove to be a challenging task.
With most Chinese AI models still developed using Nvidia solutions, China’s AI data centres – unlike AI specialist firms such as SiliconFlow staffed with top engineers – were facing mounting “adaptation” challenges as they add more domestic chips, the source said.
Beijing-based SiliconFlow, in partnership with Huawei, developed a solution to use Huawei’s Cloud Matrix 384 data centre architecture and Ascend chips to run DeepSeek’s R1 models more efficiently than Nvidia’s H800, according to joint research published in June.

Không có file đính kèm.

42

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo