Các công ty AI hàng đầu của Mỹ đã gửi đề xuất về "Kế hoạch hành động AI" của chính phủ với những quan điểm rất khác nhau.
OpenAI không muốn luật liên bang về AI mà chỉ muốn một khuôn khổ tự nguyện, hẹp để thay thế các luật cấp bang. Họ đề xuất một thỏa thuận: công ty AI sẽ nhận hợp đồng chính phủ và thông tin về mối đe dọa an ninh, còn chính phủ sẽ được kiểm tra khả năng mới của các mô hình.
Google cũng muốn thay thế luật cấp bang bằng "khuôn khổ quốc gia thống nhất cho mô hình AI tiên tiến", nhưng không phản đối luật AI liên bang nếu nó tập trung vào ứng dụng cụ thể và không buộc nhà phát triển AI chịu trách nhiệm về việc sử dụng sai mục đích.
Về kiểm soát xuất khẩu với Trung Quốc, tất cả công ty đều muốn sửa đổi quy tắc "AI diffusion" được Biden đưa ra vào tháng 1, nhưng với những yêu cầu khác nhau.
OpenAI muốn thêm nhiều nước vào nhóm cao nhất (cho phép nhập khẩu chip AI Mỹ không giới hạn). Microsoft cũng muốn mở rộng danh sách các quốc gia trong Tier 1.
Anthropic muốn siết chặt hơn kiểm soát đối với các nước ở Tier 2 về việc nhập khẩu chip Nvidia H100, và mở rộng kiểm soát xuất khẩu để Trung Quốc không thể sở hữu chip H20 kém mạnh hơn của Nvidia.
Google không thích quy tắc AI diffusion, cho rằng nó áp đặt "gánh nặng không tương xứng lên các nhà cung cấp dịch vụ đám mây Mỹ".
Về bản quyền, OpenAI chỉ trích Đạo luật AI của châu Âu cho phép chủ sở hữu quyền từ chối việc sử dụng tác phẩm để huấn luyện mô hình AI.
OpenAI, Anthropic và Google đều kêu gọi đơn giản hóa cấp phép đường dây truyền tải để thúc đẩy xây dựng năng lượng nhanh hơn cho trung tâm dữ liệu AI.
Về an ninh và ứng dụng chính phủ, OpenAI và Anthropic đề xuất đẩy nhanh quy trình phê duyệt an ninh mạng và mua sắm để các cơ quan chính phủ dễ dàng sử dụng công cụ AI.
Anthropic kêu gọi chính quyền theo dõi chặt chẽ thị trường lao động và chuẩn bị cho những thay đổi lớn do AI gây ra. Google cũng dự báo sẽ có những thay đổi đòi hỏi kỹ năng AI rộng hơn.
📌 Các gã khổng lồ AI Mỹ đang mâu thuẫn sâu sắc về cách tiếp cận quy định và đối đầu với Trung Quốc. OpenAI, Google muốn khuôn khổ liên bang thay thế luật bang, trong khi các công ty khác nhau có quan điểm trái ngược về kiểm soát chip AI, quy định bản quyền và ứng dụng AI trong chính phủ.
https://fortune.com/2025/03/17/us-ai-action-plan-proposals-openai-anthropic-google-microsoft/
Các công ty AI của Mỹ có quan điểm rất khác nhau về quy định và cách đối phó với Trung Quốc
David Meyer – 17 tháng 3, 2025, 4:07 PM UTC
Các công ty AI lớn nhất của Mỹ đều có những quan điểm mạnh mẽ về việc “Kế hoạch Hành động AI” sắp tới của chính phủ nên trông như thế nào — nhưng họ không muốn những điều giống nhau.
Với thời hạn nộp ý kiến đã kết thúc vào thứ Bảy vừa qua, đây là thời điểm thích hợp để so sánh những gì mà OpenAI, Anthropic, Microsoft và Google đã đề xuất. (Meta được cho là cũng đã nộp đề xuất, nhưng không giống như các đối thủ, họ chưa công khai các đề xuất của mình.)
Dưới đây là bản so sánh các đề xuất đó. (Để đơn giản, bài viết không bao gồm các bản đệ trình từ các nhóm vận động hành lang, nhà đầu tư hoặc các viện nghiên cứu — nhưng có danh sách các liên kết tới các đề xuất này ở cuối bài viết.)
Như đã viết vào tuần trước, đề xuất của OpenAI kêu gọi chính quyền Trump giúp công ty và các đối thủ của họ thoát khỏi nguy cơ phải đối mặt với hàng loạt luật AI cấp tiểu bang khác nhau — hiện tại có hơn 700 dự luật liên quan đang được đề xuất.
Tuy nhiên, OpenAI không muốn luật liên bang, mà thay vào đó muốn một khuôn khổ tự nguyện và hạn chế để thay thế các quy định cấp tiểu bang. Theo thỏa thuận này:
(Điều đáng chú ý là đây là điều mà hầu hết các công ty AI hàng đầu, bao gồm OpenAI, đã cam kết tự nguyện thực hiện khi chính quyền Biden còn nắm quyền.)
Google cũng muốn loại bỏ các luật cấp tiểu bang, nhưng đề xuất một khuôn khổ quốc gia thống nhất cho các mô hình AI tiên tiến, tập trung vào bảo vệ an ninh quốc gia trong khi vẫn tạo điều kiện để đổi mới AI của Mỹ phát triển mạnh mẽ.
Tuy nhiên, khác với OpenAI, Google không phản đối ý tưởng về luật AI liên bang, miễn là nó tập trung vào các ứng dụng cụ thể của công nghệ và không buộc các nhà phát triển AI chịu trách nhiệm về việc lạm dụng các công cụ AI.
Google cũng tận dụng cơ hội này để thúc đẩy một chính sách bảo mật cấp liên bang mới, cho rằng điều này cũng ảnh hưởng trực tiếp đến ngành AI.
Các công ty AI lớn đều kêu gọi chính quyền Trump sửa đổi "quy tắc AI Diffusion" mà chính quyền Biden đã ban hành vào tháng 1, nhằm ngăn chặn Trung Quốc nhập khẩu trái phép thiết bị AI mạnh của Mỹ qua các quốc gia thứ ba. Tuy nhiên, họ muốn những điều khác nhau:
OpenAI muốn mở rộng danh sách các quốc gia thuộc nhóm cấp 1, cho phép nhập khẩu không giới hạn chip AI của Mỹ, với điều kiện các quốc gia đó cam kết tuân thủ các nguyên tắc dân chủ về AI. (Họ gọi đây là "ngoại giao thương mại.")
→ Hiện tại, chưa tới 20 quốc gia nằm trong nhóm cấp 1 của quy tắc AI Diffusion.
Microsoft cũng muốn mở rộng danh sách các quốc gia trong nhóm cấp 1, nhưng đồng thời kêu gọi phân bổ nhiều tài nguyên hơn để giúp Bộ Thương mại thực thi quy tắc Diffusion, qua đó ngăn chặn các công ty Trung Quốc tiếp cận chip AI qua thị trường xám từ các nhà cung cấp trung tâm dữ liệu nhỏ ở châu Á và Trung Đông.
Anthropic muốn siết chặt hơn nữa đối với các quốc gia thuộc nhóm cấp 2, hạn chế số lượng Nvidia H100 mà họ có thể nhập khẩu. Anthropic cũng kêu gọi mở rộng kiểm soát xuất khẩu của Mỹ để ngăn Trung Quốc tiếp cận các chip Nvidia H20 — loại chip được thiết kế riêng cho thị trường Trung Quốc để lách luật xuất khẩu hiện hành của Mỹ.
Google lại phản đối quy tắc AI Diffusion, cho rằng nó áp đặt "gánh nặng không cân xứng" lên các nhà cung cấp dịch vụ đám mây của Mỹ, dù Google đồng ý rằng các mục tiêu an ninh quốc gia là hợp lý.
OpenAI cũng đề xuất cấm toàn cầu đối với chip của Huawei và các mô hình AI của Trung Quốc vi phạm quyền riêng tư hoặc gây rủi ro về an ninh như đánh cắp tài sản trí tuệ. (Lời chỉ trích này được nhiều người coi là nhắm vào công ty AI Trung Quốc DeepSeek.)
OpenAI chỉ trích Đạo luật AI của Châu Âu, đạo luật cho phép các chủ sở hữu quyền từ chối cho phép tác phẩm của họ được sử dụng để huấn luyện các mô hình AI.
OpenAI kêu gọi chính quyền Trump ngăn chặn các quốc gia kém đổi mới hơn áp đặt các quy định pháp lý của họ lên các công ty AI của Mỹ, làm chậm tốc độ phát triển.
Google ủng hộ các luật bản quyền cân bằng và đề xuất các luật bảo mật cho phép sử dụng thông tin công khai để đào tạo AI. Google cũng muốn xem xét lại các bằng sáng chế AI bị cấp sai, đặc biệt khi các công ty Trung Quốc đang gia tăng số lượng bằng sáng chế AI của Mỹ mà họ sở hữu.
American AI companies have very different ideas about regulation and how best to thwart China
BYDavid Meyer
March 17, 2025, 4:07 PM UTC
The logos of Google Gemini, ChatGPT, Microsoft Copilot, Claude by Anthropic, Perplexity, and Bing apps are displayed on the screen of a smartphone
Jaque Silva—NurPhoto via Getty Images
The biggest U.S. AI companies all have strong views about what the country’s incoming “AI Action Plan” should look like, but they don’t all want the same things.
With the deadline for submissions having passed on Saturday, now is a good time to compare what OpenAI, Anthropic, Microsoft and Google had to say. (Meta has presumably also made a submission, but, unlike its peers, it has not publicized its proposals.)
So here is that comparison. (For brevity’s sake, we have not included the submissions of lobbying groups and investors, nor those of various institutes and think tanks—but we are including a list of links to these proposals at the bottom of this piece.)
AI laws
As we wrote last week, OpenAI’s submission called on the Trump administration to rescue it and its peers from a likely flood of disparate state-level AI laws; over 700 bills are currently out there. But it doesn’t want federal legislation—rather, OpenAI (which was loudly calling for AI legislation a year or two ago) now wants a narrow, voluntary framework that would pre-empt state regulation. Under this deal, AI companies would get juicy government contracts and a heads-up on potential security threats, and the government would get to test the models’ new capabilities and evaluate them against foreign models. (It is notable that this is something most of the top AI firms, including OpenAI, had already voluntarily committed to doing when the Biden Administration was in power.)
Google also wants the pre-emption of state laws with a “unified national framework for frontier AI models focused on protecting national security while fostering an environment where American AI innovation can thrive.” However, it isn’t against the idea of federal AI regulation, as long as it focuses on specific applications of the technology and doesn’t hold AI developers responsible for the tools’ misuse. Interestingly, Google used this opportunity to push for a new federal privacy policy that would also pre-empt state-level efforts, on the basis that this affects the AI industry too.
Google wants the administration to engage with other governments on the issue of AI legislation, pushing back against any laws that would require companies to divulge trade secrets, and establishing an international norm where only a company’s home government would get to deeply evaluate its models.
Export controls and China
The big AI companies all urged the Trump administration to revise the “AI diffusion” rule that the Biden administration introduced in January, in an attempt to stop China routing unlawful imports of powerful U.S. equipment through third countries. But they want different things.
OpenAI would like more countries added to the rule’s top tier, which allows uncapped imports of U.S. AI chips, as long as those countries “commit to democratic AI principles by deploying AI systems in ways that promote more freedoms for their citizens.” (It calls this “commercial diplomacy.”) Most countries are currently in the AI diffusion rule’s second tier, with fewer than 20 currently being in the top tier.
Microsoft has also said it wants the number of countries that qualify for the Diffusion Rule’s Tier 1 category expanded. Meanwhile, it wants more resources devoted to helping the Commerce Department enforce a portion of the Diffusion Rule that said that cutting-edge AI chips can only be exported and deployed in data centers that the U.S. government certifies as trusted and secure. It says this would prevent Chinese companies from accessing the most powerful AI chips through a burgeoning gray market of small data center providers in Asia and the Middle East who don’t ask too many questions about who exactly is renting time on their servers. (Microsoft has not yet published its full submission on the U.S. AI Action plan, but instead published a blog post from President Brad Smith talking about what it thinks the Trump Administration should do in terms of the Diffusion Rule.)
Anthropic wants those in Tier 2 to face even tighter controls on the numbers of Nvidia H100s that they can import. The Claude-maker also wants U.S. export controls expanded so China cannot get its hands on Nvidia’s less-powerful H20 chips, which Nvidia specifically designed for the Chinese market to get around existing U.S. export controls.
Google doesn’t like the AI diffusion rule at all, arguing that it imposes “disproportionate burdens on U.S. cloud service providers,” even if its national-security goals are valid.
OpenAI has also suggested a global ban on Huawei chips and Chinese “models that violate user privacy and create security risks such as the risk of IP theft,” which is being widely interpreted as a dig at DeepSeek.
Copyright
OpenAI scorned Europe’s AI Act, which gives rightsholders the ability to opt out of having their works automatically used to train AI models. It urged the Trump administration to “prevent less innovative countries from imposing their legal regimes on American AI firms and slowing our rate of progress.”
Google, meanwhile, called for balanced copyright laws, and also privacy laws that automatically grant an exemption for publicly available information. It also suggested a review of “AI patents granted in error,” especially because Chinese companies have recently been scooping up increasing numbers of U.S. AI patents.
Infrastructure
OpenAI, Anthropic and Google all called for the streamlining of permitting around transmission lines, to encourage a faster energy buildout to support new AI data centers. Anthropic also called for 50 gigawatts of extra energy in the U.S., only for AI use, by 2027.
Security and government adoption
OpenAI called on the government speed up cybersecurity approvals of the top AI tools, so agencies can more easily test their use. It proposed public-private partnerships to develop national-security models that would otherwise have no commercial market, such as models for classified nuclear tasks.
Anthropic also suggested speeding up procurement procedures to get AI embedded into government functions. Notably, it also called for strong security-evaluation roles for the National Institute of Standards and Technology and the U.S. AI Safety Institute, both of which have been hit hard by the Trump administrations mass firings.
Google argued that national-security agencies should be allowed to use commercial storage and compute for their AI needs. It also called on the government to free up its datasets for commercial AI training, and to mandate open data standards and APIs across different government cloud deployments to enable “AI-driven insights.”
AI’s effects
Anthropic urged the administration to keep a close eye on labor markets and prepare for big changes. Google also said shifts were coming, arguing that they would need wider AI skills. Google also asked for more funding for AI research and a policy to make sure U.S. researchers have access to enough compute power, data, and models.