- Hội nghị AI diễn ra tại Paris do tổng thống Pháp Emmanuel Macron và thủ tướng Ấn Độ Narendra Modi đồng chủ trì, với sự tham gia của các lãnh đạo công ty AI hàng đầu như Sam Altman (OpenAI), Dario Amodei (Anthropic) và Demis Hassabis (Google DeepMind)
- Emmanuel Macron công bố khoản đầu tư tư nhân trị giá 112,5 tỷ USD vào hệ sinh thái AI của Pháp, thể hiện sự lo ngại về việc tụt hậu so với các nước khác
- Châu Âu đang có dấu hiệu hối tiếc về các quy định AI nghiêm ngặt trước đây, trong khi các thị trường như Ấn Độ có quy định lỏng lẻo hơn
- Khác với 2 hội nghị AI trước tại Anh (2023) và Hàn Quốc, hội nghị Paris tập trung vào tiềm năng tích cực của AI trong y tế và khoa học khí hậu, giảm bớt thảo luận về rủi ro
- DeepSeek của Trung Quốc gây chấn động khi tạo ra model AI mạnh mẽ với chi phí chỉ vài chục triệu USD, thay vì hàng trăm tỷ USD
- Chính quyền Trump chưa đưa ra chính sách rõ ràng về AI sau khi hủy bỏ sắc lệnh của chính quyền Biden về chương trình kiểm tra các model AI mạnh
- Các lãnh đạo công ty công nghệ dự đoán AGI có thể xuất hiện trong 1-5 năm tới, nhưng các nhà hoạch định chính sách chưa nắm bắt được tốc độ phát triển nhanh chóng này
- Các cuộc thảo luận chính sách tại hội nghị thiếu tính cấp bách cần thiết, chưa chuẩn bị cho viễn cảnh AI thông minh hơn con người có thể xuất hiện trong vài tháng tới
📌 Hội nghị AI Paris cho thấy khoảng cách lớn giữa tốc độ phát triển công nghệ và khả năng điều chỉnh chính sách. Trong khi các công ty dự đoán AGI sẽ xuất hiện trong 1-5 năm tới với những đột phá như DeepSeek, các nhà hoạch định chính sách vẫn đang vật lộn với việc quản lý các hệ thống AI hiện tại.
https://www.nytimes.com/2025/02/10/technology/ai-summit-paris-technology.html
Đôi khi, Kevin Roose viết, cảm giác như đang chứng kiến các nhà hoạch định chính sách cưỡi ngựa cố gắng lắp dây an toàn cho một chiếc Lamborghini đang lao qua.
Các nhà lãnh đạo thế giới, ông trùm công nghệ và những người tham dự đủ kiểu (bao gồm cả tôi) đã tụ họp tại Paris tuần này cho Hội nghị Thượng đỉnh Hành động về Trí tuệ Nhân tạo. Sự kiện này do Tổng thống Pháp Emmanuel Macron và Thủ tướng Ấn Độ Narendra Modi đồng tổ chức, nhằm thảo luận về nhiều vấn đề liên quan đến AI.
Lãnh đạo của 3 công ty AI Mỹ — Sam Altman của OpenAI, Dario Amodei của Anthropic và Demis Hassabis của Google DeepMind — đều có mặt, cùng với nhiều chuyên gia AI nổi bật, các nhà nghiên cứu học thuật và các nhóm xã hội dân sự. (Phó Tổng thống Mỹ JD Vance, người dẫn đầu phái đoàn Mỹ, dự kiến sẽ tham dự vào thứ Ba.)
Giữa những lần nhâm nhi pain au chocolat, đây là một số điều tôi quan sát được cho đến nay:
Bối cảnh của hội nghị thượng đỉnh AI lần này là châu Âu — khu vực đã thông qua các đạo luật nghiêm ngặt về quyền riêng tư dữ liệu và mạng xã hội trong thập kỷ qua, đồng thời dẫn đầu trong việc điều chỉnh AI với Đạo luật AI của Liên minh châu Âu — dường như đang có chút do dự.
Ông Macron, người vừa công bố khoản đầu tư tư nhân trị giá 112,5 tỷ USD vào hệ sinh thái AI của Pháp trong tuần này, đặc biệt lo ngại về nguy cơ tụt lại phía sau. Ông đã trở thành một người ủng hộ mạnh mẽ cho Mistral, một công ty khởi nghiệp AI của Pháp, đồng thời lập luận chống lại các quy định mang tính "trừng phạt" có thể khiến ngành công nghệ của Pháp kém cạnh tranh hơn.
Các công ty công nghệ (và các nhóm vận động hành lang của họ) rất hoan nghênh sự hỗ trợ này. Nhưng có lẽ đã quá muộn để ngăn Đạo luật AI có hiệu lực, vì nó dự kiến sẽ được triển khai theo từng giai đoạn trong năm tới. Một số giám đốc điều hành AI Mỹ cũng nói với tôi rằng họ vẫn coi châu Âu là một thị trường khó làm ăn so với các thị trường lớn khác, chẳng hạn như Ấn Độ, nơi các quy định lỏng lẻo hơn.
Hội nghị thượng đỉnh AI tại Paris thực chất là sự kiện thứ 3 trong chuỗi hội nghị AI toàn cầu. Hai sự kiện trước — tổ chức tại Anh năm 2023 và Hàn Quốc năm ngoái — tập trung nhiều hơn vào những rủi ro tiềm ẩn và tác hại của các hệ thống AI tiên tiến, bao gồm cả viễn cảnh tuyệt chủng của loài người.
Nhưng tại Paris, những người bi quan đã bị gạt sang một bên để nhường chỗ cho một viễn cảnh tươi sáng hơn về tiềm năng của công nghệ này. Các diễn giả và khách mời được khuyến khích nói về khả năng thúc đẩy tiến bộ của AI trong các lĩnh vực như y học và khoa học khí hậu, trong khi những cuộc thảo luận u ám hơn về nguy cơ AI kiểm soát con người chủ yếu bị đẩy ra các sự kiện bên lề không chính thức. Một bản dự thảo tuyên bố chung của hội nghị, dự kiến được một số quốc gia tham dự ký kết, đã bị các nhóm an toàn AI chỉ trích vì không đề cập đủ đến các rủi ro thảm khốc.
Phần nào đó, điều này phản ánh quyết định có chủ đích của ông Macron và các cộng sự nhằm nhấn mạnh mặt tích cực của AI. (Một trong số họ, Anne Bouverot, đặc phái viên của hội nghị, đã công khai chỉ trích những "nỗi sợ hãi phóng đại" của những người lo ngại về an toàn AI trong bài phát biểu khai mạc hôm thứ Hai.) Nhưng điều này cũng phản ánh một sự thay đổi lớn hơn trong ngành công nghiệp AI, khi dường như các công ty đang nhận ra rằng dễ thu hút sự ủng hộ của các nhà hoạch định chính sách hơn nếu họ không bị ám ảnh bởi viễn cảnh AI tiêu diệt loài người.
Giống như mọi sự kiện AI khác trong tháng qua, hội nghị thượng đỉnh tại Paris cũng rộn ràng những cuộc thảo luận về DeepSeek, công ty khởi nghiệp AI của Trung Quốc đã gây chấn động thế giới với mô hình suy luận mạnh mẽ, được cho là phát triển với chi phí chỉ bằng một phần nhỏ so với các mô hình hàng đầu của Mỹ.
Ngoài việc khiến các gã khổng lồ AI của Mỹ phải dè chừng, DeepSeek còn mang đến hy vọng mới cho các công ty AI nhỏ hơn ở châu Âu và các khu vực khác, những công ty trước đó đã nghĩ rằng họ không còn cơ hội cạnh tranh. Bằng cách sử dụng các kỹ thuật huấn luyện hiệu quả hơn và những thủ thuật kỹ thuật thông minh để xây dựng mô hình, DeepSeek đã chứng minh rằng không nhất thiết phải có hàng trăm tỷ USD — chỉ cần hàng chục triệu USD cũng có thể theo kịp cuộc đua AI.
“DeepSeek đã cho thấy rằng tất cả các quốc gia đều có thể tham gia vào AI, điều mà trước đây không hề rõ ràng,” Clément Delangue, CEO người Pháp của công ty phát triển AI Hugging Face, nói với tôi.
Giờ đây, ông Delangue nhận xét: “Cả thế giới đang chạy đua để bắt kịp.”
Câu hỏi được bàn tán nhiều nhất trong tuần này là chính quyền Trump sẽ tiếp cận AI như thế nào.
Cho đến nay, chính quyền mới đã có một số động thái, chẳng hạn như bãi bỏ sắc lệnh hành pháp của Nhà Trắng dưới thời Biden — sắc lệnh đặt ra chương trình kiểm tra các mô hình AI mạnh mẽ. Nhưng vẫn chưa có một kế hoạch tổng thể nào cho công nghệ này.
Một số người tại hội nghị hy vọng rằng Elon Musk — một trong những cố vấn hàng đầu của Tổng thống, đồng thời là người vừa điều hành một công ty AI vừa từng bày tỏ lo ngại về nguy cơ AI vượt khỏi tầm kiểm soát — sẽ thuyết phục ông Trump có cách tiếp cận thận trọng hơn.
Những người khác tin rằng các nhà đầu tư mạo hiểm và những người theo trường phái "tăng tốc AI" trong vòng tròn thân cận của ông Trump, chẳng hạn như nhà đầu tư Marc Andreessen, sẽ khuyến khích ông để ngành AI tự do phát triển và xóa bỏ bất kỳ quy định nào có thể kìm hãm nó.
Ông Vance có thể sẽ hé lộ quan điểm của chính quyền Trump trong bài phát biểu tại hội nghị vào thứ Ba. Nhưng không ai ở đây mong đợi sự ổn định trong thời gian tới. (Một giám đốc điều hành AI mô tả chính quyền Trump với tôi là "high variance", một thuật ngữ trong AI có thể hiểu là "hỗn loạn, khó đoán".)
Điều khiến tôi bất ngờ nhất tại hội nghị Paris là các nhà hoạch định chính sách dường như chưa nhận thức được AI mạnh mẽ có thể xuất hiện sớm đến mức nào, hoặc mức độ gián đoạn mà nó có thể gây ra.
Ông Hassabis của Google DeepMind cho biết trong một sự kiện tại văn phòng công ty ở Paris vào Chủ nhật rằng AGI (trí tuệ nhân tạo tổng quát, một hệ thống AI có thể ngang hoặc vượt qua con người trong nhiều lĩnh vực) có thể xuất hiện trong vòng 5 năm tới. (Ông Amodei của Anthropic và ông Altman của OpenAI thậm chí còn dự đoán rằng AGI có thể ra đời sớm hơn, có thể trong vòng 1 đến 2 năm tới.)
Ngay cả khi giảm bớt độ lạc quan trong các dự đoán của các CEO công nghệ, những cuộc thảo luận tôi nghe được ở Paris vẫn thiếu đi sự cấp bách mà lẽ ra phải có, nếu như AI mạnh mẽ thực sự đang ở rất gần.
Các chuyên gia chính sách ở đây nói nhiều về những khái niệm mơ hồ như “hợp tác đa bên” và “khung pháp lý hỗ trợ đổi mới”. Nhưng rất ít người thực sự suy nghĩ nghiêm túc về viễn cảnh AI thông minh hơn con người có thể xuất hiện chỉ trong vài tháng tới, hoặc đặt ra những câu hỏi quan trọng tiếp theo.
Điều đó sẽ có ý nghĩa gì đối với người lao động nếu các trợ lý AI mạnh mẽ có khả năng thay thế hàng triệu công việc văn phòng không còn là một viễn cảnh xa vời, mà đã trở thành thực tế sắp xảy ra? Cần những quy định gì trong một thế giới nơi AI có thể tự cải thiện theo cấp số nhân hoặc thực hiện các cuộc tấn công mạng tự động? Và nếu bạn là người lạc quan về AGI, thì các tổ chức nên chuẩn bị ra sao để đón nhận những tiến bộ nhanh chóng trong các lĩnh vực như nghiên cứu khoa học và phát minh thuốc?
Tôi không có ý chỉ trích các nhà hoạch định chính sách—nhiều người trong số họ đang cố gắng hết sức để theo kịp tốc độ phát triển của AI. Công nghệ và thể chế vận hành ở hai tốc độ khác nhau. Cũng có thể các lãnh đạo ngành công nghiệp đang quá lạc quan trong dự đoán về AGI, hoặc có những trở ngại chưa lường trước sẽ làm chậm quá trình phát triển AI.
Nhưng trong suốt tuần này, khi lắng nghe các nhà hoạch định chính sách thảo luận về cách quản lý những hệ thống AI đã ra mắt nhiều năm trước, bằng những quy định có thể lỗi thời ngay khi vừa được ban hành, tôi nhận ra rằng khoảng cách về tốc độ giữa công nghệ và chính sách thực sự rất lớn.
Đôi khi, cảm giác như đang chứng kiến các nhà hoạch định chính sách cưỡi ngựa cố gắng lắp dây an toàn cho một chiếc Lamborghini đang lao qua.
Tôi cũng không chắc phải làm gì với tình trạng này. Lãnh đạo ngành công nghệ không hề mập mờ hay giấu giếm ý định xây dựng AGI, hay linh cảm của họ rằng điều đó sẽ xảy ra rất sớm. Nhưng nếu hội nghị thượng đỉnh Paris là một dấu hiệu, thì có vẻ đâu đó đang có sự đứt gãy trong việc truyền đạt thông điệp.
Kevin Roose là cây bút chuyên về công nghệ của The New York Times và là người dẫn chương trình podcast Hard Fork.
5 Notes From the Big A.I. Summit in Paris
At times, Kevin Roose writes, it feels like he is watching policymakers on horseback trying to install seatbelts on a passing Lamborghini.
World leaders, tech moguls and assorted hangers-on (including yours truly) are gathered in Paris this week for the Artificial Intelligence Action Summit, a conference co-hosted by Emmanuel Macron, the French president, and Narendra Modi, India’s prime minister, to discuss a host of A.I.-related issues.
The leaders of three American A.I. companies — Sam Altman of OpenAI, Dario Amodei of Anthropic and Demis Hassabis of Google DeepMind — are here, as are a flock of prominent A.I. leaders, academic researchers and civil society groups. (Vice President JD Vance, who is leading the U.S. delegation, is expected to appear on Tuesday.)
Between bites of pain au chocolat, here’s some of what I’m seeing so far:
Europe is having regulation regrets.
The backdrop for the A.I. summit is that Europe — which passed tough laws on data privacy and social media over the last decade, and had a head start on regulating A.I. with the European Union’s A.I. Act — appears to be having second thoughts.
Mr. Macron, who this week announced $112.5 billion in private investments into the French A.I. ecosystem, has been especially wary of falling behind. He has become a cheerleader for Mistral, a French A.I. start-up, and has argued against “punitive” regulation that could make the country’s tech sector less competitive.
Tech companies (and their lobbyists) appreciate the assist. But it’s probably too late to stop the A.I. Act, which is slated to take effect in stages over the next year. And several American A.I. executives told me they still considered Europe a hard place to do business compared with other big markets, such as India, where regulation is comparatively lax.
A.I. doomsayers are losing ground.
The Paris A.I. summit is actually the third in a series of global A.I. summits. The first two — held in Britain in 2023 and in South Korea last year — were much more focused on the potential risks and harms of advanced A.I. systems, up to and including human extinction.
But in Paris, the doomers have been sidelined in favor of a sunnier, more optimistic vision of the technology’s potential. Panelists and speakers were invited to talk up A.I.’s ability to accelerate progress in areas like medicine and climate science, and gloomier talks about A.I. takeover risks were mostly relegated to unofficial side events. And a leaked draft of the official summit statement, which was expected to be signed by some of the attending nations, was panned by A.I. safety groups for paying too little attention to catastrophic risks.
Partly, that reflects a deliberate decision by Mr. Macron and his lieutenants to play up the positive side of A.I. (One of them, Anne Bouverot, a special envoy to the summit, took aim at the “exaggerated fears” of people focused on A.I. safety during her opening remarks on Monday.) But it also reflects a larger shift within the A.I. industry, which seems to be realizing that it’s easier to get policymakers excited about A.I. progress if they’re not worried it’s going to kill them.
DeepSeek has energized the also-rans.
Like all A.I. events over the past month, the Paris summit has been buzzing with conversation about DeepSeek, the Chinese A.I. start-up that stunned the world with its powerful reasoning model, reportedly built for a fraction of the cost of leading American models.
Editors’ Picks
‘Smurfs’ Trailer Shows Rihanna as Smurfette (and Promises New Music)
To Protect Against Alzheimer’s, Researchers Look to Weight Loss Drugs
Is It OK to Read a Newspaper Online When I’ve Stopped Paying for It?
In addition to lighting a fire under America’s A.I. giants, DeepSeek has given new hope to smaller A.I. outfits in Europe and elsewhere that had counted themselves out of the race. By using more efficient training techniques and clever engineering hacks to build their models, DeepSeek proved that you might need only tens of millions of dollars — rather than hundreds of billions of dollars — to keep pace on the A.I. frontier.
“DeepSeek has shown that all countries can be part of A.I., which wasn’t obvious before,” Clément Delangue, the French-born chief executive of Hugging Face, an A.I. development company, told me.
Now, Mr. Delangue said, “the whole world is playing catch-up.”
Trump’s A.I. policy is a question mark.
The most popular guessing game of the week has been what the Trump administration’s posture on A.I. will be.
The new administration has made a few moves on A.I. so far, such as repealing the Biden White House’s executive order that laid out a testing program for powerful A.I. models. But it hasn’t yet laid out a full agenda for the technology.
Some people here are hopeful that Elon Musk — one of the president’s top advisers and a man who both runs an A.I. company and has expressed fears about powerful A.I. run amok — will persuade Mr. Trump to take a more cautious approach.
Others believe that the venture capitalists and so-called A.I. accelerationists in Mr. Trump’s orbit, such as the investor Marc Andreessen, will persuade him to leave the A.I. industry alone and tear up any regulations that could slow it down.
Mr. Vance may tip the administration’s hand on Tuesday, during his summit address. But no one here is expecting stability any time soon. (One A.I. executive characterized the Trump administration to me as “high variance,” which is A.I.-speak for “chaotic.”)
No one is really grappling with short A.I. timelines.
The biggest surprise of the Paris summit, for me, has been that policymakers can’t seem to grasp how soon powerful A.I. systems could arrive, or how disruptive they could be.
Mr. Hassabis, of Google DeepMind, said during an event at the company’s Paris office on Sunday that A.G.I. — artificial general intelligence, an A.I. system that matches or exceeds human abilities across many domains — could arrive within five years. (Mr. Amodei, of Anthropic, and Mr. Altman, of OpenAI, have predicted its arrival even sooner, possibly within the next year or two.)
Even if you apply a discount to the predictions made by tech C.E.O.s, the discussions I’ve heard in Paris have lacked the urgency you’d expect them to have, if powerful A.I. really is around the corner.
The policy wonks here are big on fuzzy concepts like “multi-stakeholder engagement” and “innovation-enabling frameworks.” But few are thinking seriously about what would happen if smarter-than-human A.I. systems were to arrive in a matter of months, or asking the right follow-up questions.
What would it mean for workers if powerful A.I. agents capable of replacing millions of white-collar jobs were not a far-off fantasy but an imminent reality? What kinds of regulations would be necessary in a world where A.I. systems were capable of recursive self-improvement, or carrying out autonomous cyberattacks? And if you’re an A.G.I. optimist, how should institutions get ready for rapid improvements in areas like scientific research and drug discovery?
I don’t mean to pile on the policymakers, many of whom are doing their best to keep pace with A.I. progress. Technology moves at one speed; institutions move at another. And it’s possible that industry leaders are way off in their A.G.I. predictions, or that new obstacles to A.I. improvement will emerge.
But at times this week, listening to policymakers discuss how to govern A.I. systems that are already several years old — using regulations that are likely to be outdated soon after they’re written — I’ve been struck by how different these time scales are. It feels, at times, like watching policymakers on horseback, struggling to install seatbelts on a passing Lamborghini.
I’m not sure what to do about this. It’s not as if industry leaders are being vague or unclear about their intentions to build A.G.I., or their intuition that it’s going to happen very soon. But if the summit in Paris is any indication, something is getting lost in translation.
Kevin Roose is a Times technology columnist and a host of the podcast "Hard Fork." More about Kevin Roose