Các gã khổng lồ AI đang bỏ rơi an toàn để chạy đua với Trung Quốc?

  • Các công ty AI lớn đang thay đổi cách tiếp cận về an toàn AI dưới chính quyền Trump, ưu tiên tốc độ phát triển hơn là thận trọng.

  • Sam Altman, CEO của OpenAI, thường xuyên thừa nhận AI có thể khó kiểm soát và có thể gây ra nhiều tác động tiêu cực, nhưng vẫn đang đua để phát triển nó nhanh nhất có thể.

  • Chính quyền Trump đã hủy bỏ sắc lệnh hành pháp về AI của Biden trong tuần đầu tiên nhậm chức và yêu cầu các công ty AI đóng góp ý kiến cho chính sách mới.

  • Trong các đệ trình lên Nhà Trắng, OpenAI, Meta và Google gần như đồng thanh: Hoa Kỳ cần giúp các công ty AI của mình phát triển nhanh hơn để vượt qua Trung Quốc.

  • Các công ty này cũng yêu cầu các bang không nên áp đặt quy định manh mún và Nhà Trắng nên xóa bỏ những bất ổn về bản quyền, cho phép họ huấn luyện mô hình trên bất kỳ dữ liệu công khai nào.

  • Phó tổng thống JD Vance tuyên bố tại hội nghị AI ở Paris rằng "tương lai AI sẽ không thuộc về những người lo lắng về an toàn".

  • Nghiên cứu từ Media Lab của MIT cho thấy việc sử dụng chatbot AI nhiều hơn có mối tương quan chặt chẽ với "cảm giác cô đơn cao hơn, phụ thuộc... sử dụng có vấn đề và giảm khả năng hòa nhập xã hội".

  • Sự nổi lên của DeepSeek (Trung Quốc) làm tăng khả năng công ty đầu tiên đạt được trí tuệ nhân tạo tổng quát (AGI) có thể không hoạt động tại quốc gia có các giá trị dân chủ.

  • Thuật ngữ "an toàn" đang dần được thay thế bằng "an ninh" trong ngành AI, với sự tập trung vào cách các hệ thống này có thể bị sử dụng bởi đối thủ trong chiến tranh, gián điệp hoặc khủng bố.

  • Mike Krieger, giám đốc sản phẩm tại Anthropic, cho biết công ty cố gắng tham gia nhiều cuộc đối thoại nhất có thể để "giúp định hình chính sách theo cách sẽ dẫn đến kết quả tốt mà không kìm hãm đổi mới".

  • Elon Musk từng ủng hộ việc tạm dừng phát triển AI nhưng vài tháng sau đã thành lập công ty AI riêng, xAI, phát triển các mô hình mạnh mẽ và nhanh chóng huy động được 12 tỷ USD.

  • Các phòng thí nghiệm AI hàng đầu như Google, OpenAI và Anthropic đều có truyền thống về an toàn, nhưng câu hỏi đặt ra là liệu việc tự đánh giá của họ có đủ hay không.

  • Mặc dù nỗ lực của châu Âu, những tác động xã hội và con người của công nghệ AI dường như đã bị giảm ưu tiên trước áp lực cạnh tranh toàn cầu.

  • Các công ty khởi nghiệp AI thường cảnh báo về chi phí tuân thủ và cách nó có thể cản trở đổi mới, đặc biệt là ở các quốc gia có chế độ quy định nghiêm ngặt nhất.

📌 Dưới chính quyền Trump, các công ty AI đang chuyển từ ưu tiên an toàn sang tốc độ phát triển để cạnh tranh với Trung Quốc. Nghiên cứu từ MIT cho thấy việc sử dụng chatbot AI nhiều hơn liên quan đến cô đơn và phụ thuộc cao hơn, đặt ra câu hỏi về tác động xã hội của công nghệ này.

 

https://www.ft.com/content/36b522d4-7ea2-42bc-8573-84f68c3a4323

#FT

Các công ty AI có thực sự quan tâm đến an toàn?

Hay họ chỉ đang lừa chúng ta nghĩ rằng họ đang bảo vệ lợi ích của chúng ta?

 

Chính quyền Trump vừa thăm dò ngành công nghiệp AI về những gì họ mong muốn từ chính sách của Mỹ dưới thời chính quyền mới của ông © FT montage/Getty Images


Richard Waters
Xuất bản: hôm qua
Tiến độ hiện tại: 65%

Bài viết này là phiên bản trên trang web của bản tin Swamp Notes. Người đăng ký cao cấp có thể đăng ký tại đây để nhận bản tin vào mỗi thứ Hai và thứ Sáu. Người đăng ký tiêu chuẩn có thể nâng cấp lên Cao cấp tại đây, hoặc khám phá tất cả các bản tin FT.

Tôi luôn thắc mắc về cách Sam Altman, người đứng đầu OpenAI, nói về những gì sẽ xảy ra nếu và khi trí tuệ nhân tạo bắt kịp hoặc vượt qua trí thông minh của con người.

Anh ấy thừa nhận rằng AI sẽ khó kiểm soát, đi kèm với đủ loại tác dụng phụ không mong muốn và - có thể - gây ra sự sụp đổ của nền văn minh. Và sau đó anh ấy nói công ty của anh ấy đang chạy đua để xây dựng nó nhanh nhất có thể.

Anh ấy có thực sự coi trọng các vấn đề an toàn, hay chỉ đang cố gắng kiếm được sự chấp thuận miễn phí bằng cách lừa chúng ta nghĩ rằng anh ấy thực sự là một công dân có trách nhiệm đang bảo vệ lợi ích của chúng ta?

Tôi đoán bây giờ chúng ta đã biết. Chính quyền Trump vừa thăm dò ngành công nghiệp AI về những gì họ mong muốn từ chính sách của Mỹ dưới thời chính quyền mới của ông. Phản hồi: đã đến lúc Washington dọn đường cho ngành này để có thể tiến nhanh hơn, bất chấp các quy định.

Nếu bạn đang tìm kiếm bằng chứng về cách Silicon Valley đã thay đổi theo chiều gió chính trị, bạn sẽ khó tìm được điều gì khác rõ ràng như thế này.

Dưới thời chính quyền trước, các công ty AI lớn nhất đã giảng về sự thận trọng - ít nhất là trước công chúng. Họ thậm chí đồng ý để các mô hình mạnh mẽ nhất của mình được kiểm tra bên ngoài trước khi tung ra cho tất cả chúng ta. Nhà Trắng dưới thời Biden xem đây là bước đầu tiên có thể cuối cùng dẫn đến việc chính phủ thẩm định và cấp phép đầy đủ cho AI tiên tiến.

Mơ đi. Donald Trump đã hủy bỏ sắc lệnh hành pháp của Biden về AI ngay trong tuần đầu tiên khi trở lại văn phòng. Sau đó chính quyền của ông đã kêu gọi góp ý để giúp định hình chính sách AI mới - một trường hợp điển hình của việc bắn trước, hỏi sau.

Trong các bài đệ trình lên Nhà Trắng, các công ty như OpenAI, Meta và Google gần như đồng thanh: Mỹ cần giúp các công ty AI của mình tiến nhanh hơn nếu muốn vượt qua Trung Quốc; các bang của Mỹ không nên ràng buộc các gã khổng lồ công nghệ bằng các quy định manh mún (vì chính phủ liên bang đã ngủ quên trong vấn đề quy định công nghệ trong nhiều năm, điều đó sẽ loại trừ hầu hết mọi hạn chế); Nhà Trắng nên chấm dứt những bất ổn về bản quyền và tuyên bố rằng các công ty có quyền đào tạo các mô hình của họ trên bất kỳ dữ liệu nào có trong lĩnh vực công.

An toàn? Các công ty đã phần lớn xóa từ đó khỏi từ vựng của họ. Điều này có lẽ là khôn ngoan: Tất cả họ hẳn đã nghe tuyên bố của phó tổng thống JD Vance, tại hội nghị thượng đỉnh AI gần đây ở Paris, rằng "tương lai AI sẽ không thuộc về những người đắn đo về an toàn".

Tôi chưa bao giờ nghi ngờ rằng cuộc đua AI chỉ đơn thuần là một cuộc đua. Nhiều công ty tham gia là những cựu binh của các trận chiến công nghệ khác mà người thắng cuộc giành hết. Họ luôn có những cách đơn giản và tư lợi để đánh giá liệu những gì họ đang làm có vì lợi ích công cộng hay không: Nếu mọi người nhấp vào một thứ gì đó, thì họ hẳn muốn nhiều hơn thế. Đó là vòng phản hồi nhanh chóng đã tạo ra các thuật toán nuôi dưỡng sự bùng nổ của mạng xã hội. Có gì không ổn?

Nhưng, sau tất cả những bằng chứng về tác hại do mạng xã hội gây ra, bạn sẽ nghĩ rằng các công ty muốn biết AI của họ ảnh hưởng đến thế giới như thế nào trước khi vội vàng cung cấp cho chúng ta nhiều hơn. Bằng chứng chỉ mới bắt đầu rò rỉ, và - không có gì ngạc nhiên - nó không khuyến khích.

Phòng thí nghiệm Truyền thông MIT gần đây đã nghiên cứu những người sử dụng chatbot AI và phát hiện ra rằng việc sử dụng nhiều hơn tương quan chặt chẽ với "sự cô đơn cao hơn, sự phụ thuộc... sử dụng có vấn đề và xã hội hóa thấp hơn". Chúng ta có phải học lại bài học rằng công nghệ thu hút chúng ta có thể không mang lại lợi ích? Có vẻ như vậy.

Nếu bạn cảm thấy đặc biệt hào phóng, tôi cho rằng bạn có thể cố gắng lập luận rằng các công ty công nghệ chỉ đang điều chỉnh thế giới của họ để đưa cho Trump những gì ông ấy muốn nghe. Có lẽ họ vẫn tận tâm với an toàn và chỉ giữ im lặng về điều đó trong lúc này. Nhưng tôi nghĩ sẽ cần sự hào phóng tinh thần bất thường để đi đến kết luận đó.

Cristina, với tư cách là phóng viên công nghệ ở San Francisco, bạn tiếp xúc với các công ty AI này. Bạn có nghĩ họ vẫn nghiêm túc về an toàn AI nữa không, hay họ đã vứt bỏ tất cả điều đó trong cuộc đua trở thành người đầu tiên đạt được trí tuệ nhân tạo tổng quát (AGI)? Sự thay đổi này chỉ phản ánh tâm trạng mới ở Washington, và yêu cầu của Nhà Trắng dưới thời Trump về việc thể hiện sự thống trị của Mỹ? Hay chúng ta đang thấy các công ty công nghệ bây giờ với bộ mặt thật của họ?

 

Cristina Criddle trả lời

Các nhà phát triển AI hàng đầu có nguồn gốc sâu sắc trong an toàn: Google, nổi tiếng với câu thần chú "đừng làm điều xấu"; sứ mệnh của OpenAI là đảm bảo rằng AI mang lại lợi ích cho nhân loại; và các cựu nhân viên OpenAI đã thành lập Anthropic để tập trung vào AI có trách nhiệm.

Các phòng thí nghiệm này đã tiến hành các bài kiểm tra nội bộ nghiêm ngặt và xuất bản các bài báo học thuật và báo cáo hệ thống đưa ra các rủi ro nhận thấy từ mỗi mô hình, xếp hạng chúng theo mức độ nguy hiểm. Không có gợi ý rằng các thủ tục này sẽ thay đổi, nhưng tùy thuộc vào các nhà làm luật và công chúng quyết định liệu các công ty này tự chấm điểm bài tập của mình có đủ tốt hay không.

Ngoài ra, sự trỗi dậy của DeepSeek đã làm tăng khả năng công ty đầu tiên đạt được AGI có thể không hoạt động ở một quốc gia có giá trị và chuẩn mực dân chủ.

Với Trung Quốc đe dọa thống trị và chính quyền Trump mới kiên quyết ngăn chặn AI "woke", đã có sự chuyển hướng từ "an toàn" sang một thuật ngữ nóng hơn: "an ninh". Viện An toàn AI của chính phủ Anh đã đổi tên thành Viện An ninh AI vào tháng 2. Các chính phủ và nhà nghiên cứu đang tập trung vào cách các hệ thống này có thể được sử dụng bởi các đối thủ trong chiến tranh tiềm năng, gián điệp hoặc khủng bố.

Bất chấp nỗ lực của châu Âu, những tác động xã hội và con người của công nghệ này dường như đã bị giảm ưu tiên. Các công ty khởi nghiệp AI thường cảnh báo về chi phí tuân thủ và cách nó có thể cản trở đổi mới, đặc biệt là ở các quốc gia có chế độ quy định nghiêm ngặt nhất.

Khi tôi hỏi Mike Krieger, giám đốc sản phẩm của Anthropic, về cách tiếp cận tốt nhất đối với an toàn dưới thời chính phủ hiện tại, anh ấy nói công ty cố gắng tham gia vào càng nhiều cuộc trò chuyện càng tốt.

"Chúng tôi không ở đó để làm chính trị, nhưng chúng tôi ở đó để giúp định hình chính sách theo cách mà chúng tôi nghĩ sẽ dẫn đến kết quả tốt mà không làm nghẹt sự đổi mới; luôn có sự cân bằng đó," anh ấy nói.

Là đồng sáng lập và cựu giám đốc công nghệ của Instagram, Krieger quá quen thuộc với cách mạng xã hội có thể ảnh hưởng đến nền dân chủ và sự hạnh phúc của người dùng. Mặc dù nhiều so sánh đã được đưa ra giữa các rủi ro của mạng xã hội và AI, chúng ta vẫn chưa có nhiều quy định hoặc giải pháp có ý nghĩa cho vấn đề trước. Vậy chúng ta có thể hy vọng bao nhiêu cho vấn đề sau?

Có thể nói, các mối đe dọa do trí tuệ nhân tạo đặt ra còn quan trọng hơn nhiều, và tốc độ phát triển rất nhanh. Khi ChatGPT ra mắt, chúng ta đã thấy sự lo ngại rộng rãi từ các nhà lãnh đạo trong lĩnh vực này, trích dẫn những rủi ro hiện hữu và kêu gọi tạm dừng các hệ thống AI mạnh mẽ.

Elon Musk đã ủng hộ việc tạm dừng phát triển và tuy nhiên vài tháng sau đã khởi động công ty khởi nghiệp AI của riêng mình, xAI, phát triển các mô hình mạnh mẽ, nhanh chóng huy động được 12 tỷ USD. Thái độ di chuyển nhanh của Silicon Valley mạnh hơn bao giờ hết, nhưng nó đã trưởng thành để làm như vậy mà không phá vỡ mọi thứ?

 

Do AI companies really care about safety?

Or are they kidding us into thinking they are looking out for our interests?

 
 
I’ve always been puzzled by the way Sam Altman, the head of OpenAI, talks about what will happen if and when artificial intelligence catches up with or surpasses human intelligence.
He admits it will be hard to control, come with all kinds of unpleasant side effects and — just possibly — cause civilisational collapse. And then he says his company is racing to build it as quickly as possible.
Does he take the safety issues seriously, or is he just trying to earn a free pass by kidding us into thinking he really is a responsible citizen looking out for our interests?
I guess now we know. The Trump administration has just canvassed the AI industry on what it would like from US policy under his new administration. The response: it’s time for Washington to clear the way for the sector so it can move much faster, regulations be damned.
If you were looking for evidence of how Silicon Valley has shifted with the political winds, you’d be hard pressed to find anything else as stark as this.
Under the previous administration, the biggest AI companies preached caution — at least in public. They even agreed to subject their most powerful models to external testing before unleashing them on the rest of us. The Biden White House saw this as a first step that might eventually lead to full government vetting and licensing of advanced AI.
Dream on. Donald Trump ripped up Biden’s executive order on AI during his very first week back in office. Then his administration called for comments to help it shape a new AI policy — a classic case of shoot first, ask questions later.
In their submissions to the White House, companies such as OpenAI, Meta and Google have been nearly unanimous: The US needs to help its AI companies move faster if it hopes to outpace China; US states shouldn’t tie down the tech giants with piecemeal regulations (since the federal government has been asleep at the wheel on tech regulation for years, that would pretty much rule out any restrictions); The White House should end uncertainties over copyright and declare that the companies are within their rights to train their models on any data that’s in the public domain.
Safety? The companies have largely scrubbed that word from their vocabulary. This is probably wise: They would all have heard vice-president JD Vance’s declaration, at a recent AI summit in Paris, that the “AI future will not be won by hand-wringing over safety”.
I never doubted that the AI race was just that: a race. Many of the companies involved are veterans of other winner-take-all tech battles. They have always had simplistic and self-serving ways to judge whether what they are doing is in the public interest: If people click on something, then they must want more of it. That’s the rapid feedback loop that gave us the algorithms that fed the social media boom. What’s not to like?
But, after all the evidence of harm caused by social media, you’d think that companies would want to know how their AI is affection the world before rushing to give us more of it. The evidence is only starting to trickle, and — surprise, surprise — it isn’t encouraging.
MIT’s Media Lab recently studied people who use AI chatbots and found that heavier use correlated closely with “higher loneliness, dependence . . . problematic use and lower socialization”. Do we have to learn the lesson all over again that the technology that captivates us may not be doing us good? It seems we do.
If you were feeling particularly generous, I suppose you could try to make the case that the tech companies are only tailoring their worlds to give Trump what he wants to hear. Maybe they’re still dedicated to safety and just keeping that quiet for now. But I think it would take unusual generosity of spirit to reach that conclusion.
Cristina, as a technology correspondent in San Francisco, you deal with these AI companies. Do you think they’re serious any more about AI safety, or have they thrown all that overboard in the rush to be first to artificial general intelligence (AGI)? Is this pivot just a reflection of the new mood in Washington, and the Trump White House’s demand for displays of American dominance? Or are we seeing the tech companies now in their true colours? 

Cristina Criddle responds

The leading AI developers have deep roots in safety: Google, known for its “don’t be evil” mantra; OpenAI’s mission to ensure that AI benefits humanity; and former OpenAI employees founded Anthropic to focus on responsible AI.
These labs already conduct stringent internal tests and publish academic papers and system report cards laying out the perceived risks from each model, ranking them for their dangers. There is no suggestion that these procedures will change, but it is up to lawmakers and the public to decide whether these companies marking their own homework is good enough.
Plus, the rise of DeepSeek has raised the probability that the first company to reach AGI may not be operating in a country with democratic values and norms.
With China threatening dominance and the new Trump administration adamant about preventing “woke” AI, there has been a pivot from “safety”, to a hotter term: “security”. The UK government’s own AI Safety Institute rebranded to AI Security Institute in February. Governments and researchers are focused how these systems might be used by adversaries in potential warfare, espionage or terrorism.
Despite Europe’s efforts, the societal and human implications of this technology appear to have been deprioritised. AI start-ups often warn about the costs of compliance and how it might hamper innovation, especially in the countries with the strictest regulatory regimes. 
When I asked Mike Krieger, chief product officer at Anthropic, about the best approach to safety under the current government, he said the company tries to be as involved in as many conversations as possible.
“We are not in there to do politics, but we are in there to help shape policy in a way that we think will lead to good outcomes without stifling innovation; there is always that balance,” he said.
As Instagram’s co-founder and former chief technology officer, Krieger is all too familiar with how social media may impact democracy and the wellbeing of its users. While a lot of parallels have been drawn between the risks of social media and AI, we still do not have much meaningful regulation or solutions on the former. So how much hope can we have for the latter?
Arguably, the threats posed by artificial intelligence are far more significant, and the pace of development is rapid. When ChatGPT launched, we saw widespread concern from leaders in the field, citing existential risks and calling for a moratorium on powerful AI systems.
Elon Musk supported a pause in development and yet months later bootstrapped his own AI start-up, xAI, developing powerful models, swiftly raising $12bn. The move-fast attitude of Silicon Valley is stronger than ever, but has it matured to do so without breaking things?

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo