Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ (NIST) đã cập nhật hướng dẫn cho các nhà khoa học đối tác với Viện An toàn AI Mỹ (AISI), loại bỏ các thuật ngữ "an toàn AI", "AI có trách nhiệm" và "công bằng AI".
Thỏa thuận mới yêu cầu ưu tiên "giảm thiểu thiên kiến ý thức hệ" để thúc đẩy sự phát triển con người và tăng cường khả năng cạnh tranh kinh tế.
Trước đây, thỏa thuận này khuyến khích nhà nghiên cứu phát triển công cụ nhận diện và khắc phục hành vi phân biệt đối xử của mô hình liên quan đến giới tính, chủng tộc, tuổi tác hoặc bất bình đẳng về tài sản.
Thỏa thuận mới cũng loại bỏ việc phát triển công cụ "xác thực nội dung và theo dõi nguồn gốc" cũng như "gắn nhãn nội dung tổng hợp", cho thấy sự quan tâm ít hơn đến việc theo dõi thông tin sai lệch và deepfake.
Thỏa thuận bổ sung nhấn mạnh vào việc đặt nước Mỹ lên hàng đầu, yêu cầu một nhóm làm việc phát triển công cụ kiểm tra "để mở rộng vị thế AI toàn cầu của Mỹ".
Một nhà nghiên cứu ẩn danh bày tỏ lo ngại rằng bỏ qua các vấn đề về an toàn và công bằng có thể gây hại cho người dùng thông thường, cho phép các thuật toán phân biệt đối xử dựa trên thu nhập hoặc yếu tố nhân khẩu học khác.
Elon Musk, người đang dẫn đầu nỗ lực cắt giảm chi tiêu chính phủ cho Trump, thường xuyên chỉ trích các mô hình AI của OpenAI và Google là "thiên kiến" và "thức tỉnh".
Nghiên cứu cho thấy thiên kiến chính trị trong mô hình AI có thể ảnh hưởng đến cả phe tự do và bảo thủ. Ví dụ, nghiên cứu năm 2021 về thuật toán đề xuất của Twitter cho thấy người dùng có nhiều khả năng được hiển thị quan điểm nghiêng về phía hữu.
Nhóm "Bộ Hiệu quả Chính phủ" (DOGE) của Musk đã sa thải nhiều viên chức, tạm dừng chi tiêu, và tạo ra môi trường được cho là thù địch với những người có thể phản đối mục tiêu của chính quyền Trump.
Viện An toàn AI được thành lập bởi sắc lệnh của chính quyền Biden vào tháng 10/2023, nhưng sắc lệnh của Trump vào tháng 1 đã hủy bỏ sắc lệnh của Biden nhưng vẫn giữ Viện An toàn AI.
Phó tổng thống JD Vance tuyên bố tại Hội nghị Hành động AI ở Paris rằng "tương lai AI sẽ không được chiến thắng bằng việc lo lắng về an toàn", nhấn mạnh ưu tiên của chính phủ Mỹ là khả năng cạnh tranh trong cuộc đua phát triển AI.
📌 Dưới thời Trump, chính quyền Mỹ đã chuyển hướng ưu tiên từ an toàn và công bằng AI sang giảm "thiên kiến ý thức hệ" và tăng cường vị thế cạnh tranh của Mỹ. Quyết định này làm dấy lên lo ngại về nguy cơ phát triển AI phân biệt đối xử và thiếu an toàn, đặc biệt với nhóm người thiệt thòi trong xã hội.
https://www.wired.com/story/ai-safety-institute-new-directive-america-first/
Dưới thời Trump, các nhà khoa học AI được yêu cầu loại bỏ ‘định kiến ý thức hệ’ khỏi các mô hình AI mạnh mẽ
Một chỉ thị từ Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) đã loại bỏ các đề cập đến “an toàn AI” và “công bằng AI.”
Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) đã đưa ra các hướng dẫn mới cho các nhà khoa học hợp tác với Viện An toàn Trí tuệ Nhân tạo Hoa Kỳ (AISI). Theo đó, các hướng dẫn này loại bỏ các đề cập đến “an toàn AI,” “AI có trách nhiệm” và “công bằng AI” trong các kỹ năng mà NIST kỳ vọng ở thành viên, đồng thời bổ sung yêu cầu ưu tiên “giảm định kiến ý thức hệ, để thúc đẩy sự phát triển của con người và khả năng cạnh tranh kinh tế.”
Thông tin này xuất hiện trong một thỏa thuận hợp tác nghiên cứu và phát triển được cập nhật dành cho các thành viên trong tập đoàn Viện An toàn AI, được gửi đi vào đầu tháng 3. Trước đó, thỏa thuận này khuyến khích các nhà nghiên cứu đóng góp vào công việc kỹ thuật nhằm xác định và khắc phục hành vi phân biệt đối xử của mô hình liên quan đến giới tính, chủng tộc, độ tuổi hoặc bất bình đẳng giàu nghèo. Những định kiến này vô cùng quan trọng vì chúng có thể ảnh hưởng trực tiếp đến người dùng và gây tổn hại không tương xứng cho các nhóm thiểu số và những người có hoàn cảnh kinh tế khó khăn.
Thỏa thuận mới đã loại bỏ các đề cập đến việc phát triển công cụ “xác thực nội dung và theo dõi nguồn gốc của nó” cũng như “dán nhãn nội dung tổng hợp,” cho thấy sự quan tâm đối với việc theo dõi thông tin sai lệch và deepfake đã giảm sút. Bản cập nhật này cũng nhấn mạnh vào việc đặt nước Mỹ lên hàng đầu, yêu cầu một nhóm làm việc phát triển các công cụ kiểm tra “để mở rộng vị thế toàn cầu của Mỹ trong lĩnh vực AI.”
Nhà nghiên cứu này tin rằng việc phớt lờ các vấn đề đó có thể gây hại cho người dùng thông thường, khi cho phép các thuật toán phân biệt đối xử dựa trên thu nhập hoặc các yếu tố nhân khẩu học khác không bị kiểm soát.
“Trừ khi bạn là một tỷ phú công nghệ, điều này sẽ dẫn đến một tương lai tồi tệ hơn cho bạn và những người bạn quan tâm. Hãy chuẩn bị tinh thần cho việc AI sẽ không công bằng, có tính phân biệt đối xử, không an toàn và được triển khai một cách vô trách nhiệm,” nhà nghiên cứu này cảnh báo.
“Thật điên rồ,” một nhà nghiên cứu khác, người đã từng làm việc với Viện An toàn AI trong quá khứ, nói. “Làm thế nào để con người phát triển thịnh vượng?”
Elon Musk, người hiện đang dẫn đầu nỗ lực cắt giảm chi tiêu và bộ máy quan liêu của chính phủ theo yêu cầu của Tổng thống Trump, đã nhiều lần chỉ trích các mô hình AI do OpenAI và Google phát triển. Tháng 2 năm ngoái, Musk đã đăng một meme trên X (trước đây là Twitter) gọi Gemini của Google và OpenAI là “phân biệt chủng tộc” và “thức tỉnh.”
Ông thường nhắc đến một sự kiện trong đó một trong các mô hình của Google tranh luận về việc liệu có sai không khi xác định sai giới tính của ai đó, ngay cả khi điều đó có thể ngăn chặn một cuộc tấn công hạt nhân — một tình huống cực kỳ khó xảy ra.
Ngoài Tesla và SpaceX, Musk còn điều hành xAI, một công ty AI cạnh tranh trực tiếp với OpenAI và Google. Một nhà nghiên cứu cố vấn cho xAI gần đây đã phát triển một kỹ thuật mới có khả năng thay đổi khuynh hướng chính trị của các mô hình ngôn ngữ lớn, theo WIRED.
Một số nghiên cứu cho thấy rằng định kiến chính trị trong các mô hình AI có thể ảnh hưởng đến cả những người theo khuynh hướng tự do và bảo thủ. Ví dụ, một nghiên cứu về thuật toán gợi ý của Twitter được công bố vào năm 2021 cho thấy người dùng có nhiều khả năng được hiển thị các quan điểm thiên hữu hơn trên nền tảng này.
Kể từ tháng 1, cái gọi là Bộ phận Hiệu quả Chính phủ (DOGE) của Musk đã tiến hành sa thải hàng loạt nhân viên chính phủ, tạm dừng các khoản chi tiêu và tạo ra một môi trường được cho là thù địch đối với những người có thể phản đối các mục tiêu của chính quyền Trump.
Một số cơ quan chính phủ, chẳng hạn như Bộ Giáo dục, đã lưu trữ và xóa các tài liệu đề cập đến Đa dạng, Công bằng và Hòa nhập (DEI). DOGE cũng đã nhắm vào NIST, tổ chức mẹ của Viện An toàn AI, trong vài tuần gần đây. Hàng chục nhân viên đã bị sa thải.
“Những thay đổi này rõ ràng đến từ Nhà Trắng,” Stella Biderman, giám đốc điều hành của Eleuther, một tổ chức phi lợi nhuận hợp tác với Viện An toàn AI, cho biết.
“Chính quyền đã nêu rõ các ưu tiên của mình, và tôi không ngạc nhiên khi kế hoạch bị viết lại là điều cần thiết để tiếp tục tồn tại.”
Tháng 12 năm ngoái, Trump đã bổ nhiệm David Sacks, một người thân cận lâu năm của Musk, làm "người đứng đầu về AI và tiền điện tử" tại Nhà Trắng. Hiện vẫn chưa rõ liệu ông Sacks hoặc ai đó từ Nhà Trắng có tham gia vào việc thiết lập chương trình nghiên cứu mới hay không.
Viện An toàn AI được thành lập theo sắc lệnh hành pháp do chính quyền Biden ban hành vào tháng 10 năm 2023, trong bối cảnh có nhiều lo ngại về tiến bộ nhanh chóng của AI.
Dưới thời Biden, viện này có nhiệm vụ giải quyết một loạt các vấn đề tiềm ẩn với các mô hình AI mạnh mẽ nhất, chẳng hạn như liệu chúng có thể được sử dụng để tiến hành các cuộc tấn công mạng hoặc phát triển vũ khí hóa học, sinh học hay không.
Sắc lệnh hành pháp của chính quyền Trump vào tháng 1 năm nay đã thu hồi sắc lệnh của Biden nhưng vẫn giữ lại Viện An toàn AI.
“Để duy trì vị thế dẫn đầu này, chúng ta phải phát triển các hệ thống AI không có định kiến ý thức hệ hoặc các chương trình nghị sự xã hội được sắp đặt,” sắc lệnh tuyên bố.
Phát biểu tại Hội nghị Hành động AI ở Paris vào tháng 2, Phó Tổng thống JD Vance cho biết chính phủ Mỹ sẽ ưu tiên khả năng cạnh tranh của Mỹ trong cuộc đua phát triển AI.
“Tương lai của AI sẽ không được quyết định bằng cách lo lắng về an toàn,” Vance nói với các đại biểu từ khắp nơi trên thế giới.
Under Trump, AI Scientists Are Told to Remove ‘Ideological Bias’ From Powerful Models
A directive from the National Institute of Standards and Technology eliminates mention of “AI safety” and “AI fairness.”
Image may contain Donald Trump People Person Electrical Device Microphone Crowd Face Head
The National Institute of Standards and Technology (NIST) has issued new instructions to scientists that partner with the US Artificial Intelligence Safety Institute (AISI) that eliminate mention of “AI safety,” “responsible AI,” and “AI fairness” in the skills it expects of members and introduces a request to prioritize “reducing ideological bias, to enable human flourishing and economic competitiveness.”
The information comes as part of an updated cooperative research and development agreement for AI Safety Institute consortium members, sent in early March. Previously, that agreement encouraged researchers to contribute technical work that could help identify and fix discriminatory model behavior related to gender, race, age, or wealth inequality. Such biases are hugely important because they can directly affect end users and disproportionately harm minorities and economically disadvantaged groups.
The new agreement removes mention of developing tools “for authenticating content and tracking its provenance” as well as “labeling synthetic content,” signaling less interest in tracking misinformation and deep fakes. It also adds emphasis on putting America first, asking one working group to develop testing tools “to expand America’s global AI position.”
Featured Video
“The Trump administration has removed safety, fairness, misinformation, and responsibility as things it values for AI, which I think speaks for itself,” says one researcher at an organization working with the AI Safety Institute, who asked not to be named for fear of reprisal.
The researcher believes that ignoring these issues could harm regular users by possibly allowing algorithms that discriminate based on income or other demographics to go unchecked. “Unless you're a tech billionaire, this is going to lead to a worse future for you and the people you care about. Expect AI to be unfair, discriminatory, unsafe, and deployed irresponsibly,” the researcher claims.
“It’s wild,” says another researcher who has worked with the AI Safety Institute in the past. “What does it even mean for humans to flourish?”
Elon Musk, who is currently leading a controversial effort to slash government spending and bureaucracy on behalf of President Trump, has criticized AI models built by OpenAI and Google. Last February, he posted a meme on X in which Gemini and OpenAI were labeled “racist” and “woke.” He often cites an incident where one of Google’s models debated whether it would be wrong to misgender someone even if it would prevent a nuclear apocalypse—a highly unlikely scenario. Besides Tesla and SpaceX, Musk runs xAI, an AI company that competes directly with OpenAI and Google. A researcher who advises xAI recently developed a novel technique for possibly altering the political leanings of large language models, as reported by WIRED.
A growing body of research shows that political bias in AI models can impact both liberals and conservatives. For example, a study of Twitter’s recommendation algorithm published in 2021 showed that users were more likely to be shown right-leaning perspectives on the platform.
Since January, Musk’s so-called Department of Government Efficiency (DOGE) has been sweeping through the US government, effectively firing civil servants, pausing spending, and creating an environment thought to be hostile to those who might oppose the Trump administration’s aims. Some government departments such as the Department of Education have archived and deleted documents that mention DEI. DOGE has also targeted NIST, the parent organization of AISI, in recent weeks. Dozens of employees have been fired.
Are you a current or former government employee who wants to talk about what's happening? We'd like to hear from you. Using a nonwork phone or computer, contact the reporter securely on Signal at wak.01.
“Those changes are pretty much coming straight from the White House,” says Stella Biderman, executive director of Eleuther, a nonprofit working with the AI Safety Institute. “The administration has made its priorities clear, [and] it isn't surprising to me that rewriting the plan was necessary to continue to exist.”
In December, Trump named David Sacks, a longtime Musk associate, as the White House AI and crypto czar. It is currently unclear whether he or anyone from the White House was involved in setting the new research agenda. It is also uncertain whether the new wording will have much impact on the work most researchers are doing.
The AI Safety Institute was created by an executive order issued by the Biden administration in October 2023, at a time of heightened concern over rapid progress in AI.
Under Biden, the institute was tasked with tackling a range of potential problems with the most powerful AI models, such as whether they could be used to launch cyberattacks or develop chemical or biological weapons. Part of its remit was to determine whether models could become deceptive and dangerous as they advance.
An executive order issued by the Trump administration this January revoked Biden’s order but kept the AI Safety Institute in place. “To maintain this leadership, we must develop AI systems that are free from ideological bias or engineered social agendas,” the executive order states.
Speaking at the AI Action Summit in Paris in February, vice president JD Vance said that the US government will prioritize American competitiveness in the race to develop and benefit from AI. “The AI future is not going to be won by hand-wringing about safety,” Vance told attendees from around the world. The US delegation to the event did not include anyone from the AI Safety Institute.
The researcher who warned that the change in focus could make AI more unfair and unsafe also alleges that many AI researchers have cozied up to Republicans and their backers in an effort to still have a seat at the table when it comes to discussing AI safety. “I hope they start realizing that these people and their corporate backers are face-eating leopards who only care about power,” the researcher says.
The White House did not immediately respond to a request for comment from WIRED.