Cách quản trị AI hiệu quả: tập trung vào điểm tiếp xúc với thế giới thực thay vì kiểm soát từng mô hình

* AI tiến triển không ngừng, mang đến tiềm năng lớn và rủi ro sâu sắc, đặt ra thách thức về cách thúc đẩy đổi mới AI đồng thời quản lý hiệu quả những rủi ro này.

* Tư duy hiện tại về quy định AI chủ yếu nhấn mạnh việc quản trị chính các mô hình, như dự luật an toàn AI của California (đã bị phủ quyết) đòi hỏi người phát triển chịu trách nhiệm về việc sử dụng sai hệ thống.

* Alan Turing đã chứng minh về mặt toán học gần một thế kỷ trước rằng không có cách tiếp cận nào đảm bảo tính đúng đắn của bất kỳ chương trình đủ phức tạp nào, và sự ra đời của DeepSeek từ Trung Quốc cho thấy các mô hình nguồn mở đang phát triển vượt khỏi mọi quản trị.

* Lịch sử cung cấp bài học: cuộc bùng nổ đường sắt thế kỷ 19 đạt được an toàn không phải bằng cách quy định từng đoàn tàu mà bằng cách quản lý các giao lộ đường ray - nơi thường xảy ra tai nạn.

* Thị trường tài chính áp dụng cách tiếp cận tương tự: SEC không hạn chế hoạt động nội bộ của các nhà giao dịch mà nhấn mạnh các điểm tiếp xúc với thị trường, yêu cầu kiểm tra vốn trước khi thuật toán đưa lệnh vào thị trường chứng khoán.

* Điều tương tự, Fed không quản lý chi tiết ngân hàng mà yêu cầu họ mô phỏng dòng tiền, báo cáo thu nhập và bảng cân đối trong 9 quý tới, chứng minh đủ vốn trong các tình huống bất lợi.

* Tác giả đề xuất áp dụng logic này cho AI: các nhà hoạch định chính sách nên chuyển sự chú ý đến các giao diện mà AI kết nối với cơ sở hạ tầng quan trọng, thị trường tài chính, y tế.

* Các tiêu chuẩn cần phải linh hoạt để đáp ứng độ phức tạp và rủi ro của hệ thống AI, với ngưỡng động phản ánh xác suất và mức độ nghiêm trọng của tương tác tiêu cực.

* Quản trị cũng phải điều chỉnh động cơ doanh nghiệp phù hợp với an toàn công cộng thông qua quản trị hợp tác, giao tiếp cởi mở, và các cơ chế như phạt tiền.

* Đạo luật AI của EU đưa ra một số ý tưởng cho các tiêu chuẩn cấp giao diện bằng cách thực hiện quản trị dựa trên mức độ rủi ro, nhưng còn nhiều câu hỏi chưa được giải đáp.

* Mỹ có cơ hội dẫn đầu trong việc thiết lập tiêu chuẩn AI toàn cầu, nhưng phải hành động nhanh chóng để duy trì tính cạnh tranh.

* Cần có quan hệ đối tác công-tư để xây dựng khung linh hoạt, có tầm nhìn xa và khả năng phục hồi, đảm bảo công nghệ phát triển từ nước ngoài tuân thủ tiêu chuẩn an toàn trong nước.

📌 Cách tiếp cận quản trị AI nên tập trung vào giao diện hệ thống thay vì mô hình nội tại, lấy cảm hứng từ quản lý đường sắt và thị trường tài chính. Phương pháp này đảm bảo an toàn và đổi mới, thiết lập tiêu chuẩn kiểm tra và chứng nhận tại điểm tiếp xúc với thế giới thực.

 

https://www.economist.com/by-invitation/2025/04/10/to-keep-on-top-of-ai-focus-on-the-points-where-it-touches-the-outside-world-writes-martin-chavez

 

Để theo kịp AI, hãy tập trung vào các điểm tiếp xúc với thế giới bên ngoài

Giám đốc Alphabet Martin Chavez đề xuất lấy cảm hứng từ cách quản lý thị trường tài chính và đường sắt

Minh họa: Dan Williams
10/04/2025

Trí tuệ nhân tạo phát triển không ngừng, mang đến cả tiềm năng to lớn lẫn những rủi ro sâu sắc. Làm thế nào chúng ta thúc đẩy đổi mới AI đồng thời quản lý hiệu quả những rủi ro đó?

Tư duy hiện tại về cách quản lý AI phần lớn nhấn mạnh việc quản trị các mô hình. Ví dụ, Dự luật An toàn AI của California (hiện đã bị phủ quyết) đã buộc các nhà phát triển chịu trách nhiệm về việc sử dụng sai hệ thống và yêu cầu có "công tắc khẩn cấp". Việc phát triển hệ thống AI an toàn, đạo đức và hiệu quả đòi hỏi các tiêu chuẩn và kiểm nghiệm. Như với bất kỳ công cụ nào, chúng ta cần hướng dẫn về tiêu chuẩn chấp nhận được.

Nhưng như Alan Turing đã chứng minh về mặt toán học gần một thế kỷ trước, không có phương pháp nào đảm bảo tính đúng đắn của bất kỳ chương trình đủ phức tạp nào. Hơn nữa, sự ra đời của DeepSeek từ Trung Quốc cho thấy thế giới đã đến điểm mà các mô hình mã nguồn mở lan rộng ngoài tầm quản trị.

Quản trị phải bắt đầu với phương pháp thực tế giải quyết các giao điểm nơi những mô hình này tương tác và ảnh hưởng đến thế giới bên ngoài.

Lịch sử cung cấp bài học. Hãy xem xét sự bùng nổ đường sắt thế kỷ 19. Xã hội đạt được an toàn không phải bằng cách quản lý từng đoàn tàu, mà bằng cách quản lý các giao cắt đường ray - nơi tai nạn thường xảy ra nhất.

Thị trường tài chính đã áp dụng phương pháp này gần đây hơn. Quy tắc Tiếp cận Thị trường của Ủy ban Chứng khoán và Giao dịch không hạn chế hoạt động nội bộ của các nhà giao dịch. Thay vào đó, cơ quan quản lý nhấn mạnh các điểm tiếp xúc với thị trường, yêu cầu kiểm tra vốn đầy đủ trước khi thuật toán đưa ra mỗi lệnh vào thị trường chứng khoán. Tương tự, Cục Dự trữ Liên bang không can thiệp sâu vào các ngân hàng. Thay vào đó, họ yêu cầu các ngân hàng mô phỏng dòng tiền, báo cáo thu nhập và bảng cân đối trong chín quý tới, chứng minh đủ vốn để cho vay và tạo thị trường trong những kịch bản bất lợi nghiêm trọng do cơ quan quản lý lựa chọn. Trong mỗi trường hợp, việc quản lý các điểm tương tác hiệu quả hơn là cố gắng kiểm soát sự phức tạp bên trong của từng hệ thống.

Áp dụng logic tương tự cho AI. Các nhà hoạch định chính sách và cơ quan quản lý phải chuyển sự chú ý đến các giao diện mà qua đó hệ thống và đại lý AI kết nối với cơ sở hạ tầng quan trọng, thị trường tài chính, chăm sóc sức khỏe và các lĩnh vực nhạy cảm khác. Họ nên thiết kế và đặt ra tiêu chuẩn rõ ràng, có thể kiểm tra về cách hệ thống AI tương tác với thế giới thực, bao gồm kiểm tra áp lực, dấu vết kiểm toán, chứng nhận và xác nhận. Chúng ta muốn càng ít quy định càng tốt, và không ít hơn.

Tất nhiên, với rất nhiều ứng dụng tiềm năng, không có phương pháp đơn lẻ nào xử lý được mọi rủi ro. Ví dụ, một chatbot có thể thao túng con người, hoặc hệ thống AI có thể tạo ra vũ khí sinh học mới. Quản trị ở cấp giao diện hệ thống không thể quản lý được những rủi ro như vậy. Chúng ta cũng phải xây dựng khả năng phục hồi thông qua mô phỏng và lập kế hoạch kịch bản, giống như các bài kiểm tra áp lực để giám sát ngân hàng.

Tiêu chuẩn phải nằm trên một phổ để đáp ứng sự phức tạp và rủi ro của hệ thống AI. Thay vì đặt ra quy tắc với ngưỡng tùy ý, hãy di chuyển các ngưỡng đó một cách linh hoạt để phản ánh xác suất và mức độ nghiêm trọng của các tương tác tiêu cực với thế giới bên ngoài.

Để thực sự khai thác sức mạnh của AI, quản trị cũng phải điều chỉnh động lực doanh nghiệp với an toàn công cộng. Quản trị hợp tác và giao tiếp cởi mở có thể xây dựng niềm tin và mở đường cho việc thúc đẩy an toàn và đổi mới - sử dụng tiền phạt và các cơ chế khác để khuyến khích các nhà phát triển ưu tiên an toàn.

Đạo luật Trí tuệ Nhân tạo của Liên minh Châu Âu đưa ra một số ý tưởng cho tiêu chuẩn cấp giao diện bằng cách thực hiện quản trị dựa trên mức độ rủi ro. Nhưng đạo luật cũng để lại những câu hỏi quan trọng chưa được trả lời và đồng thời vượt quá giới hạn. Trong khi hệ thống rủi ro cao phải đối mặt với lệnh cấm hoàn toàn hoặc nghĩa vụ nghiêm ngặt, những hệ thống được coi là rủi ro thấp - thường là hệ thống dùng cho cá nhân - vẫn chỉ được quản lý tối thiểu, dù ảnh hưởng của chúng rất thực tế.

Khi nhu cầu về công cụ AI vượt quá cung, Hoa Kỳ có cơ hội dẫn đầu trong việc thiết lập tiêu chuẩn AI toàn cầu, hứa hẹn an ninh mà không cản trở đổi mới. Nhưng họ phải hành động nhanh chóng và dứt khoát nếu muốn duy trì tính cạnh tranh.

Việc áp dụng tiêu chuẩn ở cấp giao diện hệ thống là bước đầu tiên quan trọng. Quá mức quy định vẫn là mối quan tâm lớn - nhưng cách tiếp cận không nhất quán của Hoa Kỳ cho đến nay chỉ là rào cản cho cả nhà phát triển và người dùng, làm chậm quá trình sáng tạo với quy tắc không tương thích giữa các tiểu bang. Tuy nhiên, với quản trị rõ ràng, nhất quán và toàn diện, Hoa Kỳ có thể đẩy nhanh đổi mới trong nước và trở thành trung tâm toàn cầu cho AI.

Quan hệ đối tác công-tư sẽ cần thiết để xây dựng khung linh hoạt, hướng tới tương lai và có khả năng phục hồi. Quan hệ đối tác này có thể phát triển tiêu chuẩn giao diện hệ thống cho AI và đảm bảo công nghệ phát triển ở nước ngoài tuân thủ tiêu chuẩn an toàn trong nước khi tương tác với hệ thống nhạy cảm.

Cách tiếp cận tập trung vào giao diện cung cấp bước đầu tiên hướng tới kế hoạch rộng lớn hơn cho an toàn AI. Trong cuốn sách "Genesis" xuất bản năm ngoái, Henry Kissinger, Craig Mundie và Eric Schmidt đề xuất phát triển "Sách Luật AI", dựa trên tiền lệ pháp lý, án lệ, bình luận học thuật và chuẩn mực con người, và đưa ra lý do để mã hóa khái niệm phẩm giá con người vào hệ thống AI nhằm đảm bảo chúng hoạt động theo các nguyên tắc đạo đức. Bằng cách thiết lập cơ chế thực tế để kiểm soát tương tác của AI với thế giới thực, chúng ta có thể quản lý rủi ro trước mắt đồng thời làm việc lâu dài để điều chỉnh AI phù hợp với giá trị con người.

Quản trị AI tại điểm tiếp xúc với thế giới thực mang lại điểm khởi đầu hiệu quả và thực tế. Chúng ta phải vượt qua mong muốn vô ích về một giải pháp hoàn hảo và chấp nhận khung có thể thích ứng nhanh như công nghệ mà nó tìm cách quản trị. Bằng cách đó, chúng ta có thể khai thác sức mạnh của AI đồng thời quản lý rủi ro, mang lại đổi mới cùng với an toàn.

 

To keep on top of AI, focus on the points where it touches the outside world, writes Martin Chavez

The Alphabet director suggests drawing inspiration from the way financial markets and railways are policed

 
 
ARTIFICIAL INTELLIGENCE advances relentlessly, presenting both immense potential and profound risks. How do we promote AI innovation while effectively managing those risks?
Current thinking on how to regulate AI largely emphasises governing the models themselves. California’s now-vetoed AI Safety Bill, for example, would have held developers liable for system misuse and required a “kill switch”. Developing safe, ethical and efficient AI systems inevitably demands standards and testing. As with any tool, we need guidelines for what qualifies as acceptable.
But as Alan Turing proved mathematically nearly a century ago, no approach guarantees the correctness of any sufficiently complex program. Furthermore, the advent of DeepSeek, from China, suggests the world has arrived at a tipping point where open-source models proliferate beyond any governance.
Governance must begin with a practical approach that addresses the junctions where these models interact with—and influence—the outside world.
History offers lessons. Consider the 19th-century railway boom. Society achieved safety not by regulating each train, but by managing track junctions where accidents most often occurred.
Financial markets adopted this approach more recently. The Securities and Exchange Commission’s Market Access Rule doesn’t constrain the internal workings of traders. Instead, regulators emphasise the points of contact with the market, mandating capital-adequacy checks before algorithms enter each order into the stockmarket. Similarly, the Federal Reserve doesn’t micromanage banks. Rather, it requires them to simulate their cashflow, income statement and balance-sheet nine quarters into the future, demonstrating sufficient capital to lend and make markets in severely adverse scenarios of the regulator’s choosing. In each case, governing the points of interaction proved more effective than attempting to control the internal complexity of each system.
Apply the same logic to AI. Policymakers and regulators must shift their attention to the interfaces through which AI systems and agents connect with critical infrastructure, financial markets, health care and other sensitive domains. They should design and set clear, testable standards for how AI systems interact with the real world, including stress tests, audit trails, attestations and certifications. We want as little regulation as possible, and no less.
Of course, with so many potential uses, no single approach handles all risk. For example, a chatbot might manipulate humans, or an AI system might create a novel bioweapon. Governance at the system-interface level alone cannot manage such risks. We must also build resilience through simulation and scenario planning, like the stress tests for monitoring banks.
Standards must sit on a continuum to meet the complexity and risk of AI systems. Rather than set rules with arbitrary thresholds, move those thresholds dynamically to reflect the probability and severity of negative interactions with the outside world.
To truly harness the power of AI, governance must also align corporate incentives with public safety. Collaborative governance and open communication can build trust and pave a way that promotes safety and innovation—using fines, penalties and other mechanisms to encourage developers to prioritise safety.
The European Union’s Artificial Intelligence Act offers some ideas for interface-level standards by implementing governance based on the level of risk. But the act also leaves important questions unanswered and at the same time overreaches. Whereas high-risk systems face outright bans or strict obligations, those deemed low-risk—generally systems meant for personal use—remain minimally regulated, despite their very real influence.
As the demand for AI tools outstrips supply, America has the opportunity to lead in establishing global AI standards that promise security without stifling innovation. But it must act quickly and decisively if it is to remain competitive.
Adopting standards at the system-interface level constitutes an important first step. Over-regulation remains a big concern—but the inconsistent approach America has taken thus far has only served as an obstacle for developers and users alike, slowing down creation with incompatible state-by-state rules. With clear, consistent and comprehensive governance, however, America could accelerate domestic innovation and become the global hub for AI.
A public-private partnership will be necessary to build a flexible, forward-thinking and resilient framework. This partnership can develop system-interface standards for AI systems and guarantee that foreign-developed technology adheres to domestic safety standards when interacting with sensitive systems.
An interface-centric approach offers a first step towards a broader plan for AI safety. In “Genesis”, a book published last year, Henry Kissinger, Craig Mundie and Eric Schmidt proposed developing an “AI Book of Laws”, informed by legal precedents, jurisprudence, scholarly commentary and human norms, and made the case for encoding the concept of human dignity into AI systems to ensure they operate according to ethical principles. By establishing practical mechanisms for controlling AI’s interaction with the real world, we can manage its immediate risks while also working in the long term to align AI with human values.
Governing AI at the point of contact with the real world offers an effective and pragmatic starting point. We must move beyond the futile desire for a perfect solution and embrace a framework that can adapt as quickly as the technology it seeks to govern. By doing so, we can harness the power of AI while managing its risks, delivering innovation together with safety. ■
R. Martin Chavez is a board member at Alphabet, vice-chairman of Sixth Street Partners and a former CFO of Goldman Sachs.

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo