* AI tiến triển không ngừng, mang đến tiềm năng lớn và rủi ro sâu sắc, đặt ra thách thức về cách thúc đẩy đổi mới AI đồng thời quản lý hiệu quả những rủi ro này.
* Tư duy hiện tại về quy định AI chủ yếu nhấn mạnh việc quản trị chính các mô hình, như dự luật an toàn AI của California (đã bị phủ quyết) đòi hỏi người phát triển chịu trách nhiệm về việc sử dụng sai hệ thống.
* Alan Turing đã chứng minh về mặt toán học gần một thế kỷ trước rằng không có cách tiếp cận nào đảm bảo tính đúng đắn của bất kỳ chương trình đủ phức tạp nào, và sự ra đời của DeepSeek từ Trung Quốc cho thấy các mô hình nguồn mở đang phát triển vượt khỏi mọi quản trị.
* Lịch sử cung cấp bài học: cuộc bùng nổ đường sắt thế kỷ 19 đạt được an toàn không phải bằng cách quy định từng đoàn tàu mà bằng cách quản lý các giao lộ đường ray - nơi thường xảy ra tai nạn.
* Thị trường tài chính áp dụng cách tiếp cận tương tự: SEC không hạn chế hoạt động nội bộ của các nhà giao dịch mà nhấn mạnh các điểm tiếp xúc với thị trường, yêu cầu kiểm tra vốn trước khi thuật toán đưa lệnh vào thị trường chứng khoán.
* Điều tương tự, Fed không quản lý chi tiết ngân hàng mà yêu cầu họ mô phỏng dòng tiền, báo cáo thu nhập và bảng cân đối trong 9 quý tới, chứng minh đủ vốn trong các tình huống bất lợi.
* Tác giả đề xuất áp dụng logic này cho AI: các nhà hoạch định chính sách nên chuyển sự chú ý đến các giao diện mà AI kết nối với cơ sở hạ tầng quan trọng, thị trường tài chính, y tế.
* Các tiêu chuẩn cần phải linh hoạt để đáp ứng độ phức tạp và rủi ro của hệ thống AI, với ngưỡng động phản ánh xác suất và mức độ nghiêm trọng của tương tác tiêu cực.
* Quản trị cũng phải điều chỉnh động cơ doanh nghiệp phù hợp với an toàn công cộng thông qua quản trị hợp tác, giao tiếp cởi mở, và các cơ chế như phạt tiền.
* Đạo luật AI của EU đưa ra một số ý tưởng cho các tiêu chuẩn cấp giao diện bằng cách thực hiện quản trị dựa trên mức độ rủi ro, nhưng còn nhiều câu hỏi chưa được giải đáp.
* Mỹ có cơ hội dẫn đầu trong việc thiết lập tiêu chuẩn AI toàn cầu, nhưng phải hành động nhanh chóng để duy trì tính cạnh tranh.
* Cần có quan hệ đối tác công-tư để xây dựng khung linh hoạt, có tầm nhìn xa và khả năng phục hồi, đảm bảo công nghệ phát triển từ nước ngoài tuân thủ tiêu chuẩn an toàn trong nước.
📌 Cách tiếp cận quản trị AI nên tập trung vào giao diện hệ thống thay vì mô hình nội tại, lấy cảm hứng từ quản lý đường sắt và thị trường tài chính. Phương pháp này đảm bảo an toàn và đổi mới, thiết lập tiêu chuẩn kiểm tra và chứng nhận tại điểm tiếp xúc với thế giới thực.
https://www.economist.com/by-invitation/2025/04/10/to-keep-on-top-of-ai-focus-on-the-points-where-it-touches-the-outside-world-writes-martin-chavez
Giám đốc Alphabet Martin Chavez đề xuất lấy cảm hứng từ cách quản lý thị trường tài chính và đường sắt
Minh họa: Dan Williams
10/04/2025
Trí tuệ nhân tạo phát triển không ngừng, mang đến cả tiềm năng to lớn lẫn những rủi ro sâu sắc. Làm thế nào chúng ta thúc đẩy đổi mới AI đồng thời quản lý hiệu quả những rủi ro đó?
Tư duy hiện tại về cách quản lý AI phần lớn nhấn mạnh việc quản trị các mô hình. Ví dụ, Dự luật An toàn AI của California (hiện đã bị phủ quyết) đã buộc các nhà phát triển chịu trách nhiệm về việc sử dụng sai hệ thống và yêu cầu có "công tắc khẩn cấp". Việc phát triển hệ thống AI an toàn, đạo đức và hiệu quả đòi hỏi các tiêu chuẩn và kiểm nghiệm. Như với bất kỳ công cụ nào, chúng ta cần hướng dẫn về tiêu chuẩn chấp nhận được.
Nhưng như Alan Turing đã chứng minh về mặt toán học gần một thế kỷ trước, không có phương pháp nào đảm bảo tính đúng đắn của bất kỳ chương trình đủ phức tạp nào. Hơn nữa, sự ra đời của DeepSeek từ Trung Quốc cho thấy thế giới đã đến điểm mà các mô hình mã nguồn mở lan rộng ngoài tầm quản trị.
Quản trị phải bắt đầu với phương pháp thực tế giải quyết các giao điểm nơi những mô hình này tương tác và ảnh hưởng đến thế giới bên ngoài.
Lịch sử cung cấp bài học. Hãy xem xét sự bùng nổ đường sắt thế kỷ 19. Xã hội đạt được an toàn không phải bằng cách quản lý từng đoàn tàu, mà bằng cách quản lý các giao cắt đường ray - nơi tai nạn thường xảy ra nhất.
Thị trường tài chính đã áp dụng phương pháp này gần đây hơn. Quy tắc Tiếp cận Thị trường của Ủy ban Chứng khoán và Giao dịch không hạn chế hoạt động nội bộ của các nhà giao dịch. Thay vào đó, cơ quan quản lý nhấn mạnh các điểm tiếp xúc với thị trường, yêu cầu kiểm tra vốn đầy đủ trước khi thuật toán đưa ra mỗi lệnh vào thị trường chứng khoán. Tương tự, Cục Dự trữ Liên bang không can thiệp sâu vào các ngân hàng. Thay vào đó, họ yêu cầu các ngân hàng mô phỏng dòng tiền, báo cáo thu nhập và bảng cân đối trong chín quý tới, chứng minh đủ vốn để cho vay và tạo thị trường trong những kịch bản bất lợi nghiêm trọng do cơ quan quản lý lựa chọn. Trong mỗi trường hợp, việc quản lý các điểm tương tác hiệu quả hơn là cố gắng kiểm soát sự phức tạp bên trong của từng hệ thống.
Áp dụng logic tương tự cho AI. Các nhà hoạch định chính sách và cơ quan quản lý phải chuyển sự chú ý đến các giao diện mà qua đó hệ thống và đại lý AI kết nối với cơ sở hạ tầng quan trọng, thị trường tài chính, chăm sóc sức khỏe và các lĩnh vực nhạy cảm khác. Họ nên thiết kế và đặt ra tiêu chuẩn rõ ràng, có thể kiểm tra về cách hệ thống AI tương tác với thế giới thực, bao gồm kiểm tra áp lực, dấu vết kiểm toán, chứng nhận và xác nhận. Chúng ta muốn càng ít quy định càng tốt, và không ít hơn.
Tất nhiên, với rất nhiều ứng dụng tiềm năng, không có phương pháp đơn lẻ nào xử lý được mọi rủi ro. Ví dụ, một chatbot có thể thao túng con người, hoặc hệ thống AI có thể tạo ra vũ khí sinh học mới. Quản trị ở cấp giao diện hệ thống không thể quản lý được những rủi ro như vậy. Chúng ta cũng phải xây dựng khả năng phục hồi thông qua mô phỏng và lập kế hoạch kịch bản, giống như các bài kiểm tra áp lực để giám sát ngân hàng.
Tiêu chuẩn phải nằm trên một phổ để đáp ứng sự phức tạp và rủi ro của hệ thống AI. Thay vì đặt ra quy tắc với ngưỡng tùy ý, hãy di chuyển các ngưỡng đó một cách linh hoạt để phản ánh xác suất và mức độ nghiêm trọng của các tương tác tiêu cực với thế giới bên ngoài.
Để thực sự khai thác sức mạnh của AI, quản trị cũng phải điều chỉnh động lực doanh nghiệp với an toàn công cộng. Quản trị hợp tác và giao tiếp cởi mở có thể xây dựng niềm tin và mở đường cho việc thúc đẩy an toàn và đổi mới - sử dụng tiền phạt và các cơ chế khác để khuyến khích các nhà phát triển ưu tiên an toàn.
Đạo luật Trí tuệ Nhân tạo của Liên minh Châu Âu đưa ra một số ý tưởng cho tiêu chuẩn cấp giao diện bằng cách thực hiện quản trị dựa trên mức độ rủi ro. Nhưng đạo luật cũng để lại những câu hỏi quan trọng chưa được trả lời và đồng thời vượt quá giới hạn. Trong khi hệ thống rủi ro cao phải đối mặt với lệnh cấm hoàn toàn hoặc nghĩa vụ nghiêm ngặt, những hệ thống được coi là rủi ro thấp - thường là hệ thống dùng cho cá nhân - vẫn chỉ được quản lý tối thiểu, dù ảnh hưởng của chúng rất thực tế.
Khi nhu cầu về công cụ AI vượt quá cung, Hoa Kỳ có cơ hội dẫn đầu trong việc thiết lập tiêu chuẩn AI toàn cầu, hứa hẹn an ninh mà không cản trở đổi mới. Nhưng họ phải hành động nhanh chóng và dứt khoát nếu muốn duy trì tính cạnh tranh.
Việc áp dụng tiêu chuẩn ở cấp giao diện hệ thống là bước đầu tiên quan trọng. Quá mức quy định vẫn là mối quan tâm lớn - nhưng cách tiếp cận không nhất quán của Hoa Kỳ cho đến nay chỉ là rào cản cho cả nhà phát triển và người dùng, làm chậm quá trình sáng tạo với quy tắc không tương thích giữa các tiểu bang. Tuy nhiên, với quản trị rõ ràng, nhất quán và toàn diện, Hoa Kỳ có thể đẩy nhanh đổi mới trong nước và trở thành trung tâm toàn cầu cho AI.
Quan hệ đối tác công-tư sẽ cần thiết để xây dựng khung linh hoạt, hướng tới tương lai và có khả năng phục hồi. Quan hệ đối tác này có thể phát triển tiêu chuẩn giao diện hệ thống cho AI và đảm bảo công nghệ phát triển ở nước ngoài tuân thủ tiêu chuẩn an toàn trong nước khi tương tác với hệ thống nhạy cảm.
Cách tiếp cận tập trung vào giao diện cung cấp bước đầu tiên hướng tới kế hoạch rộng lớn hơn cho an toàn AI. Trong cuốn sách "Genesis" xuất bản năm ngoái, Henry Kissinger, Craig Mundie và Eric Schmidt đề xuất phát triển "Sách Luật AI", dựa trên tiền lệ pháp lý, án lệ, bình luận học thuật và chuẩn mực con người, và đưa ra lý do để mã hóa khái niệm phẩm giá con người vào hệ thống AI nhằm đảm bảo chúng hoạt động theo các nguyên tắc đạo đức. Bằng cách thiết lập cơ chế thực tế để kiểm soát tương tác của AI với thế giới thực, chúng ta có thể quản lý rủi ro trước mắt đồng thời làm việc lâu dài để điều chỉnh AI phù hợp với giá trị con người.
Quản trị AI tại điểm tiếp xúc với thế giới thực mang lại điểm khởi đầu hiệu quả và thực tế. Chúng ta phải vượt qua mong muốn vô ích về một giải pháp hoàn hảo và chấp nhận khung có thể thích ứng nhanh như công nghệ mà nó tìm cách quản trị. Bằng cách đó, chúng ta có thể khai thác sức mạnh của AI đồng thời quản lý rủi ro, mang lại đổi mới cùng với an toàn.