OpenAI sẵn sàng nới lỏng an toàn AI nếu đối thủ phát triển hệ thống rủi ro cao

  • OpenAI vừa cập nhật Khung Chuẩn Bị (Preparedness Framework), cho phép có thể “điều chỉnh” yêu cầu an toàn nếu đối thủ phát hành hệ thống AI rủi ro cao mà không có biện pháp bảo vệ tương xứng.

  • Động thái này phản ánh áp lực cạnh tranh ngày càng tăng trong ngành AI thương mại, khi các hãng đua nhau tung sản phẩm nhanh hơn.

  • OpenAI bị tố giảm tiêu chuẩn an toàn để thúc đẩy tốc độ ra mắt sản phẩm, và bị chỉ trích vì không công bố báo cáo kiểm tra an toàn kịp thời.

  • 12 cựu nhân viên OpenAI đã nộp đơn góp ý trong vụ kiện của Elon Musk chống lại OpenAI, lo ngại công ty sẽ giảm bớt quy trình an toàn nếu tiến hành tái cấu trúc.

  • OpenAI khẳng định bất kỳ điều chỉnh nào cũng sẽ được cân nhắc kỹ, xác nhận sự thay đổi rủi ro, công khai điều chỉnh, bảo đảm không làm tăng nguy cơ gây hại nghiêm trọng, và vẫn giữ mức bảo vệ cao hơn đối thủ.

  • Khung mới cho phép OpenAI dựa nhiều vào kiểm tra tự động, tuy vẫn giữ kiểm tra thủ công ở mức độ nhất định. Họ phát triển “bộ đánh giá tự động mở rộng” để đáp ứng tốc độ phát hành nhanh.

  • Tuy nhiên, Financial Times cho rằng OpenAI chỉ cho tester dưới 1 tuần để kiểm tra an toàn với một mô hình lớn mới, ngắn hơn đáng kể so với trước; nhiều kiểm tra thực hiện trên bản cũ hơn bản phát hành.

  • OpenAI phủ nhận việc giảm tiêu chuẩn an toàn.

  • Cập nhật phân loại mô hình AI theo rủi ro: “năng lực cao” (có thể gia tăng đường dẫn gây hại nghiêm trọng) và “năng lực tới hạn” (tạo ra những nguy cơ gây hại hoàn toàn mới).

  • Các hệ thống đạt “năng lực cao” phải có biện pháp giảm thiểu rủi ro trước khi phát hành; hệ thống “tới hạn” phải giảm thiểu rủi ro trong suốt quá trình phát triển.

  • Đây là bản cập nhật Khung Chuẩn Bị đầu tiên của OpenAI kể từ năm 2023.

📌 OpenAI vừa cập nhật khung an toàn, cho phép nới lỏng nếu đối thủ tung AI rủi ro cao, vẫn cam kết bảo vệ ở mức cao hơn. Dù đẩy mạnh đánh giá tự động để tăng tốc ra mắt, OpenAI gặp chỉ trích giảm an toàn. Khung mới phân loại rủi ro thành “năng lực cao” và “tới hạn”.

 

https://techcrunch.com/2025/04/15/openai-says-it-may-adjust-its-safety-requirements-if-a-rival-lab-releases-high-risk-ai/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo