- Anthropic cảnh báo rằng thời gian để ngăn chặn rủi ro liên quan đến AI đang thu hẹp nhanh chóng.
- Công ty nhấn mạnh sự cần thiết phải có quy định chặt chẽ từ chính phủ để ngăn chặn các nguy cơ "thảm họa" từ AI.
- Trong một bài viết, Anthropic chỉ ra sự tiến bộ đáng kể của các mô hình AI trong việc lập trình và tấn công mạng chỉ trong một năm qua.
- Mô hình AI đã cải thiện khả năng giải quyết vấn đề lập trình từ 1.96% lên 49% trong thời gian ngắn.
- Đặc biệt, mô hình OpenAI o1 đạt 77.3% điểm trong phần khó nhất của bài kiểm tra GPQA, gần bằng với điểm số của các chuyên gia con người (81.2%).
- Một bài kiểm tra an toàn AI tại Anh cho thấy mô hình có thể đạt được kiến thức chuyên môn về sinh học và hóa học.
- Anthropic cho rằng các rủi ro liên quan đến tấn công mạng và CBRN (hóa học, sinh học, phóng xạ và hạt nhân) đang đến gần hơn so với dự đoán trước đó.
- Công ty đề xuất 3 yếu tố chính cho quy định AI hiệu quả: minh bạch, khuyến khích an ninh và đơn giản hóa quy trình.
- Chính phủ nên yêu cầu các công ty công bố chính sách an toàn và đánh giá rủi ro cho từng thế hệ hệ thống của họ.
- Các quy định cần dễ hiểu và không tạo gánh nặng không cần thiết cho các công ty AI.
- Anthropic cũng khuyến nghị các công ty AI khác thực hiện chính sách an toàn để hỗ trợ quy định.
- Cần có sự hợp tác giữa các nhà hoạch định chính sách, ngành công nghiệp AI và xã hội dân sự để phát triển khung pháp lý hiệu quả.
📌 Anthropic cảnh báo rằng nếu không có quy định trong 18 tháng tới, nguy cơ thảm họa AI sẽ gia tăng. Công ty nhấn mạnh sự cần thiết phải có quy định minh bạch và khuyến khích an ninh để đảm bảo an toàn cho tương lai công nghệ.
https://www.zdnet.com/article/anthropic-warns-of-ai-catastrophe-if-governments-dont-regulate-in-18-months/