• Kể từ khi ChatGPT ra mắt 2 năm trước, hàng trăm tỷ USD đã đổ vào AI và có thể dẫn đến việc phát triển AGI trong vài năm tới.
• Hàng trăm nhà khoa học AI lo ngại về nguy cơ mất kiểm soát AI khi nó trở nên quá mạnh, dẫn đến nguy cơ tuyệt chủng của loài người.
• Giải pháp trước đây về việc điều chỉnh AI theo giá trị con người gặp nhiều vấn đề:
- Tiến độ nghiên cứu chậm hơn nhiều so với phát triển AI
- Khó xác định giá trị nào cần được điều chỉnh
- Không đảm bảo ngăn chặn được các AI không thân thiện khác
• Đề xuất mới: Hiệp ước an toàn AI có điều kiện với sự tham gia của các cường quốc như Mỹ và Trung Quốc.
• Các viện an toàn AI tại Anh, Mỹ, Trung Quốc sẽ đánh giá và xác định điểm giới hạn về khả năng AI trước khi mất kiểm soát.
• Hiệp ước này vẫn cho phép phát triển:
- AI hiện tại chưa đến mức độ nguy hiểm
- AI hẹp chuyên biệt cho từng lĩnh vực
- AI tổng quát nếu chứng minh được rủi ro mất kiểm soát dưới 0,002% mỗi năm
• Donald Trump và những người ủng hộ như Ivanka Trump, Elon Musk đều nhận thức được mối nguy hiểm từ AI.
📌 Hiệp ước an toàn AI có điều kiện được đề xuất như giải pháp khả thi để kiểm soát rủi ro từ AI, với sự tham gia của các cường quốc và đánh giá từ các viện an toàn AI. Hiệp ước vẫn cho phép phát triển AI an toàn với rủi ro dưới 0,002%/năm.
https://time.com/7171432/conditional-ai-safety-treaty-trump/
#TIME