Hiện chưa có cách nào để kiểm tra an toàn cho AI

- METR (Model Evaluation and Threat Research) là một tổ chức phi lợi nhuận chuyên đánh giá an toàn AI, do Beth Barnes thành lập năm 2022 sau khi rời OpenAI. 
- METR tập trung kiểm tra khả năng tự nhân bản và hành động tự chủ của các mô hình AI như GPT-4 hay Claude. Họ cố gắng tạo điều kiện tốt nhất cho AI thực hiện các tác vụ này.
- Chính phủ Mỹ và EU yêu cầu các công ty phải kiểm tra an toàn cho AI và báo cáo kết quả. Tuy nhiên, các bài kiểm tra hiện tại vẫn chưa đủ chín muồi.
- OpenAI và Anthropic đã hợp tác với METR để kiểm tra an toàn, nhưng thừa nhận các bài kiểm tra vẫn chưa hoàn hảo. Một số công ty khác như Meta, Cohere chưa công bố kế hoạch tương tự.
- Một số chuyên gia lo ngại METR có thể vô tình biện minh cho việc phát triển AI nguy hiểm dựa trên các bài kiểm tra chưa đáng tin cậy. METR cho rằng nỗ lực của họ vẫn có ích trong bối cảnh chưa có lệnh cấm phát triển AI quá mạnh.

📌 Mặc dù các công ty và chính phủ đang nỗ lực phát triển các bài kiểm tra an toàn cho AI, nhưng công nghệ này đang tiến bộ quá nhanh so với tiến độ nghiên cứu. Các bài kiểm tra hiện tại vẫn chưa đủ tin cậy để đảm bảo an toàn tuyệt đối, trong bối cảnh nhiều chuyên gia cảnh báo AI có thể vượt trội hơn con người chỉ trong vòng 10 năm tới.

Citations:
[1]https://time.com/6958868/artificial-intelligence-safety-evaluations-risks/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo