- Google DeepMind đã ra mắt một khung đánh giá mới nhằm xác định các nguy cơ tiềm ẩn của các mô hình AI, chuẩn bị cho thời điểm AI trở nên mạnh mẽ và có thể gây ra mối đe dọa nghiêm trọng.
- Khung đánh giá này sẽ được áp dụng mỗi khi sức mạnh tính toán dùng để huấn luyện mô hình tăng gấp 6 lần hoặc khi mô hình được tinh chỉnh trong 3 tháng.
- Trong khoảng thời gian giữa các lần đánh giá, DeepMind sẽ thiết kế các đánh giá cảnh báo sớm.
- DeepMind sẽ hợp tác với các công ty khác, giới học thuật và các nhà lập pháp để cải thiện khung đánh giá này.
- Công ty dự định bắt đầu triển khai các công cụ kiểm toán của mình vào năm 2025.
- Hiện tại, việc đánh giá các mô hình AI mạnh mẽ chủ yếu là một quá trình ngẫu hứng, liên tục phát triển khi các nhà nghiên cứu phát triển các kỹ thuật mới.
- Các "đội đỏ" sẽ dành nhiều tuần hoặc tháng để thử nghiệm các mô hình bằng cách sử dụng các lời nhắc khác nhau nhằm phát hiện các nguy cơ tiềm ẩn.
- Khung An Toàn Tiên Phong của DeepMind nhằm giải quyết vấn đề này và là một trong số các phương pháp được công bố bởi các công ty công nghệ lớn như Meta, OpenAI và Microsoft để giảm bớt lo ngại về AI.
- DeepMind đã làm việc trên các hệ thống cảnh báo sớm cho các mô hình AI trong hơn một năm và đã công bố các bài báo về các phương pháp mới để đánh giá mô hình vượt xa các phương pháp hiện tại.
- Việc các nhà nghiên cứu AI tại Google DeepMind tiến bộ trong các phương pháp khoa học để xác định những gì đang xảy ra bên trong các mô hình AI là một tín hiệu đáng khích lệ, mặc dù họ vẫn còn nhiều việc phải làm.
- Điều này cũng có lợi cho an toàn AI khi các nhà nghiên cứu đạt được những đột phá về khả năng, họ cũng đang nỗ lực để đảm bảo an toàn.
📌 Google DeepMind đã ra mắt khung đánh giá mới để xác định nguy cơ của các mô hình AI, với kế hoạch triển khai vào năm 2025. Khung này sẽ được áp dụng khi sức mạnh tính toán tăng gấp sáu lần hoặc tinh chỉnh trong ba tháng, và sẽ có các đánh giá cảnh báo sớm.
Citations:
[1] https://www.semafor.com/article/05/17/2024/google-deepmind-launches-new-framework-to-assess-the-dangers-of-ai-models