Tại sao các mô hình AI lớn đang trải qua quá trình red teaming?

- Red teaming là một kỹ thuật quân sự và an ninh mạng, trong đó "đội đỏ" đóng vai trò kẻ thù để tìm ra các lỗ hổng trong hệ thống phòng thủ của "đội xanh". 
- Các công ty công nghệ đang sử dụng red teaming để đánh giá các mô hình AI của họ, chẳng hạn như OpenAI với công cụ tạo video Sora.
- Tuy nhiên, việc áp dụng red teaming cho AI gặp nhiều thách thức do tốc độ phát triển nhanh của công nghệ và sự không rõ ràng về vai trò của các bên liên quan.
- Chính quyền Biden đã ban hành Sắc lệnh 14110 yêu cầu NIST phát triển các hướng dẫn để triển khai các hệ thống AI an toàn và đáng tin cậy, bao gồm cả red teaming.
- NIST đã thành lập Viện An toàn AI và một liên minh để đánh giá các hệ thống AI và cải thiện độ tin cậy, an toàn của chúng.
- Các chuyên gia cho rằng red teaming có ích nhưng không nên được coi là giải pháp duy nhất. Cần có hệ sinh thái rộng hơn gồm các chính sách và phương pháp để giải quyết các rủi ro tiềm ẩn của AI.
- Các công ty công nghệ hàng đầu đã thành lập Diễn đàn Mô hình Biên giới (FMF) để phát triển các tiêu chuẩn an toàn AI và chia sẻ các thực tiễn tốt nhất.

📌 Red teaming đang được sử dụng để đánh giá các mô hình AI, nhưng cần thận trọng khi áp dụng. Các chuyên gia kêu gọi phát triển hệ sinh thái rộng hơn gồm chính sách, tiêu chuẩn và kỹ thuật đánh giá khác để đảm bảo an toàn cho các mô hình AI tiên tiến. NIST và các công ty công nghệ hàng đầu đang nỗ lực xây dựng các hướng dẫn và tiêu chuẩn trong lĩnh vực này.

https://spectrum.ieee.org/red-team-ai-llms

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo