- ARIA, một chương trình mới của NIST, sẽ phát triển các phương pháp và chỉ số để đo lường mức độ an toàn của hệ thống AI trong bối cảnh xã hội.
- Chương trình này sẽ đánh giá AI vượt ra ngoài mô hình và xem xét hệ thống trong ngữ cảnh thực tế, bao gồm cả khi con người tương tác với công nghệ AI.
- Theo Reva Schwartz, trưởng chương trình ARIA của NIST, việc đo lường tác động không chỉ là đánh giá mô hình hoạt động tốt như thế nào trong phòng thí nghiệm.
- ARIA sẽ xem xét AI vượt ra ngoài mô hình và đánh giá hệ thống trong ngữ cảnh, bao gồm cả những gì xảy ra khi con người tương tác với công nghệ AI trong các tình huống thực tế.
- Cách tiếp cận này cho một cái nhìn toàn diện hơn về tác động thực sự của các công nghệ AI.
- Kết quả của ARIA sẽ hỗ trợ và cung cấp thông tin cho các nỗ lực tổng thể của NIST, bao gồm cả thông qua Viện An toàn AI của Hoa Kỳ, để xây dựng nền tảng cho các hệ thống AI an toàn, bảo mật và đáng tin cậy.
📌 ARIA, chương trình mới của NIST, sẽ phát triển phương pháp và chỉ số để đo lường độ an toàn của AI trong xã hội, vượt ra ngoài đánh giá mô hình trong phòng thí nghiệm. Chương trình xem xét AI trong ngữ cảnh thực tế khi con người tương tác, mang lại cái nhìn toàn diện về tác động thực sự, góp phần xây dựng nền tảng cho các hệ thống AI an toàn và đáng tin cậy.
https://www.nist.gov/news-events/news/2024/05/nist-launches-aria-new-program-advance-sociotechnical-testing-and