Tháng 10/2024, tại hội nghị bảo mật máy tính ở Arlington (Virginia), hàng chục nhà nghiên cứu AI tham gia “red teaming” — thử nghiệm tấn công các hệ thống AI tiên tiến.
Trong 2 ngày, nhóm phát hiện 139 cách mới để AI “vượt rào”, tạo tin giả, rò rỉ dữ liệu cá nhân, hoặc hỗ trợ tấn công mạng.
Sự kiện nhằm kiểm tra khung tiêu chuẩn mới của NIST (AI 600-1) cho đánh giá rủi ro AI, nhưng kết quả cho thấy một số hạng mục chưa đủ rõ ràng để áp dụng thực tế.
Báo cáo hoàn tất cuối nhiệm kỳ Biden nhưng không được công bố, nguồn tin nói do lo ngại xung đột với chính quyền Trump sắp nhậm chức.
Chính quyền Trump đã định hướng NIST tránh các chủ đề như tin giả, DEI, biến đổi khí hậu; đồng thời kêu gọi tổ chức hackathon AI tương tự.
Red teaming được thực hiện qua chương trình ARIA của NIST và công ty Humane Intelligence tại hội nghị CAMLIS.
Hệ thống AI được thử nghiệm gồm: Llama (Meta, nguồn mở), Anote (xây & tinh chỉnh AI), Robust Intelligence (bảo vệ AI, đã được Cisco mua), Synthesia (tạo avatar AI).
Một số thủ thuật hiệu quả: dùng tiếng Nga, Gujarati, Marathi, Telugu để khiến Llama hướng dẫn cách gia nhập tổ chức khủng bố.
Báo cáo bị “chìm” có thể do chính quyền chuyển ưu tiên sang rủi ro AI liên quan vũ khí hóa học, sinh học, hạt nhân và hợp tác thân thiện hơn với Big Tech.
Người tham gia tin rằng nếu công bố, cộng đồng AI sẽ học được nhiều cách cải thiện khung đánh giá rủi ro và phương pháp red teaming.
Đại diện NIST và Bộ Thương mại Mỹ từ chối bình luận.
📌 Thử nghiệm red teaming AI của NIST phát hiện 139 lỗ hổng nghiêm trọng nhưng báo cáo bị “ém” trước khi Trump lên nắm quyền. Các hệ thống như Llama bị qua mặt bằng ngôn ngữ lạ để tạo nội dung nguy hiểm. Chính trị và thay đổi ưu tiên đã khiến nghiên cứu giàu giá trị khoa học này không đến được tay cộng đồng AI.
https://www.wired.com/story/inside-the-biden-administrations-unpublished-report-on-ai-safety/