• Các nhà nghiên cứu tại JFrog phát hiện 100 mô hình AI/ML độc hại được tải lên Hugging Face, làm nổi bật vấn đề đầu độc và thao túng dữ liệu.
• Đầu độc dữ liệu nhắm vào dữ liệu huấn luyện của mô hình AI/ML, khó phát hiện và ngăn chặn. Có thể thực hiện mà không cần hack theo cách truyền thống.
• Có hai loại tấn công: trước khi triển khai (đầu độc dữ liệu huấn luyện) và sau khi triển khai (sửa đổi dữ liệu đầu vào). Cả hai đều rất khó phát hiện và phòng ngừa.
• Các mô hình độc hại trên Hugging Face chứa payload đáng ngờ, có thể do các nhà nghiên cứu tạo ra để chứng minh lỗ hổng.
• Vấn đề tái tạo mô hình AI làm phức tạp việc phát hiện mã độc, do lượng dữ liệu huấn luyện khổng lồ và khó hiểu.
• Hậu quả có thể bao gồm thực thi mã độc, tạo ra vector tấn công lừa đảo mới và phân loại sai đầu ra của mô hình.
• Các biện pháp bảo vệ bao gồm: kiểm tra chuỗi cung ứng dữ liệu, làm sạch dữ liệu, sử dụng nhiều thuật toán, kiểm tra độ mạnh mẽ của hệ thống AI.
• Cần xem xét toàn bộ hệ sinh thái AI như một phần của không gian đe dọa, giám sát đầu vào/đầu ra và phát hiện bất thường.
• Kiểm tra rủi ro của hệ thống AI trong quy trình kinh doanh rộng hơn, bao gồm quản trị dữ liệu và hành vi AI trong các ứng dụng cụ thể.
• Chuyên gia khuyến nghị thực hiện kiểm tra thâm nhập và mô phỏng tấn công đầu độc dữ liệu để đánh giá khả năng phòng thủ.
• Không có cách nào bảo vệ 100% mô hình AI khỏi đầu độc dữ liệu. Cách duy nhất là xác thực tất cả đầu ra dự đoán, nhưng rất tốn kém về mặt tính toán.
📌 Đầu độc dữ liệu là mối đe dọa nghiêm trọng đối với AI tạo sinh, khó phát hiện và ngăn chặn. Cần áp dụng nhiều biện pháp bảo vệ như kiểm tra chuỗi cung ứng dữ liệu, làm sạch dữ liệu, sử dụng nhiều thuật toán và giám sát toàn diện hệ sinh thái AI để giảm thiểu rủi ro.
https://www.techradar.com/pro/data-poisoning-attacks-sounding-the-alarm-on-genais-silent-killer