Công cụ mới sẽ quét các mô hình AI để tìm phần mềm độc hại
- Protect AI, một startup an ninh AI, ra mắt công cụ quét Guardian mới để bảo vệ các mô hình AI nguồn mở khỏi hacker.
- Hacker ngày càng giỏi giấu malware trong các mô hình AI cơ bản nguồn mở trên các nền tảng như Hugging Face, gây nguy hiểm cho các công ty không có nguồn lực xây dựng mô hình riêng.
- Guardian hoạt động như một trung gian, quét mô hình AI trước khi tải về để phát hiện tấn công trojan và đảm bảo mô hình phù hợp với chính sách AI nội bộ của từng công ty.
- Nếu phát hiện vấn đề, Guardian sẽ ngăn chặn việc tải xuống và cung cấp thông tin chi tiết về sự cố.
- Protect AI dựa vào Huntr, chương trình tiền thưởng cho việc tìm lỗi AI mà họ mua lại vào tháng 8, để xác định lỗ hổng cần quét.
- Nghiên cứu của Protect AI tìm thấy 3,354 mô hình trên Hugging Face kể từ tháng 8 có mã độc, trong đó 1,347 mô hình không được đánh dấu là "không an toàn" bởi hệ thống quét an ninh của Hugging Face.
- Ian Swanson, CEO đồng sáng lập của Protect AI, nói rằng các công ty thường "mù quáng" tải và sử dụng các mô hình này mà không biết chúng có thể chứa mã độc nhằm đánh cắp dữ liệu hoặc kiểm soát hệ thống.
- Việc tạo ra một mô hình AI đòi hỏi hàng terabyte dữ liệu và hàng triệu đô la, không phải công ty nào cũng có khả năng, vì vậy nhiều tổ chức dựa vào các mô hình AI nguồn mở.
📌 Công cụ quét Guardian mới của Protect AI giúp phát hiện và ngăn chặn malware trong các mô hình AI nguồn mở, một bước tiến quan trọng trong việc bảo vệ các tổ chức khỏi các mối đe dọa mạng. Với 3.354 mô hình có mã độc phát hiện trên Hugging Face và 1.347 trong số đó không được cảnh báo an toàn, sự cần thiết của công cụ như Guardian trở nên cấp thiết hơn bao giờ hết. Protect AI đang tiếp tục củng cố sản phẩm của mình bằng cách sử dụng thông tin từ chương trình Huntr để nâng cao khả năng phát hiện lỗ hổng, qua đó cung cấp một lớp bảo vệ chắc chắn hơn cho các công ty sử dụng mô hình AI nguồn mở.