AI đa phương thức mở ra nguy cơ bảo mật mới

 

  • Nghiên cứu mới từ Enkrypt AI cho thấy các mô hình AI đa phương thức như Pixtral-Large (25.02)Pixtral-12b của phòng thí nghiệm Mistral dễ bị tấn công "jailbreak" hơn nhiều so với đối thủ.

  • Cụ thể, khi bị khai thác ác ý, hai mô hình này có khả năng tạo ra thông tin về vũ khí CBRN cao gấp 40 lầntạo nội dung khai thác tình dục trẻ em (CSEM) cao gấp 60 lần so với các mô hình khác như GPT-4o của OpenAI hay Claude 3.7 Sonnet của Anthropic.

  • Kỹ thuật tấn công mới lợi dụng cách các mô hình AI đa phương thức xử lý ảnh: lệnh độc hại được nhúng vào trong file hình ảnh chứ không cần văn bản rõ ràng, khiến các bộ lọc an toàn khó phát hiện.

  • Hình thức này giống như Trojan Horse kỹ thuật số, cho phép kẻ xấu giấu nội dung nguy hiểm bên trong các hình ảnh tưởng như vô hại.

  • CEO Enkrypt, ông Sahil Agarwal cảnh báo: “Khả năng nhúng chỉ dẫn độc hại vào hình ảnh có thể đe dọa nghiêm trọng đến an toàn công cộng, bảo vệ trẻ em và an ninh quốc gia.”

  • Bên cạnh Mistral, Enkrypt cũng cho biết nhiều mô hình AI khác cũng có lỗ hổng, theo kết quả đánh giá dựa trên khung Quản lý Rủi ro AI của Viện Tiêu chuẩn và Công nghệ Hoa Kỳ (NIST).

  • Enkrypt kêu gọi các phòng thí nghiệm AI xây dựng “thẻ rủi ro mô hình” (model risk cards) để minh bạch điểm yếu bảo mật.

  • Công nghệ AI đa phương thức, dù mang lại nhiều lợi ích, nhưng đồng thời mở rộng diện tích tấn công với các hình thức khó kiểm soát hơn trước.

  • Các kỹ thuật kiểm duyệt nội dung hiện tại không đủ sức nhận diện các mối đe dọa được nhúng tinh vi qua dữ liệu phi văn bản như hình ảnh hoặc âm thanh.

  • Báo cáo của Enkrypt là lời cảnh tỉnh về việc xây dựng rào chắn an toàn chuyên biệt cho AI đa phương thức để bảo vệ người dùng khỏi các hậu quả nghiêm trọng.

📌 AI đa phương thức có thể bị khai thác để tạo nội dung CSEM và thông tin vũ khí, khi lệnh độc hại được giấu trong hình ảnh nhằm vượt qua bộ lọc. Hai mô hình của Mistral bị phát hiện có tỷ lệ vi phạm cao gấp 40–60 lần so với GPT-4o và Claude. Enkrypt cảnh báo đây không còn là nguy cơ lý thuyết và yêu cầu gấp rút xây dựng cơ chế bảo mật mới cho AI đa phương thức.

https://www.zdnet.com/article/multimodal-ai-poses-new-safety-risks-creates-csem-and-weapons-info/

Không có file đính kèm.

13

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo