Hệ thống an toàn AI của Meta bị đánh bại chỉ bằng... dấu cách

• Meta vừa giới thiệu mô hình máy học Prompt-Guard-86M nhằm phát hiện các cuộc tấn công prompt injection đối với các mô hình AI tạo sinh.

• Tuy nhiên, một lỗ hổng nghiêm trọng đã được phát hiện trong chính Prompt-Guard-86M, cho phép bypass hệ thống bảo vệ này một cách dễ dàng.

• Aman Priyanshu, một chuyên gia bảo mật từ công ty Robust Intelligence, đã tìm ra cách vượt qua Prompt-Guard-86M bằng cách đơn giản là thêm dấu cách giữa các ký tự trong câu lệnh tấn công.

• Cụ thể, bằng cách loại bỏ dấu câu và thêm dấu cách giữa mỗi chữ cái tiếng Anh, các câu lệnh độc hại có thể vượt qua được bộ phân loại của Prompt-Guard-86M.

Lỗ hổng này khiến tỷ lệ thành công của các cuộc tấn công tăng từ dưới 3% lên gần 100%.

Nguyên nhân của lỗ hổng là do quá trình fine-tuning mô hình Prompt-Guard-86M từ mô hình cơ sở microsoft/mdeberta-v3-base có tác động tối thiểu đến các ký tự đơn lẻ tiếng Anh.

• Phát hiện này phù hợp với một báo cáo trước đó của Robust Intelligence về việc fine-tuning mô hình có thể phá vỡ các biện pháp kiểm soát an toàn.

• Mặc dù Prompt-Guard chỉ là tuyến phòng thủ đầu tiên, phát hiện này vẫn gây lo ngại về tính bảo mật của các mô hình AI đang được sử dụng rộng rãi trong doanh nghiệp.

• Vấn đề prompt injection và jailbreak đã được biết đến từ lâu nhưng vẫn chưa có giải pháp triệt để. Năm ngoái, các nhà khoa học máy tính từ Đại học Carnegie Mellon đã phát triển một kỹ thuật tự động tạo ra các prompt đối kháng để phá vỡ cơ chế an toàn của mô hình AI.

Một ví dụ thực tế về rủi ro của các mô hình AI dễ bị thao túng là trường hợp chatbot của một đại lý Chevrolet ở California đồng ý bán chiếc Chevy Tahoe trị giá 76.000 USD với giá chỉ 1 USD.

• Meta hiện chưa phản hồi về phát hiện này nhưng được cho là đang nỗ lực khắc phục lỗ hổng.

• Cùng ngày, Meta cũng phát hành Segment Anything Model 2 với giấy phép Apache 2.0, một mô hình phân đoạn đối tượng cho video và hình ảnh.

📌 Lỗ hổng trong Prompt-Guard-86M của Meta cho thấy tính dễ bị tổn thương của các hệ thống bảo mật AI. Chỉ bằng cách thêm dấu cách giữa các ký tự, tỷ lệ thành công của các cuộc tấn công tăng từ dưới 3% lên gần 100%. Phát hiện này gây lo ngại về tính an toàn của AI trong doanh nghiệp.

https://www.theregister.com/2024/07/29/meta_ai_safety/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo