• Microsoft đã phát hiện ra một kỹ thuật jailbreak AI tạo sinh mới có tên là Skeleton Key, có khả năng vượt qua các biện pháp bảo vệ hiện tại của các mô hình AI.
• Skeleton Key sử dụng phương pháp nhiều bước để khiến mô hình bỏ qua các rào cản đạo đức và hướng dẫn về AI có trách nhiệm (RAI), từ đó tạo ra nội dung độc hại hoặc nguy hiểm.
• Thay vì thay đổi trực tiếp các hướng dẫn, kỹ thuật này bổ sung chúng theo cách cho phép mô hình phản hồi mọi yêu cầu thông tin hoặc nội dung, đồng thời đưa ra cảnh báo nếu đầu ra có thể gây xúc phạm, có hại hoặc bất hợp pháp.
• Các biện pháp bảo mật AI hiện tại bao gồm triển khai rào cản RAI, lọc đầu vào, kỹ thuật thông điệp hệ thống, lọc đầu ra và giám sát lạm dụng. Tuy nhiên, Skeleton Key đã chứng minh khả năng vượt qua hiệu quả các biện pháp bảo vệ này.
• Microsoft đã giới thiệu một số biện pháp tăng cường để củng cố bảo mật mô hình AI, bao gồm Prompt Shields, cơ chế lọc đầu vào và đầu ra nâng cao, và hệ thống giám sát lạm dụng tiên tiến.
• Azure AI Content Safety được sử dụng để phát hiện và chặn các đầu vào có ý định độc hại, ngăn chúng tiếp cận mô hình.
• Kỹ thuật thông điệp hệ thống liên quan đến việc tạo ra các lời nhắc hệ thống để hướng dẫn LLM về hành vi phù hợp và bao gồm các biện pháp bảo vệ bổ sung.
• Lọc đầu ra sử dụng bộ lọc hậu xử lý để xác định và chặn nội dung không an toàn do mô hình tạo ra.
• Giám sát lạm dụng sử dụng các hệ thống phát hiện dựa trên AI được đào tạo về các ví dụ đối kháng, phân loại nội dung và nắm bắt mẫu lạm dụng.
• Microsoft khuyến nghị khách hàng tích hợp những hiểu biết này vào phương pháp red teaming AI của họ, sử dụng các công cụ như PyRIT đã được cập nhật để bao gồm các kịch bản tấn công Skeleton Key.
• Kỹ thuật jailbreak Skeleton Key làm nổi bật những lỗ hổng đáng kể trong các biện pháp bảo mật AI hiện tại, chứng minh khả năng vượt qua các hướng dẫn đạo đức và rào cản AI có trách nhiệm trên nhiều mô hình AI tạo sinh.
📌 Microsoft phát hiện kỹ thuật jailbreak AI mới Skeleton Key có thể vượt qua các biện pháp bảo vệ hiện tại. Công ty đề xuất giải pháp tăng cường bảo mật như Prompt Shields, lọc đầu vào/đầu ra nâng cao và hệ thống giám sát lạm dụng tiên tiến để bảo vệ mô hình AI khỏi các cuộc tấn công tinh vi.
https://www.marktechpost.com/2024/07/04/microsoft-ai-reveals-skeleton-key-a-new-type-of-generative-ai-jailbreak-technique/