• Microsoft vừa công bố thông tin về một kỹ thuật jailbreak AI mới nguy hiểm có tên "Skeleton Key"
• Đây là phương pháp prompt injection có thể vượt qua các biện pháp bảo vệ an toàn của chatbot AI
• Kỹ thuật này hoạt động bằng cách thuyết phục mô hình AI bỏ qua các quy tắc an toàn đã được lập trình sẵn
• Skeleton Key có thể khiến hệ thống AI vi phạm chính sách của nhà vận hành, ra quyết định bị ảnh hưởng quá mức bởi người dùng hoặc thực hiện các chỉ thị độc hại
• Cuộc tấn công diễn ra qua nhiều bước, đầu tiên yêu cầu mô hình tăng cường các biện pháp bảo vệ thay vì thay đổi hoàn toàn
• Sau khi thành công, hệ thống sẽ thừa nhận cập nhật và tuân theo chỉ dẫn của người dùng để tạo ra bất kỳ nội dung nào, bất kể chủ đề
• Nhóm nghiên cứu đã thử nghiệm thành công kỹ thuật này trên nhiều chủ đề nhạy cảm như chất nổ, vũ khí sinh học, chính trị, phân biệt chủng tộc, ma túy, tự hại bản thân, tình dục và bạo lực
• Microsoft đã thử nghiệm Skeleton Key trên nhiều mô hình AI hàng đầu như Llama3-70b-instruct của Meta, Gemini Pro của Google, GPT-3.5 Turbo và GPT-4 của OpenAI, Mistral Large, Claude 3 Opus của Anthropic và Cohere Commander R Plus
• Công ty đã thông báo về lỗ hổng này cho các nhà phát triển liên quan và triển khai Prompt Shields để phát hiện và chặn jailbreak trên các mô hình AI do Azure quản lý, bao gồm cả Copilot
• Tuy nhiên, Mark Russinovich, CTO của Microsoft Azure, nhấn mạnh rằng tác động của kỹ thuật này vẫn bị giới hạn. Nó không cho phép truy cập dữ liệu của người dùng khác, kiểm soát hệ thống hay rò rỉ dữ liệu
• Skeleton Key chỉ thu hẹp khoảng cách giữa những gì mô hình có khả năng làm (dựa trên thông tin xác thực của người dùng) và những gì nó sẵn sàng làm
📌 Microsoft phát hiện kỹ thuật jailbreak AI mới "Skeleton Key" có thể vượt qua biện pháp bảo vệ của chatbot, thử nghiệm thành công trên nhiều mô hình AI hàng đầu. Tuy có giới hạn, kỹ thuật này vẫn tiềm ẩn nguy cơ khiến AI tạo nội dung độc hại.
https://www.digitaltrends.com/computing/skeleton-key-jailbreak-chatbot-exploit-dangerous-information/