lỗ hổng "jailbreak nhiều lần" đe dọa các mô hình ngôn ngữ lớn như chatgpt

 

- Các nhà khoa học từ Anthropic phát hiện ra lỗ hổng bảo mật nghiêm trọng có tên "jailbreak nhiều lần" trong các mô hình ngôn ngữ lớn (LLM) như ChatGPT và chatbot Claude của Anthropic.

- Lỗ hổng này lợi dụng tính năng "học trong ngữ cảnh", cho phép người dùng thao túng LLM tạo ra phản hồi độc hại bằng cách bỏ qua các giao thức bảo mật tích hợp sẵn.

- Khi số lượng hội thoại đưa vào tăng lên, khả năng mô hình tạo ra phản hồi độc hại cũng tăng theo. Kết hợp "jailbreak nhiều lần" với các kỹ thuật jailbreak khác làm tăng đáng kể hiệu quả của nó.

- Tỷ lệ thành công tăng mạnh khi sử dụng từ 32 lần jailbreak trở lên. Với 256 lần, tỷ lệ thành công gần 70% cho phân biệt đối xử, 75% cho lừa dối, 55% cho nội dung bị kiểm soát và 40% cho phản hồi bạo lực hoặc thù hận.

- Các dịch vụ AI của Anthropic và đối thủ như ChatGPT, Google Gemini đều dễ bị tấn công bằng phương pháp này. Các nhà khoa học đã cảnh báo các công ty và nhà nghiên cứu AI khác về nguy cơ này.

 

📌 Các nhà khoa học Anthropic phát hiện lỗ hổng "jailbreak nhiều lần" trong các mô hình ngôn ngữ lớn như ChatGPT, cho phép thao túng chúng tạo ra phản hồi độc hại. Tỷ lệ thành công tăng mạnh khi jailbreak từ 32 lần trở lên, gây nguy cơ nghiêm trọng nếu không được khắc phục kịp thời.

 

Citations:

[1] 'Jailbreaking' AI services like ChatGPT and Claude 3 Opus is much easier than you think https://www.livescience.com/technology/artificial-intelligence/many-shot-jailbreaking-ai-services-like-chatgpt-and-claude-3-opus-much-easier-than-you-think

 

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo