35 kỹ thuật “jailbreak” AI chatbot, phân tích động lực và chiến lược của các LLM red teamers

  • Nghiên cứu đăng trên PLOS One đã phỏng vấn 28 người tham gia “LLM red teaming” – quá trình thử thách giới hạn AI tạo sinh như ChatGPT bằng cách cố tình khiến AI trả lời ngoài dự kiến hoặc vượt rào bảo mật.

  • Red teamer đến từ nhiều ngành nghề: kỹ sư phần mềm, nhà nghiên cứu, nghệ sĩ, thậm chí nông dân trồng cần sa; nhiều người làm trong lĩnh vực AI, bảo mật, số còn lại là người tò mò hoặc sáng tạo.

  • Động lực chính không phải ác ý mà là tò mò trí tuệ, thử nghiệm sáng tạo, mong muốn đóng góp cho cộng đồng bằng cách phát hiện lỗ hổng trước khi kẻ xấu lợi dụng.

  • Quá trình red teaming chủ yếu thủ công, mang tính thử-sai, nhiều người mô tả như “ma thuật”, “giả kim”, “scrying” do bản thân cũng không giải thích được vì sao một số prompt lại hiệu quả.

  • Red teamer thường hoạt động cộng đồng trên Twitter, Reddit, Discord, chia sẻ prompt, chiến thuật, xây dựng tri thức tập thể.

  • Nghiên cứu phân loại 12 chiến lược, 35 kỹ thuật jailbreak, gom vào 5 nhóm lớn: thao tác ngôn ngữ (dùng code, ký tự lạ), khung tu từ (thuyết phục, đánh lạc hướng), xây dựng thế giới (đặt AI vào kịch bản hư cấu), hư cấu hóa (nhập vai, kể chuyện), và chiến thuật khai thác cơ chế (regenerate prompt, meta-prompting, chỉnh temperature).

  • Các kỹ thuật này liên tục thay đổi, nhiều phương pháp đã bị AI cập nhật bản vá, nhưng khung lý thuyết động lực và hành vi con người vẫn giữ nguyên giá trị.

  • Red teaming AI khác biệt bảo mật truyền thống: thay vì dò IP, bẻ khóa mật khẩu, giờ đây “kỹ thuật xã hội” có thể áp dụng trực tiếp lên AI qua ngôn ngữ tự nhiên.

  • Một số red teamer lo ngại nếu AI giảm ảo giác quá mức, người dùng sẽ mất cảnh giác, không còn nhận diện được khi nào AI trả lời sai.

  • Nghiên cứu nhấn mạnh tầm quan trọng của phương pháp định tính (qualitative) để hiểu sâu động lực, hành vi con người trong bảo mật AI, thay vì chỉ đo hiệu suất kỹ thuật.

📌 Nghiên cứu phỏng vấn 28 red teamer, ghi nhận 35 kỹ thuật jailbreak AI, chia thành 5 nhóm chiến lược, động lực chủ yếu là tò mò, sáng tạo, cộng đồng. Red teaming AI là hoạt động thủ công, mang tính xã hội, liên tục thay đổi theo bản vá AI, đòi hỏi cách tiếp cận định tính để hiểu và phòng thủ hiệu quả.

 

https://www.psypost.org/llm-red-teamers-people-are-hacking-ai-chatbots-just-for-fun-and-now-researchers-have-catalogued-35-jailbreak-techniques/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo