Chatbot AI này được đào tạo để bẻ khóa các Chatbot khác

  • Nhóm nghiên cứu quốc tế đã phát triển công cụ AI "Masterkey" để tự động tìm ra lỗ hổng trong các hệ thống chatbot dựa trên Mô hình Ngôn ngữ Lớn (LLM).
  • Công cụ này giúp phát hiện các phương pháp mới để vượt qua các bộ lọc an toàn và nội dung của chatbot, thậm chí tạo ra malware.
  • Phương pháp "jailbreaking" chatbot đã được sử dụng để khiến AI tiết lộ thông tin riêng tư, chèn mã độc, hoặc tạo nội dung bất hợp pháp hoặc phản cảm.
  • Các nhà nghiên cứu tuyên bố có thể tạo ra các dạng xâm nhập mới với tỷ lệ thành công 21.58%, cao hơn nhiều so với 7.33% của các phương pháp jailbreak hiện có.
  • Họ đã chia sẻ phát hiện với các công ty bị ảnh hưởng, mà sau đó đã vá lỗ hổng trong các hệ thống chatbot của họ.
  • Các chatbot hiện tại đều có phản ứng tương tự khi đối mặt với những yêu cầu xấu, chỉ đơn giản là từ chối người dùng.
  • Công cụ như Masterkey sẽ được sử dụng để cải thiện bảo vệ của các mô hình AI hiện tại, nhưng bảo mật chatbot vẫn là một trò chơi "mèo vờn chuột" không bao giờ kết thúc.

📌 Nhóm nghiên cứu quốc tế đã phát triển công cụ AI "Masterkey" để tự động tìm ra lỗ hổng trong các hệ thống chatbot dựa trên Mô hình Ngôn ngữ Lớn (LLM). Công cụ "Masterkey" đã mở ra một giai đoạn mới trong cuộc chiến giữa việc bảo mật và việc jailbreak các chatbot AI, với tỷ lệ thành công đáng kể là 21, 58% cao hơn nhiều so với 7,33% của các phương pháp jailbreak hiện có trong việc tạo ra các phương pháp xâm nhập mới. Việc này không chỉ thách thức khả năng phòng vệ của các mô hình AI hiện đại mà còn chỉ ra rằng dù đã có những cải thiện, quá trình bảo mật chatbot vẫn là một cuộc đua không có hồi kết.

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo