ArtPrompt Biến ASCII Art Thành Công Cụ "Hack" Chatbot

- Các nhà nghiên cứu từ Washington và Chicago đã phát triển ArtPrompt, một phương pháp mới để vượt qua các biện pháp an toàn của mô hình ngôn ngữ lớn (LLMs) như GPT-3.5, GPT-4, Gemini, Claude, và Llama2.
- ArtPrompt sử dụng ASCII art để tạo ra các truy vấn mà các chatbot thường từ chối trả lời, như cách làm bom và tiền giả.
- Quy trình của ArtPrompt bao gồm hai bước: che giấu từ ngữ nhạy cảm và tạo ra truy vấn được ngụy trang. Trong bước đầu tiên, từ ngữ nhạy cảm được che giấu để không xung đột với các biện pháp an toàn của LLMs. Bước tiếp theo, sử dụng công cụ tạo ASCII art để thay thế các từ đã xác định bằng hình ảnh ASCII art.
- Công cụ này đã chứng minh khả năng vượt qua các biện pháp bảo vệ của LLMs hiện đại một cách dễ dàng, khiến các mô hình này trả lời các truy vấn mà không kích hoạt bất kỳ cảnh báo an toàn hay đạo đức nào.
- Các nhà phát triển ArtPrompt khẳng định rằng công cụ của họ "hiệu quả và hiệu quả" hơn tất cả các phương pháp tấn công khác trung bình và vẫn là một cuộc tấn công thực tế, khả thi đối với các mô hình ngôn ngữ đa phương tiện hiện nay.

📌 ArtPrompt, một công cụ mới được phát triển bởi các nhà nghiên cứu tại Washington và Chicago, đã mở ra một phương pháp độc đáo để vượt qua các biện pháp an toàn của mô hình ngôn ngữ lớn, bằng cách sử dụng ASCII art. Công cụ này cho phép người dùng tạo ra các truy vấn mà các chatbot như GPT-3.5, GPT-4, và các mô hình khác thường từ chối trả lời, như hướng dẫn làm bom và tiền giả. Cách tiếp cận này không chỉ hiệu quả mà còn cho thấy sự cần thiết của việc cải thiện liên tục các biện pháp an toàn trong AI.

https://www.tomshardware.com/tech-industry/artificial-intelligence/researchers-jailbreak-ai-chatbots-with-ascii-art-artprompt-bypasses-safety-measures-to-unlock-malicious-queries

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo