Prompt injection là một phương pháp tấn công AI tạo sinh (GenAI) bằng cách đưa vào các lời nhắc văn bản để kích hoạt hành động trái phép hoặc không mong muốn. Prompt injection có thể được sử dụng để truy cập thông tin nhạy cảm, đánh cắp dữ liệu hoặc thao túng hành vi của hệ thống AI.
Prompt injection được chia thành hai loại chính:
Prompt injection có thể được sử dụng để tấn công các hệ thống AI đa phương thức, chẳng hạn như hệ thống có thể được nhắc bằng hình ảnh. Các cuộc tấn công prompt injection có thể rất đa dạng và nguy hiểm, đặc biệt khi hệ thống AI được kết nối với dữ liệu nhạy cảm hoặc được sử dụng để tự động hóa các tác vụ quan trọng.
Một số ví dụ về các cuộc tấn công prompt injection bao gồm:
📌Prompt injection là một trong những mối đe dọa lớn nhất đối với AI tạo sinh. Kẻ tấn công có thể sử dụng prompt injection để truy cập thông tin nhạy cảm, đánh cắp dữ liệu hoặc thao túng hành vi của hệ thống AI. Các cuộc tấn công prompt injection có thể rất đa dạng và nguy hiểm, đặc biệt khi hệ thống AI được kết nối với dữ liệu nhạy cảm hoặc được sử dụng để tự động hóa các tác vụ quan trọng. Các nhà phát triển và người dùng AI cần phải nhận thức được mối đe dọa của prompt injection và thực hiện các biện pháp để bảo vệ hệ thống AI khỏi các cuộc tấn công này.