- Nghiên cứu mới của các nhà nghiên cứu tại Amazon Web Services (AWS) đã phát hiện ra các lỗ hổng bảo mật nghiêm trọng trong các mô hình ngôn ngữ lớn có khả năng hiểu và phản hồi giọng nói.
- Bài báo nghiên cứu có tựa đề "SpeechGuard: Investigating the Adversarial Robustness of Multimodal Large Language Models" cho thấy cách các hệ thống AI này có thể bị thao túng để tạo ra các phản hồi độc hại hoặc phi đạo đức bằng cách sử dụng các cuộc tấn công âm thanh được thiết kế tinh vi.
- Khi giao diện giọng nói trở nên phổ biến, từ loa thông minh đến trợ lý AI, việc đảm bảo bảo mật và độ tin cậy của công nghệ cơ bản là rất quan trọng.
- Tuy nhiên, các nhà nghiên cứu AWS đã phát hiện ra rằng mặc dù có các biện pháp kiểm tra an toàn tích hợp, các mô hình ngôn ngữ giọng nói (SLM) rất dễ bị tấn công.
- Một sơ đồ từ bài báo nghiên cứu của AWS minh họa cách một hệ thống AI trả lời câu hỏi bằng giọng nói có thể bị thao túng để cung cấp các hướng dẫn phi đạo đức về cách cướp ngân hàng khi bị tấn công đối kháng.
- Các nhà nghiên cứu đề xuất một phòng thủ tiền xử lý để giảm thiểu các lỗ hổng như vậy trong các mô hình ngôn ngữ dựa trên giọng nói.
- Nghiên cứu cho thấy các cuộc tấn công đối kháng có thể được thực hiện trên các mô hình AI trả lời câu hỏi bằng giọng nói khác nhau bằng cách sử dụng các kỹ thuật như tấn công chéo mô hình và chéo lời nhắc, có thể gây ra các phản hồi ngoài ý muốn.
- Điều này nhấn mạnh sự cần thiết của các biện pháp phòng thủ mạnh mẽ, có thể chuyển giao.
📌 Nghiên cứu của AWS cho thấy các trợ lý ảo phổ biến như Alexa, Siri và Google Assistant có thể bị thao túng bởi các lệnh độc hại được thiết kế tinh vi, dẫn đến các phản hồi nguy hiểm và phi đạo đức. Điều này đòi hỏi phải có các biện pháp bảo mật mạnh mẽ hơn để ngăn chặn các cuộc tấn công đối kháng nhằm vào các mô hình ngôn ngữ giọng nói, đảm bảo an toàn và đáng tin cậy khi công nghệ này ngày càng trở nên phổ biến.
Citations:
[1] https://venturebeat.com/ai/alexa-siri-google-assistant-vulnerable-to-malicious-commands-study-reveals/