Hé lộ 3 rủi ro bảo mật LLM hàng đầu tại Black Hat 2024: từ Microsoft Copilot đến backdoor sâu trong AI

• Hội nghị Black Hat 2024, một trong những sự kiện an ninh mạng lớn nhất thế giới, đã tiết lộ một số khám phá gây lo ngại về tính không an toàn tiềm ẩn của các triển khai GenAI và LLM và cách chúng có thể bị các hacker và các tác nhân độc hại khai thác để đánh cắp dữ liệu người dùng và thông tin kinh doanh quan trọng.

Một trong những tiết lộ gây sốc nhất là lỗ hổng dữ liệu tiềm ẩn trong trợ lý AI Copilot của Microsoft. Nhà nghiên cứu an ninh mạng Michael Bargury, CTO của Zenity, và đồng nghiệp Avishai Efrat của ông đã phơi bày những lỗ hổng bảo mật nghiêm trọng trong Microsoft Copilot Studio, có thể cho phép các tác nhân độc hại xâm nhập vào mạng nội bộ của doanh nghiệp và truy cập dữ liệu nhạy cảm.

• Nhóm AI Red Team của NVIDIA cũng đã nhấn mạnh những lỗ hổng nghiêm trọng trong các mô hình ngôn ngữ lớn (LLM) tại Black Hat 2024. Trong đó, đáng lo ngại nhất là các lỗ hổng prompt injection gián tiếp, nơi một LLM phản hồi đầu vào được thao túng từ nguồn bên thứ ba, và các vấn đề bảo mật liên quan đến plugin, có thể bị khai thác để truy cập trái phép vào LLM.

• Một tiến bộ AI khác bị đặt câu hỏi tại Black Hat 2024 là Deep Reinforcement Learning (DRL), một kỹ thuật mạnh mẽ để huấn luyện các tác nhân AI ra quyết định. Tuy nhiên, công nghệ này không phải không có rủi ro, theo một nghiên cứu gần đây từ Viện Alan Turing, nó nêu bật một lỗ hổng bảo mật mạng nguy hiểm: backdoor.

📌 Các lỗ hổng bảo mật nghiêm trọng trong các triển khai LLM và GenAI, bao gồm lỗ hổng dữ liệu tiềm ẩn trong Microsoft Copilot AI, lỗ hổng prompt injection gián tiếp và backdoor sâu trong các tác nhân AI, đã được tiết lộ tại Hội nghị Black Hat 2024, nhấn mạnh tầm quan trọng của việc triển khai các biện pháp bảo mật mạnh mẽ để bảo vệ các hệ thống AI khỏi các cuộc tấn công độc hại.

https://www.digit.in/features/general/cybersecurity-in-ai-black-hat-2024-top-3-llm-security-risks.html

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo