- Các mô hình ngôn ngữ lớn (LLM) được vũ khí hóa và tinh chỉnh với kỹ thuật tấn công đang định hình lại các cuộc tấn công mạng, buộc các giám đốc an ninh thông tin phải viết lại sách lược phòng thủ.
- Các mô hình như FraudGPT, GhostGPT và DarkGPT có giá chỉ từ 75 USD mỗi tháng và được thiết kế đặc biệt cho các chiến lược tấn công như lừa đảo, tạo mã khai thác, che giấu mã, quét lỗ hổng và xác thực thẻ tín dụng.
- Băng nhóm tội phạm mạng, tổ chức và các quốc gia đang nhìn thấy cơ hội doanh thu trong việc cung cấp nền tảng, bộ công cụ và cho thuê quyền truy cập vào các LLM vũ khí hóa, được đóng gói giống như các ứng dụng SaaS hợp pháp.
- Báo cáo của Cisco về trạng thái an ninh AI cho thấy các LLM được tinh chỉnh có khả năng tạo ra đầu ra độc hại cao hơn 22 lần so với các mô hình cơ bản.
- Quá trình tinh chỉnh mô hình làm suy yếu các rào cản bảo vệ và mở cửa cho các cuộc tấn công jailbreak, prompt injection và đảo ngược mô hình.
- Nghiên cứu của Cisco tập trung vào kiểm tra nhiều mô hình được tinh chỉnh, bao gồm Llama-2-7B và Microsoft Adapt LLMs chuyên biệt theo lĩnh vực, cho thấy sự phá vỡ nghiêm trọng nhất về tính liên kết trong các lĩnh vực y sinh và pháp lý.
- Tỷ lệ thành công của jailbreak tăng gấp 3 lần và việc tạo ra đầu ra độc hại tăng 2.200% so với các mô hình nền tảng.
- Cisco Talos đang theo dõi sự gia tăng của các LLM trên thị trường đen, với GhostGPT, DarkGPT và FraudGPT được bán trên Telegram và dark web với giá chỉ từ 75 USD/tháng.
- Với chỉ 60 USD, kẻ tấn công có thể đầu độc nền tảng của các mô hình AI bằng cách khai thác các tên miền hết hạn hoặc chỉnh sửa Wikipedia trong thời gian lưu trữ bộ dữ liệu.
- Các nhà nghiên cứu Cisco đã chứng minh rằng LLM có thể bị thao túng để rò rỉ dữ liệu đào tạo nhạy cảm mà không kích hoạt các rào cản bảo vệ, sử dụng phương pháp gọi là decomposition prompting để tái tạo hơn 20% các bài báo được chọn từ New York Times và Wall Street Journal.
- Cisco kết luận rằng các LLM không chỉ là công cụ mà còn là bề mặt tấn công mới nhất, đòi hỏi các nhà lãnh đạo an ninh cần khả năng hiển thị thời gian thực trên toàn bộ hệ thống CNTT, kiểm tra đối thủ mạnh mẽ hơn và ngăn chặn các mối đe dọa do AI thúc đẩy.
📌 Các mô hình LLM tinh chỉnh tạo ra đầu ra độc hại cao hơn 22 lần so với mô hình cơ bản. Với chỉ 75 USD/tháng, tội phạm mạng có thể thuê các công cụ như FraudGPT để tự động hóa tấn công, đòi hỏi cách tiếp cận mới về an ninh AI.
https://venturebeat.com/ai/cisco-warns-fine-tuning-turns-llms-into-threat-vectorsstructure/