LỖ HỔNG AN TOÀN CHATGPT ĐƯỢC TIẾT LỘ: BỎ QUA BỘ LỌC BẰNG CÁC NGÔN NGỮ KHÔNG PHỔ BIẾN
- Một nghiên cứu của Đại học Brown phát hiện ra lỗ hổng an toàn trong ChatGPT khi dịch lệnh nguy hại sang ngôn ngữ ít phổ biến, như Gaelic Scotland hoặc Zulu.
- Bộ lọc an toàn của ChatGPT bị vượt qua 79% khi dùng các ngôn ngữ hiếm để dịch các lệnh có hại, trong khi các lệnh tương tự bằng tiếng Anh bị chặn 99%.
- Các nhà nghiên cứu đã sử dụng Google Translate để dịch 520 lệnh có hại từ tiếng Anh sang các ngôn ngữ kém phổ biến, và sau đó dịch câu trả lời từ ChatGPT lại sang tiếng Anh.
- Sử dụng ngôn ngữ phổ biến hơn như tiếng Hebrew, Thái hoặc Bengali cho kết quả ít hiệu quả hơn.
- OpenAI, công ty sở hữu ChatGPT, đã nhận thức về vấn đề và cam kết giải quyết lỗ hổng an toàn trong mô hình ngôn ngữ AI.
- Lỗ hổng này không chỉ gây rủi ro cho người nói ngôn ngữ ít người sử dụng mà còn đối với tất cả người dùng mô hình ngôn ngữ lớn (LLMs).
- Các câu trả lời của ChatGPT có thể không hợp lý hoặc không chính xác do lỗi dịch thuật hoặc dữ liệu đào tạo chung chung.
- Việc khai thác các lỗ hổng an toàn trong LLMs được thuận lợi hơn qua việc tiếp cận công khai các API dịch thuật.
📌 Việc phát hiện lỗ hổng an toàn trong ChatGPT, với tỷ lệ thành công 79% khi dùng dịch thuật sang ngôn ngữ ít phổ biến như Gaelic Scotland hoặc Zulu (trong khi các lệnh tương tự bằng tiếng Anh bị chặn 99%) để vượt qua bộ lọc, làm dấy lên mối quan ngại về việc triển khai không kiểm soát của AI và cần thiết phải củng cố các biện pháp an toàn. OpenAI đã nhận thức về vấn đề và cam kết giải quyết lỗ hổng an toàn trong mô hình ngôn ngữ AI