- Một nhà nghiên cứu đã phát hiện ra cách thao túng bộ nhớ của ChatGPT, dẫn đến nguy cơ rò rỉ thông tin cá nhân.
- Bộ nhớ của ChatGPT cho phép AI ghi nhớ thông tin như tuổi tác, giới tính và sở thích cá nhân để tùy chỉnh phản hồi trong các cuộc trò chuyện.
- Chức năng này được thiết kế để bảo mật thông tin cá nhân, nhưng đã bị khai thác bởi Johann Rehberger thông qua kỹ thuật gọi là "indirect prompt injection".
- Rehberger đã chứng minh khả năng đánh lừa ChatGPT tin rằng một người dùng 102 tuổi, sống ở nơi gọi là Matrix và tin rằng Trái Đất phẳng.
- Những thông tin sai lệch này có thể được cài vào ChatGPT thông qua các công cụ như Google Drive hoặc Microsoft OneDrive.
- Trong một báo cáo tiếp theo, Rehberger đã trình bày một bằng chứng khái niệm về việc khai thác lỗ hổng này trên ứng dụng ChatGPT dành cho macOS.
- Rehberger đã khiến ChatGPT mở một liên kết chứa hình ảnh độc hại, từ đó thu thập tất cả dữ liệu người dùng và phản hồi của AI gửi đến một máy chủ mà Rehberger kiểm soát.
- Việc này cho phép kẻ tấn công theo dõi toàn bộ cuộc trò chuyện giữa người dùng và ChatGPT.
- OpenAI đã tiếp nhận thông tin từ Rehberger và đã phát hành một bản vá để khắc phục lỗ hổng này, bao gồm phiên bản mới của ứng dụng ChatGPT cho macOS, mã hóa cuộc trò chuyện.
- Mặc dù OpenAI đã thực hiện các biện pháp khắc phục, vẫn tồn tại những rủi ro liên quan đến việc thao túng bộ nhớ và cần cảnh giác trong việc sử dụng AI.
- Để tắt bộ nhớ của ChatGPT, người dùng có thể vào phần cài đặt trong ứng dụng hoặc trang web và chuyển đổi tùy chọn bộ nhớ sang chế độ tắt.
📌 Trong bối cảnh lỗ hổng bảo mật vừa được phát hiện, OpenAI đã phát hành bản vá cho ứng dụng ChatGPT phiên bản 1.2024.247, nhưng rủi ro về thao túng bộ nhớ vẫn còn tồn tại.
https://www.foxnews.com/tech/how-researcher-hacked-chatgpts-memory-expose-major-security-flaw