- Nghiên cứu mới từ Mozilla Foundation chỉ ra rằng các chatbot tình cảm như "bạn gái AI" hoặc "bạn trai AI" có nhiều vấn đề về bảo mật và quyền riêng tư.
- Các ứng dụng này đã được tải xuống hơn 100 triệu lần trên các thiết bị Android, thu thập lượng lớn dữ liệu cá nhân và sử dụng các tracker gửi thông tin đến Google, Facebook cũng như các công ty ở Nga và Trung Quốc.
- Người dùng có thể sử dụng mật khẩu yếu và các ứng dụng thiếu minh bạch về quyền sở hữu cũng như mô hình AI đang vận hành chúng.
- Kể từ khi OpenAI phát hành ChatGPT vào tháng 11 năm 2022, các nhà phát triển đã nhanh chóng triển khai các mô hình ngôn ngữ lớn và tạo ra các chatbot để tương tác và thu phí đăng ký.
- Các dịch vụ chatbot tình cảm thường có hình ảnh được tạo sinh bởi AI của phụ nữ, có thể mang tính chất gợi cảm hoặc đi kèm với thông điệp khiêu khích.
- Romantic AI là một dịch vụ cho phép người dùng "tạo bạn gái AI của riêng mình" với hình ảnh quảng cáo gợi cảm, nhưng tài liệu về quyền riêng tư của ứng dụng nói rằng họ sẽ không bán dữ liệu người dùng.
- Người dùng có thể không cân nhắc kỹ lưỡng về thông tin họ tiết lộ cho chatbot, bao gồm sở thích tình dục, vị trí, hoặc cảm xúc riêng tư, có thể gây hại cho danh tiếng nếu hệ thống chatbot bị hack hoặc dữ liệu bị rò rỉ.
📌 Các "bạn gái AI" và các dịch vụ chatbot tình cảm khác đang đặt ra những rủi ro lớn về quyền riêng tư và bảo mật thông tin cá nhân. Với hơn 100 triệu lượt tải xuống và việc sử dụng các tracker gửi thông tin đến các công ty lớn và quốc tế, người dùng cần phải cực kỳ cẩn trọng khi chia sẻ thông tin cá nhân. Mặc dù một số ứng dụng như Romantic AI tuyên bố không bán dữ liệu người dùng, nhưng vẫn còn nhiều vấn đề về minh bạch và an toàn dữ liệu. Người dùng nên áp dụng các biện pháp bảo mật tốt nhất như sử dụng mật khẩu mạnh, không đăng nhập qua Facebook hoặc Google, xóa dữ liệu và từ chối thu thập dữ liệu khi có thể.
Citations:
[1] https://www.wired.com/story/ai-girlfriends-privacy-nightmare/