• OpenAI ra mắt mô hình GPT-4o mới vào ngày 13/5, với khả năng giải phương trình, kể chuyện và nhận diện cảm xúc từ biểu hiện khuôn mặt.
• Chuyên gia lo ngại GPT-4o có thể thu thập nhiều thông tin hơn, gây rủi ro về quyền riêng tư. OpenAI từng gặp vấn đề với cơ quan quản lý ở Ý vì thu thập dữ liệu cá nhân trái phép.
• Chính sách quyền riêng tư của OpenAI cho phép thu thập nhiều loại dữ liệu, bao gồm thông tin cá nhân, dữ liệu sử dụng và nội dung người dùng nhập vào.
• ChatGPT sử dụng dữ liệu chia sẻ để huấn luyện mô hình, trừ khi người dùng tắt tính năng này trong cài đặt hoặc sử dụng phiên bản doanh nghiệp.
• OpenAI tuyên bố "ẩn danh hóa" dữ liệu cá nhân, nhưng cách tiếp cận dường như là "thu thập tất cả trước, sắp xếp sau".
• Chính sách cho phép OpenAI chia sẻ thông tin cá nhân với các đối tác, nhà cung cấp dịch vụ và cơ quan thực thi pháp luật.
• OpenAI đã giới thiệu các công cụ kiểm soát quyền riêng tư, cho phép người dùng quản lý dữ liệu của họ.
• Người dùng có thể tắt việc đóng góp dữ liệu để cải thiện mô hình trong phần cài đặt.
• Sử dụng "Temporary Chat" giúp ngăn OpenAI thu thập dữ liệu, nhưng sẽ làm giảm chức năng và độ chính xác của ChatGPT.
• Các biện pháp bảo vệ quyền riêng tư khác bao gồm: xóa lịch sử trò chuyện, thêm hướng dẫn cá nhân hóa, kiểm soát liên kết chia sẻ, yêu cầu xuất dữ liệu và xóa tài khoản.
• Hạn chế chia sẻ dữ liệu có thể ảnh hưởng đến trải nghiệm sử dụng, giảm độ cá nhân hóa và độ chính xác của AI.
📌 GPT-4o của OpenAI mang lại khả năng mạnh mẽ nhưng cũng gây lo ngại về quyền riêng tư. Người dùng cần cân nhắc giữa bảo vệ dữ liệu và tối ưu trải nghiệm, có thể áp dụng các biện pháp như tắt thu thập dữ liệu, sử dụng Temporary Chat và hạn chế chia sẻ thông tin nhạy cảm.
https://www.wired.com/story/can-chatgpt-4o-be-trusted-with-your-private-data/