Khi sử dụng ChatGPT và các chatbot AI, cần tránh chia sẻ 5 loại thông tin nhạy cảm

  • ChatGPT và các chatbot AI khác ghi nhớ thông tin cá nhân từ các cuộc trò chuyện để cá nhân hóa phản hồi. Ví dụ, ChatGPT có thể nhớ sở thích ăn uống, thông tin về con cái hoặc vấn đề sức khỏe của người dùng.

  • Các công ty AI cần dữ liệu để cải thiện mô hình của họ, nhưng ngay cả họ cũng khuyên người dùng không nên chia sẻ thông tin nhạy cảm. OpenAI khuyến cáo: "Vui lòng không chia sẻ bất kỳ thông tin nhạy cảm nào trong cuộc trò chuyện của bạn".

  • Khi nhập thông tin vào chatbot, người dùng mất quyền kiểm soát đối với dữ liệu đó. Vào tháng 3/2023, một lỗi của ChatGPT đã cho phép một số người dùng xem được nội dung mà người khác nhập vào trong cuộc trò chuyện.

  • 5 loại thông tin không nên chia sẻ với chatbot bao gồm: thông tin nhận dạng (số an sinh xã hội, bằng lái xe, hộ chiếu, ngày sinh, địa chỉ), kết quả y tế, tài khoản tài chính, thông tin độc quyền của công ty và thông tin đăng nhập (mật khẩu, mã PIN).

  • Khi đưa ra phản hồi về câu trả lời của bot (thích hoặc không thích), người dùng có thể vô tình cho phép sử dụng nội dung trò chuyện để đánh giá và huấn luyện AI. Nếu cuộc trò chuyện bị gắn cờ vì lý do an toàn, nhân viên công ty có thể xem xét nó.

  • Claude của Anthropic mặc định không sử dụng cuộc trò chuyện để huấn luyện và xóa dữ liệu sau hai năm. ChatGPT của OpenAI, Copilot của Microsoft và Gemini của Google sử dụng cuộc trò chuyện nhưng cho phép người dùng từ chối trong cài đặt.

  • Để bảo vệ quyền riêng tư, người dùng nên xóa các cuộc trò chuyện thường xuyên. Jason Clinton, Giám đốc an ninh thông tin của Anthropic, khuyên những người đặc biệt quan tâm đến quyền riêng tư nên xóa mọi cuộc trò chuyện sau khi kết thúc.

  • ChatGPT cung cấp tính năng Temporary Chat (Trò chuyện tạm thời) giống như chế độ ẩn danh của trình duyệt. Khi bật tính năng này, ChatGPT sẽ không thêm nội dung trò chuyện vào hồ sơ của bạn, không hiển thị trong lịch sử và không sử dụng nội dung để huấn luyện mô hình.

  • DeepSeek, có máy chủ tại Trung Quốc, là ngoại lệ đáng chú ý. Theo chính sách quyền riêng tư, họ có thể lưu giữ dữ liệu của người dùng vô thời hạn và không cung cấp tùy chọn từ chối.

📌 Khi sử dụng ChatGPT và các chatbot AI, cần tránh chia sẻ 5 loại thông tin nhạy cảm: thông tin nhận dạng, kết quả y tế, tài khoản tài chính, dữ liệu công ty và thông tin đăng nhập. Bảo vệ quyền riêng tư bằng cách sử dụng tính năng trò chuyện tạm thời và xóa lịch sử thường xuyên.

https://www.wsj.com/tech/personal-tech/chatgpt-tips-privacy-987099b4

#WSJ

5 điều bạn không nên nói với ChatGPT

Đừng để phát ban bí ẩn của bạn trở thành dữ liệu huấn luyện AI—hoặc xuất hiện trong một vụ rò rỉ dữ liệu

Bởi Nicole Nguyen Ngày 30 tháng 3 năm 2025 5:30 sáng ET

Tôi đã học được nhiều điều từ ChatGPT của OpenAI trong vài năm qua. Và bot này cũng đã học được nhiều điều về tôi.

AI đã thu thập những thông tin nhỏ từ nhiều cuộc trò chuyện của chúng tôi và lưu trữ trong bộ nhớ. ChatGPT nhớ rằng tôi thích trứng, tôi có một em bé bú sữa rồi ngủ và tôi cần điều chỉnh bài tập vì lưng tôi đau.

ChatGPT cũng nhớ những điều cá nhân hơn mà tôi sẽ không nhắc lại ở đây.

Không quan trọng bạn chọn chatbot nào: Bạn chia sẻ càng nhiều, chatbot càng có thể giúp đỡ bạn hiệu quả. Bệnh nhân tải lên kết quả xét nghiệm máu để phân tích và kỹ sư dán các đoạn mã chưa công bố để được giúp gỡ lỗi. Một số nhà nghiên cứu AI nói rằng chúng ta nên cân nhắc kỹ lưỡng hơn về những gì chúng ta nói với các công cụ có vẻ giống con người này. Một số thông tin đặc biệt rủi ro khi chia sẻ, chẳng hạn như số An sinh Xã hội hoặc dữ liệu độc quyền của công ty bạn.

Các công ty AI đang khao khát dữ liệu để cải thiện mô hình của họ, nhưng ngay cả họ cũng không muốn những bí mật của chúng ta. "Vui lòng không chia sẻ bất kỳ thông tin nhạy cảm nào trong cuộc trò chuyện của bạn," OpenAI kêu gọi. Và Google van nài người dùng Gemini: "Đừng nhập thông tin bảo mật hoặc bất kỳ dữ liệu nào bạn không muốn người đánh giá xem."

Các cuộc trò chuyện về phát ban kỳ lạ hoặc những sai sót tài chính của bạn có thể được sử dụng để huấn luyện AI trong tương lai—hoặc bị lộ ra trong một vụ rò rỉ dữ liệu, theo các nhà nghiên cứu AI. Dưới đây là những điều bạn nên giữ ngoài các yêu cầu của mình, và cách để có những cuộc trò chuyện riêng tư hơn với AI.

Giữ bí mật những điều này

Chatbot có thể nghe giống con người một cách đáng sợ, khiến mọi người trở nên cởi mở đáng ngạc nhiên trong các cuộc trò chuyện với chúng. Khi bạn nhập thông tin vào chatbot, "bạn mất quyền sở hữu đối với nó," theo Jennifer King, một thành viên tại Viện AI Lấy Con người làm Trung tâm Stanford.

Vào tháng 3 năm 2023, một lỗi của ChatGPT cho phép một số người dùng xem những gì người khác đã nhập ban đầu trong cuộc trò chuyện của họ. Công ty đã khắc phục lỗi này. OpenAI cũng đã gửi email xác nhận đăng ký cho những người sai, tiết lộ tên và họ, địa chỉ email và thông tin thanh toán của người dùng.

Lịch sử trò chuyện của bạn cũng có thể bị bao gồm trong kho dữ liệu bị hack hoặc bị tiết lộ nếu công ty AI nhận được lệnh khám xét. Bảo vệ tài khoản của bạn bằng mật khẩu mạnh và xác thực đa yếu tố. Và bỏ qua những chi tiết cụ thể sau:

• Thông tin nhận dạng. Điều này bao gồm số An sinh Xã hội, giấy phép lái xe và số hộ chiếu của bạn, cũng như ngày sinh, địa chỉ và số điện thoại của bạn. Một số chatbot cố gắng biên tập lại chúng. "Chúng tôi muốn các mô hình AI của mình học về thế giới, không phải cá nhân riêng tư, và chúng tôi tích cực giảm thiểu việc thu thập thông tin cá nhân," một phát ngôn viên của OpenAI cho biết.

• Kết quả y tế. Bảo mật là giá trị cốt lõi trong chăm sóc sức khỏe để ngăn chặn phân biệt đối xử và sự xấu hổ, nhưng chatbot thường không thuộc phần bảo vệ đặc biệt dành cho dữ liệu sức khỏe. Nếu bạn muốn yêu cầu AI diễn giải kết quả xét nghiệm, hãy cắt bớt hình ảnh hoặc chỉnh sửa tài liệu trước khi tải lên: "Cố gắng giữ nó chỉ ở kết quả xét nghiệm và biên tập lại," King khuyên.

• Tài khoản tài chính. Bảo vệ số tài khoản ngân hàng và đầu tư của bạn, có thể được sử dụng để theo dõi hoặc truy cập vào tiền của bạn.

• Thông tin độc quyền của công ty. Nếu bạn đang sử dụng các phiên bản phổ biến của chatbot cho mục đích công việc, bạn có thể vô tình tiết lộ dữ liệu khách hàng hoặc bí mật thương mại không công khai—ngay cả với một việc nhỏ như soạn thảo email. Samsung đã cấm ChatGPT sau khi một kỹ sư rò rỉ mã nguồn nội bộ cho dịch vụ này. Nếu AI hữu ích trong công việc của bạn, công ty bạn nên đăng ký phiên bản doanh nghiệp, hoặc có AI tùy chỉnh riêng với các biện pháp bảo vệ cụ thể của công ty.

• Thông tin đăng nhập. Với sự gia tăng của các tác nhân AI có thể thực hiện các nhiệm vụ trong thế giới thực, có nhiều lý do để giao thông tin đăng nhập tài khoản cho chatbot. Những dịch vụ này không được xây dựng như các kho số—hãy lưu mật khẩu, mã PIN và câu hỏi bảo mật cho trình quản lý mật khẩu của bạn.

Che dấu dấu vết của bạn

Khi bạn đưa ra phản hồi về phản hồi của bot—thường là thích hoặc không thích—bạn có thể đang cho phép yêu cầu của bạn và kết quả được đánh giá và thậm chí được sử dụng để huấn luyện. Nếu cuộc trò chuyện bị gắn cờ vì lý do an toàn (ví dụ: nếu bạn đề cập đến bạo lực), nhân viên công ty có thể xem xét.

Claude của Anthropic theo mặc định không sử dụng cuộc trò chuyện của bạn để huấn luyện và xóa dữ liệu sau 2 năm. ChatGPT của OpenAI, Copilot của Microsoft và Gemini của Google sử dụng các cuộc trò chuyện, nhưng cung cấp tùy chọn từ chối trong cài đặt. Nếu bạn quan tâm đến quyền riêng tư, hãy thử những mẹo này:

Xóa thường xuyên. Người dùng cực kỳ cẩn thận nên xóa mọi cuộc trò chuyện sau khi kết thúc, theo Jason Clinton, Giám đốc An ninh Thông tin của Anthropic. Các công ty thường xóa dữ liệu "đã xóa" sau 30 ngày.

Một ngoại lệ? DeepSeek, có máy chủ ở Trung Quốc. Theo chính sách bảo mật của DeepSeek, họ có thể lưu giữ dữ liệu của bạn vô thời hạn, và không có tùy chọn từ chối.

Sử dụng trò chuyện tạm thời. Trò chuyện Tạm thời của ChatGPT, nằm ở góc trên bên phải của cửa sổ trò chuyện, giống như chế độ Ẩn danh trên trình duyệt của bạn. Bật tính năng này để ngăn ngân hàng bộ nhớ của ChatGPT thêm tài liệu đó vào hồ sơ của bạn. Cuộc trò chuyện sẽ không xuất hiện trong lịch sử của bạn, và nội dung sẽ không được sử dụng để huấn luyện mô hình.

Hỏi ẩn danh. Duck.ai, của công cụ tìm kiếm riêng tư DuckDuckGo, ẩn danh hóa yêu cầu đến mô hình AI bạn chọn, bao gồm Claude và GPT của OpenAI, và nói rằng dữ liệu không được sử dụng để huấn luyện mô hình. Duck.ai không thể làm mọi thứ mà một bot dịch vụ đầy đủ có thể làm, chẳng hạn như phân tích tệp.

Hãy nhớ rằng: Chatbot được lập trình để tiếp tục cuộc trò chuyện. Trách nhiệm của bạn là giữ lại—hoặc nhấn "xóa."

News Corp, chủ sở hữu của The Wall Street Journal, có quan hệ đối tác cấp phép nội dung với OpenAI.

Liên hệ Nicole Nguyen tại nicole.nguyen@wsj.com

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo