OpenAI buộc phải gỡ tính năng tìm kiếm hội thoại ChatGPT do rò rỉ dữ liệu riêng tư lên Google

 

  • Ngày 31/7/2025, OpenAI đột ngột gỡ bỏ tính năng cho phép người dùng chia sẻ và làm hội thoại ChatGPT có thể tìm kiếm trên Google, sau khi phát hiện hàng ngàn cuộc trò chuyện riêng tư bị lộ công khai qua cú pháp tìm kiếm “site:chatgpt.com/share”.

  • Dù tính năng này yêu cầu người dùng chủ động bật và đánh dấu chọn, sự cố vẫn cho thấy các biện pháp bảo vệ dữ liệu không đủ mạnh và dễ gây hiểu lầm cho người dùng.

  • Nhiều hội thoại bị lộ chứa thông tin nhạy cảm như tên thật, địa điểm, câu hỏi sức khỏe, tình trạng nghề nghiệp, và cả bản chỉnh sửa hồ sơ xin việc – gây lo ngại sâu sắc về hậu quả nếu rơi vào tay bên thứ ba.

  • Nhóm bảo mật của OpenAI thừa nhận rằng “các biện pháp bảo vệ không đủ ngăn chặn việc chia sẻ ngoài ý muốn”, và cho rằng việc bật chia sẻ chỉ bằng một hộp chọn là quá dễ gây nhầm lẫn.

  • Đây không phải là sự cố đầu tiên: Google Bard từng gặp lỗi tương tự năm 2023, và Meta AI cũng bị chỉ trích vì hiển thị hội thoại riêng tư lên nguồn cấp công khai.

  • Sự việc cho thấy vấn đề hệ thống của ngành AI: chạy theo đổi mới để cạnh tranh mà chưa kịp xây dựng đầy đủ các rào chắn quyền riêng tư.

  • Với doanh nghiệp – nhóm đang ngày càng sử dụng AI cho phân tích cạnh tranh và chiến lược – sự cố này là hồi chuông cảnh báo về quản lý dữ liệu, dù OpenAI khẳng định sản phẩm cho doanh nghiệp có bảo mật riêng.

  • Các chuyên gia khuyến nghị: doanh nghiệp cần đặt câu hỏi rõ ràng với nhà cung cấp AI về quyền truy cập dữ liệu, bảo mật hội thoại, và cơ chế phản hồi khi có sự cố.

  • Sự cố còn làm nổi bật vấn đề thiết kế trải nghiệm người dùng chưa đủ “chống nhầm lẫn” – đặc biệt trong các tính năng có rủi ro dữ liệu – dù có nhiều bước xác nhận kỹ thuật.

  • Một số chuyên gia cho rằng cần thiết kế mặc định bảo mật cao hơn, với yêu cầu đồng ý rõ ràng và cảnh báo hậu quả rõ ràng, thay vì chỉ một checkbox đơn giản.

  • Tính năng “chia sẻ có thể tìm kiếm” của ChatGPT về lý thuyết có thể tạo nền tảng tri thức giống như Stack Overflow, nhưng thực tế cho thấy sự nguy hiểm khi người dùng chưa hiểu hết rủi ro.

  • Các công ty AI được khuyến nghị phải xây dựng cơ chế đánh giá hậu kỳ (post-mortem), đặt câu hỏi: “Điều tồi tệ nhất sẽ ra sao nếu 20% người dùng hiểu sai tính năng?”

  • Sự cố cũng chứng minh tầm quan trọng của phản ứng nhanh: OpenAI xử lý trong vài giờ, hạn chế tổn thất danh tiếng, nhưng vẫn tạo dư chấn lớn trong cộng đồng.

📌 OpenAI gỡ bỏ tính năng chia sẻ hội thoại ChatGPT sau khi dữ liệu người dùng bị Google lập chỉ mục, gây rò rỉ thông tin cá nhân nghiêm trọng. Dù tính năng là tùy chọn, thiết kế giao diện thiếu cảnh báo rõ ràng khiến nhiều người chia sẻ nhầm. Vụ việc cảnh tỉnh ngành AI về tầm quan trọng sống còn của quyền riêng tư người dùng và cơ chế phản ứng nhanh.

https://venturebeat.com/ai/openai-removes-chatgpt-feature-after-private-conversations-leak-to-google-search/

Không có file đính kèm.

21

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo