OpenAI thừa nhận quét tin nhắn ChatGPT và báo cảnh sát: người dùng có nên lo sợ?

  • OpenAI xác nhận đang triển khai hệ thống giám sát nội dung trò chuyện trên ChatGPT, nhằm phát hiện các trường hợp có nguy cơ gây hại đến người khác và có thể báo cáo cho cơ quan thực thi pháp luật.

  • Quy trình hoạt động: nội dung trò chuyện bị nghi ngờ sẽ được chuyển sang "specialized pipelines" để đội ngũ nhân sự nhỏ, được đào tạo theo chính sách sử dụng, đánh giá và quyết định hành động như khóa tài khoản hoặc báo cáo cảnh sát.

  • OpenAI nhấn mạnh chỉ báo cáo cho cảnh sát khi có "nguy cơ nghiêm trọng, tức thì gây tổn hại thể chất cho người khác".

  • Đối với các trường hợp người dùng có ý định tự hại hoặc tự tử, OpenAI tuyên bố hiện không chuyển cho cảnh sát, viện dẫn lý do bảo mật và tính riêng tư trong tương tác của ChatGPT.

  • Công ty liệt kê các hành vi bị cấm: khuyến khích tự tử, chế tạo hoặc sử dụng vũ khí, gây thương tích cho người khác, phá hủy tài sản hoặc tiến hành hành vi vi phạm an ninh hệ thống.

  • Vấn đề gây tranh cãi:

    • Người dùng không rõ cụ thể những loại nội dung nào có thể bị gắn cờ và báo cáo.

    • Chính sách mới bị cho là mâu thuẫn với lập trường “bảo vệ quyền riêng tư” mà OpenAI viện dẫn trong vụ kiện với New York Times, khi từ chối cung cấp bản ghi trò chuyện cho tòa án.

    • CEO Sam Altman từng thừa nhận ChatGPT không có tính bảo mật nghề nghiệp như luật sư hay nhà trị liệu, và dữ liệu có thể phải tiết lộ trong trường hợp pháp lý.

  • Bối cảnh: thời gian qua nhiều báo cáo cho thấy AI chatbot, bao gồm ChatGPT, có liên quan đến các ca tự hại, ảo giác, thậm chí tử vong, khiến dư luận và gia đình nạn nhân kêu gọi trách nhiệm từ các công ty AI.


📌 OpenAI xác nhận đang triển khai hệ thống giám sát nội dung trò chuyện trên ChatGPT, nhằm phát hiện các trường hợp có nguy cơ gây hại đến người khác và có thể báo cáo cho cơ quan thực thi pháp luật. OpenAI đang đối mặt với mâu thuẫn lớn: vừa phải bảo vệ người dùng khỏi nguy cơ bạo lực, vừa bị chỉ trích vi phạm quyền riêng tư khi quét và báo cáo nội dung trò chuyện. Công ty tuyên bố không báo cảnh sát với trường hợp tự hại, nhưng sẵn sàng can thiệp khi có dấu hiệu gây tổn hại cho người khác. Chính sách mới này tạo thêm lo ngại cho người dùng về sự minh bạch, bảo mật và ranh giới giám sát của AI.

https://futurism.com/openai-scanning-conversations-police

Không có file đính kèm.

15

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo