- Slack đang vấp phải tranh cãi xoay quanh việc mặc định thu thập dữ liệu khách hàng để huấn luyện các mô hình AI sau khi ra mắt tính năng AI vào tháng 2.
- Kỹ sư Aaron Maurer của Slack thừa nhận chính sách bảo mật của công ty cần làm rõ hơn về cách áp dụng các nguyên tắc này cho Slack AI. Ông giải thích Slack không huấn luyện các mô hình ngôn ngữ lớn (LLM) trên dữ liệu khách hàng.
- Tuy nhiên, những thay đổi này dường như chưa giải quyết được mối quan ngại chính của người dùng chưa bao giờ đồng ý rõ ràng việc chia sẻ các cuộc trò chuyện và nội dung Slack khác để sử dụng trong huấn luyện AI.
- Tranh cãi xung quanh chính sách này không mới, với Wired cảnh báo từ tháng 4 và TechCrunch đưa tin chính sách đã có từ ít nhất tháng 9/2023.
- Kỹ sư và nhà văn Gergely Orosz kêu gọi các công ty chọn không chia sẻ dữ liệu cho đến khi chính sách được làm rõ, lập luận rằng một bài đăng blog không phải là chính sách bảo mật.
- Có sự mâu thuẫn giữa các nguyên tắc bảo mật của Slack (cho biết hệ thống phân tích dữ liệu khách hàng để phát triển mô hình AI/ML) và trang Slack AI (tuyên bố không sử dụng dữ liệu khách hàng để huấn luyện AI).
📌 Slack đang đối mặt với sự phản đối gay gắt của người dùng về chính sách mặc định thu thập dữ liệu để huấn luyện AI. Mặc dù công ty đã đưa ra phản hồi, nhưng vẫn chưa giải quyết được mối lo ngại cốt lõi về việc thiếu sự đồng ý rõ ràng từ phía người dùng. Tranh cãi này đã xuất hiện từ ít nhất tháng 9/2023 và cho thấy sự mâu thuẫn giữa các nguyên tắc bảo mật và tiếp thị của Slack.
Citations:
[1] https://arstechnica.com/tech-policy/2024/05/slack-defends-default-opt-in-for-ai-training-on-chats-amid-user-outrage/