• Shane Jones, một kỹ sư của Microsoft, đã cảnh báo công ty về việc công cụ AI Copilot Designer tạo ra hình ảnh bạo lực và tình dục một cách ngẫu nhiên.
• Microsoft không hành động để gỡ bỏ công cụ hoặc triển khai các biện pháp bảo vệ, thay vào đó chỉ đề nghị Jones báo cáo vấn đề cho OpenAI, công ty tạo ra mô hình DALL-E mà Copilot Designer sử dụng.
• OpenAI không phản hồi với Jones, khiến anh ta phải công khai vấn đề thông qua việc đăng một bức thư mở trên LinkedIn và sau đó là gửi thư cho các nhà lập pháp và các bên liên quan khác.
• Jones đã gửi thư cho Chủ tịch FTC Lina Khan, cảnh báo rằng Microsoft và OpenAI đã biết về vấn đề này từ ít nhất tháng 10 và sẽ tiếp tục tiếp thị sản phẩm cho "Bất kỳ ai. Ở bất cứ đâu. Trên bất kỳ thiết bị nào" trừ khi FTC can thiệp.
• Jones cũng yêu cầu hội đồng quản trị của Microsoft điều tra quyết định AI của Microsoft và tiến hành "một đánh giá độc lập về quy trình báo cáo sự cố AI có trách nhiệm của Microsoft".
• Phát ngôn viên của Microsoft không xác nhận liệu công ty có đang thực hiện các bước lọc hình ảnh hay không, nhưng khi thử nghiệm lại các lệnh của Jones, Ars nhận được thông báo lỗi.
📌 Microsoft đang đối mặt với cáo buộc nghiêm trọng về việc công cụ AI Copilot Designer của họ tạo ra hình ảnh bạo lực và tình dục, mặc dù đã được cảnh báo. Công ty không chỉ không hành động để giải quyết vấn đề mà còn không phản hồi khi được cảnh báo. Sự việc này đã dẫn đến việc Shane Jones, một kỹ sư của Microsoft, phải nỗ lực đặc biệt để công khai vấn đề, bao gồm việc gửi thư cho FTC và hội đồng quản trị của Microsoft.
https://arstechnica.com/tech-policy/2024/03/microsoft-accused-of-selling-ai-tool-that-spews-violent-sexual-images-to-kids/