- Sau vụ tự tử của Sewell Setzer III, 14 tuổi, và vụ kiện từ mẹ của cậu bé, Character AI đã áp dụng nhiều biện pháp an toàn mới nhằm hạn chế rủi ro cho người dùng.
- Setzer đã có mối quan hệ cảm xúc và tình dục với một chatbot mô phỏng nhân vật Daenerys Targaryen từ Game of Thrones trong nhiều tháng trước khi tự tử. Mẹ cậu, luật sư Megan Garcia, cáo buộc nền tảng đã không đảm bảo an toàn cho người dùng trẻ tuổi.
- Vụ kiện cũng nhắm vào Google và Alphabet, sau khi hai nhà sáng lập của Character AI quay trở lại Google trong một thỏa thuận trị giá 2,7 tỷ USD vào tháng 8/2024.
- Các biện pháp mới của Character AI bao gồm cảnh báo khi người dùng trò chuyện quá lâu, hướng dẫn người dùng đến đường dây phòng chống tự tử và hạn chế nội dung nhạy cảm cho người dùng dưới 18 tuổi.
- Character AI đã gỡ bỏ nhiều chatbot do người dùng tạo vì vi phạm chính sách, gây ra phản ứng dữ dội từ cộng đồng trên Reddit và Discord. Nhiều người dùng chỉ trích rằng các biện pháp này làm giảm chất lượng và tính sáng tạo của nền tảng.
- Vụ kiện này làm nổi bật mối quan tâm của phụ huynh về ảnh hưởng tâm lý của công nghệ đối với trẻ em, đồng thời đặt ra câu hỏi về trách nhiệm pháp lý của các nền tảng AI trong bối cảnh luật Section 230 đang bị thử thách.
- Character AI nằm trong số nhiều ứng dụng AI cung cấp trải nghiệm tương tác cá nhân hóa cao nhưng thường thiếu biện pháp kiểm soát nghiêm ngặt so với các nền tảng như ChatGPT.
📌 Character AI đang đối mặt với thách thức lớn từ vụ kiện và phản ứng của người dùng sau khi áp dụng biện pháp an toàn mới. Vụ việc không chỉ làm rõ rủi ro của AI tương tác mà còn đặt ra câu hỏi về trách nhiệm pháp lý của các nền tảng này đối với người dùng trẻ tuổi.
https://decrypt.co/287925/character-ai-safety-rules-teen-user-commits-suicide