- Google, Meta, OpenAI cùng nhiều công ty công nghệ lớn khác đã cam kết thực thi các biện pháp bảo vệ xung quanh công nghệ AI tạo sinh để chống lại nội dung lạm dụng tình dục trẻ em (CSAM).
- Liên minh này được thành lập bởi hai tổ chức phi lợi nhuận là Thorn (tổ chức công nghệ trẻ em) và All Tech is Human.
- Thorn được thành lập năm 2012 bởi các diễn viên Demi Moore và Ashton Kutcher, tập trung phát triển các công cụ và nguồn lực bảo vệ trẻ em khỏi bị lạm dụng và bóc lột tình dục.
- Báo cáo mới của Thorn kêu gọi áp dụng nguyên tắc "An toàn theo thiết kế" trong phát triển AI tạo sinh, ngăn chặn việc tạo ra CSAM trong toàn bộ vòng đời của một mô hình AI.
- Nội dung khiêu dâm trẻ em deepfake đã tăng vọt sau khi các mô hình AI tạo sinh được công khai, với các mô hình AI độc lập không cần dịch vụ đám mây đang được lưu hành trên các diễn đàn web đen.
- AI tạo sinh giúp việc tạo ra khối lượng nội dung CSAM dễ dàng hơn bao giờ hết. Một kẻ ấu dâm có thể tạo ra số lượng lớn CSAM, bao gồm cả chỉnh sửa hình ảnh và video gốc thành nội dung mới.
- Năm 2022, Thorn phát hiện hơn 824.466 tệp chứa tài liệu lạm dụng trẻ em. Năm ngoái, hơn 104 triệu tệp CSAM bị tình nghi đã được báo cáo chỉ riêng ở Mỹ.
📌 Liên minh các công ty công nghệ lớn như Google, Meta, OpenAI cam kết chống lại nội dung lạm dụng tình dục trẻ em được tạo bởi AI tạo sinh. Báo cáo của Thorn cho thấy AI tạo sinh giúp việc sản xuất CSAM dễ dàng hơn, với hơn 824.000 file lạm dụng trẻ em được phát hiện năm 2022 và 104 triệu file bị tình nghi ở Mỹ năm ngoái. Thorn kêu gọi áp dụng nguyên tắc "An toàn theo thiết kế" để ngăn chặn vấn nạn này.
Citations:
[1] https://decrypt.co/227731/aig-csam-google-meta-openai-fight-ai-child-sexual-abuse-material