Báo động: Công nghệ AI đang tạo ra hình ảnh lạm dụng trẻ em dựa trên nạn nhân thật

• Báo cáo mới từ Internet Watch Foundation (IWF) cho thấy AI đang được sử dụng để tạo ra hình ảnh deepfake về lạm dụng tình dục trẻ em, với điều đáng lo ngại là các hình ảnh này dựa trên nạn nhân thực.

• Mặc dù các công cụ AI để tạo ra những hình ảnh này vẫn hợp pháp ở Anh, việc tạo ra hình ảnh lạm dụng tình dục trẻ em bằng AI là bất hợp pháp.

• Một trường hợp đau lòng liên quan đến nạn nhân tên Olivia, người bị cưỡng hiếp và tra tấn từ 3 đến 8 tuổi. Dù đã được cảnh sát giải cứu năm 2013, người dùng dark web vẫn tiếp tục khai thác các công cụ AI để tạo ra hình ảnh lạm dụng mới về cô.

• IWF phát hiện một mô hình để tạo hình ảnh của Olivia, hiện đã hơn 20 tuổi, có sẵn để tải xuống miễn phí. Ngoài ra, một diễn đàn dark web đã chia sẻ liên kết đến các mô hình AI cho 128 nạn nhân lạm dụng tình dục trẻ em khác có tên.

90% hình ảnh được tạo bởi AI đủ thực tế để được phân loại theo cùng luật với tài liệu lạm dụng tình dục trẻ em thực (CSAM).

• Hình ảnh ngày càng trở nên cực đoan hơn, một số đạt chất lượng gần như hoàn hảo, giống như ảnh thật. Hàng trăm hình ảnh có thể được tạo ra chỉ bằng một cú nhấp chuột.

Việc lưu hành liên tục các hình ảnh lạm dụng gây ra sự tra tấn tinh thần đối với những người sống sót, họ sợ bị nhận ra hoặc xác định từ những hình ảnh này.

• Susie Hargreaves, Giám đốc điều hành IWF, nhấn mạnh nhu cầu cấp thiết cần có phản ứng ngay lập tức và hiệu quả từ ngành công nghiệp, cơ quan quản lý và chính phủ để giải quyết mối đe dọa ngày càng tăng này.

• Richard Collard của NSPCC kêu gọi bảo vệ trẻ em là một thành phần quan trọng trong bất kỳ luật nào của chính phủ về an toàn AI. Ông kêu gọi các công ty công nghệ hành động quyết liệt để ngăn chặn sự lan truyền của hình ảnh lạm dụng được tạo ra bởi AI.

• Một phát ngôn viên của chính phủ đã ghi nhận báo cáo của IWF và cam kết xem xét cẩn thận các khuyến nghị của nó.

📌 AI đang được sử dụng để tạo ra hình ảnh deepfake lạm dụng tình dục trẻ em dựa trên nạn nhân thực, với 90% hình ảnh đủ thực tế để bị coi là bất hợp pháp. Cần có hành động khẩn cấp từ chính phủ, công nghiệp và cơ quan quản lý để bảo vệ trẻ em và hỗ trợ người sống sót.

https://www.techtimes.com/articles/306797/20240722/ai-deepfake-technology-fuels-new-wave-child-abuse-imagery-heres.htm

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo