• Theo báo cáo từ startup Security Heroes, trong số 95.820 video khiêu dâm deepfake được phân tích từ nhiều nguồn khác nhau, 53% có sự xuất hiện của ca sĩ và diễn viên Hàn Quốc - cho thấy nhóm này bị nhắm mục tiêu không tương xứng.
• Deepfake là các tệp ảnh, video hoặc âm thanh được chỉnh sửa kỹ thuật số để mô tả một cách thuyết phục ai đó nói hoặc làm những điều họ chưa bao giờ làm.
• Tạo deepfake đã trở nên phổ biến đến mức một số thanh thiếu niên Hàn Quốc coi đó như một trò đùa. Họ không chỉ nhắm vào người nổi tiếng.
• Trên Telegram, các nhóm chat được tạo ra với mục đích cụ thể là lạm dụng tình dục phụ nữ thông qua hình ảnh, bao gồm cả học sinh trung học, giáo viên và thành viên gia đình.
• Phụ nữ có ảnh trên các nền tảng mạng xã hội như KakaoTalk, Instagram và Facebook thường xuyên bị nhắm mục tiêu.
• Thủ phạm sử dụng bot AI để tạo ra hình ảnh giả mạo, sau đó bán và/hoặc phát tán bừa bãi, cùng với tài khoản mạng xã hội, số điện thoại và tên người dùng KakaoTalk của nạn nhân.
• Một nhóm Telegram đã thu hút khoảng 220.000 thành viên, theo báo cáo của Guardian.
• Chính phủ Hàn Quốc đang có kế hoạch hình sự hóa việc sở hữu, mua bán và xem phim khiêu dâm deepfake.
• Các nhà hoạt động ở Seoul đã tổ chức một cuộc biểu tình chống lại nội dung deepfake bất hợp pháp vào ngày 6 tháng 9, kêu gọi chính phủ ban hành các biện pháp đối phó thích hợp.
• Vấn đề deepfake không chỉ giới hạn ở Hàn Quốc. Taylor Swift và các nữ sinh Úc cũng từng là mục tiêu của loại nội dung này.
• Deepfake được coi là một sản phẩm phụ có hại của AI, gây ra nhiều lo ngại về quyền riêng tư và an toàn trực tuyến.
📌 Khủng hoảng deepfake ở Hàn Quốc cho thấy mặt tối của AI tạo sinh, với 53% video nhắm vào nghệ sĩ Hàn. Chính phủ đang hình sự hóa các hành vi liên quan, nhưng thiệt hại đã xảy ra với hàng trăm nghìn nạn nhân bị lạm dụng hình ảnh trên mạng xã hội.
https://asiatimes.com/2024/09/ai-fueling-a-deepfake-porn-crisis-in-south-korea/