Kẻ lừa đảo dùng AI đánh cắp khuôn mặt phụ nữ để đưa vào quảng cáo, pháp luật bó tay

- Michel Janse, một người có ảnh hưởng trên mạng xã hội, phát hiện video quảng cáo trên YouTube sử dụng hình ảnh của cô để quảng cáo thuốc bổ sung cương dương trong khi cô đang đi tuần trăng mật.
- Kẻ lừa đảo dường như đã đánh cắp và thao túng video phổ biến nhất của Janse bằng cách sử dụng các công cụ trí tuệ nhân tạo mới.
- Các công ty như HeyGen và Eleven Labs cung cấp công cụ tạo giọng nói tổng hợp, hoán đổi âm thanh trên video có sẵn và làm cho kết quả giả mạo trở nên đáng tin hơn.
- Những kẻ xấu đang thu thập video trên mạng xã hội phù hợp với nhân khẩu học của một bài quảng cáo, dẫn đến sự gia tăng các quảng cáo được tạo ra bằng danh tính bị đánh cắp.
- Olga Loiek, một sinh viên 20 tuổi, phát hiện ra gần 5,000 video lan truyền trên các trang mạng xã hội Trung Quốc, trong đó bản sao AI của cô ca ngợi Nga và Tổng thống Putin.
- Nỗ lực ngăn chặn loại trộm danh tính mới này còn chậm. Các sở cảnh sát thiếu nguồn lực để điều tra tội phạm mạng và không có luật liên bang nào về deepfake tồn tại.
- Carrie Williams, một giám đốc nhân sự 46 tuổi, phát hiện ra một quảng cáo 30 giây trên YouTube sử dụng hình ảnh của cô để thảo luận về kích thước dương vật của đàn ông.

📌 AI đang tạo ra một làn sóng trộm danh tính mới, nhắm vào phụ nữ và những người có ít nguồn lực. Các nạn nhân cảm thấy bất lực vì thiếu biện pháp khắc phục và pháp luật chưa theo kịp để bảo vệ họ khỏi deepfake lừa đảo lan truyền nhanh chóng trên toàn cầu.

Citations:
[1] https://www.washingtonpost.com/technology/2024/03/28/ai-women-clone-ads/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo