• Starling Bank, một ngân hàng trực tuyến tại Vương quốc Anh, cảnh báo rằng "hàng triệu" người có thể trở thành nạn nhân của các vụ lừa đảo sử dụng AI để bắt chước giọng nói của họ.
• Theo ngân hàng này, những kẻ lừa đảo có thể sử dụng AI để sao chép giọng nói của một người chỉ từ 3 giây âm thanh, ví dụ như từ một video được đăng tải trực tuyến.
• Sau khi có được giọng nói giả mạo, bọn tội phạm có thể xác định bạn bè và người thân của nạn nhân, rồi sử dụng giọng nói được AI bắt chước để thực hiện cuộc gọi yêu cầu chuyển tiền.
• Một cuộc khảo sát do Starling Bank thực hiện với hơn 3.000 người trưởng thành cho thấy hơn 1/4 số người được hỏi cho biết họ đã bị nhắm mục tiêu bởi một vụ lừa đảo sử dụng AI bắt chước giọng nói trong 12 tháng qua.
• Đáng lo ngại là 46% số người được hỏi không biết về sự tồn tại của loại lừa đảo này, và 8% sẽ chuyển tiền theo yêu cầu của bạn bè hoặc người thân, ngay cả khi họ cảm thấy cuộc gọi có điều gì đó kỳ lạ.
• Lisa Grahame, Giám đốc An ninh Thông tin của Starling Bank, nhấn mạnh rằng mọi người thường xuyên đăng nội dung có ghi âm giọng nói của họ lên mạng mà không hề nghĩ rằng điều này khiến họ dễ bị tội phạm nhắm mục tiêu hơn.
• Để phòng tránh, ngân hàng khuyến khích mọi người thống nhất một "cụm từ an toàn" với người thân - một cụm từ ngẫu nhiên, đơn giản, dễ nhớ và khác với các mật khẩu khác - có thể được sử dụng để xác minh danh tính qua điện thoại.
• Ngân hàng khuyên không nên chia sẻ cụm từ an toàn qua tin nhắn vì có thể khiến kẻ lừa đảo dễ dàng phát hiện. Nếu buộc phải chia sẻ qua tin nhắn, nên xóa ngay sau khi người kia đã đọc.
• Khi AI ngày càng thành thạo trong việc bắt chước giọng nói con người, lo ngại về khả năng gây hại của nó ngày càng gia tăng, ví dụ như giúp tội phạm truy cập vào tài khoản ngân hàng của nạn nhân và lan truyền thông tin sai lệch.
• Đầu năm nay, OpenAI, công ty phát triển chatbot AI tạo sinh ChatGPT, đã giới thiệu công cụ sao chép giọng nói Voice Engine nhưng chưa công bố rộng rãi, do lo ngại về "khả năng lạm dụng giọng nói tổng hợp".
📌 Starling Bank cảnh báo hàng triệu người có thể bị lừa bởi AI bắt chước giọng nói. Khảo sát cho thấy 25% đã bị nhắm mục tiêu, 46% không biết về loại lừa đảo này. Ngân hàng khuyến nghị sử dụng "cụm từ an toàn" để xác minh danh tính qua điện thoại.
https://edition.cnn.com/2024/09/18/tech/ai-voice-cloning-scam-warning/index.html