Joaquin Oliver, 17 tuổi, bị sát hại trong vụ xả súng ở trường trung học Parkland (Mỹ) năm 2018.
Gia đình dùng AI huấn luyện từ mạng xã hội và tin nhắn cũ để tái tạo giọng và phong cách nói chuyện của cậu, phục vụ chiến dịch kêu gọi kiểm soát súng.
Mẹ Joaquin trò chuyện hàng giờ với AI, nghe con “nói” những câu như “Con yêu mẹ”, tìm sự an ủi sau mất mát.
Nhà báo Jim Acosta phỏng vấn “AI Joaquin” trên Substack, gây tranh luận về tính xác thực và đạo đức nghề báo.
Công nghệ này có thể mở ra thị trường “hồi sinh” người đã khuất – từ video tưởng nhớ trên sân khấu (như Rod Stewart chiếu hình AI Ozzy Osbourne) tới avatar phát biểu tại tòa.
Thách thức pháp lý: quyền cá nhân của người đã mất chưa rõ ràng; di sản số (ảnh, tin nhắn, ghi âm) có thể bị tái sử dụng ngoài ý muốn.
Rủi ro: AI “ảo” có thể đăng nội dung mới, tương tác mạng xã hội, hoặc nói những điều trái với quan điểm thật của người đã khuất.
Công nghệ cải thiện sẽ khiến phân biệt người thật – AI ngày càng khó; nguy cơ bị lợi dụng trong tuyên truyền hoặc thuyết âm mưu.
Nhu cầu AI đồng hành gia tăng trong xã hội cô đơn, nhưng khác biệt lớn giữa “bạn ảo” và “gọi hồn” cá nhân cụ thể.
Vấn đề trung tâm: giới hạn đạo đức, sự đồng thuận của gia đình, và tác động lâu dài tới khái niệm sống – chết.
📌 Việc nhà báo phỏng vấn người đã chết nhờ dùng AI tái hiện cho thấy sức mạnh lẫn rủi ro của “hồi sinh kỹ thuật số”. Công nghệ có thể an ủi người mất mát, nhưng đặt ra câu hỏi lớn về quyền cá nhân, tính xác thực và đạo đức xã hội khi ranh giới giữa sống – chết, thật – ảo ngày càng mờ. Thách thức pháp lý: quyền cá nhân của người đã mất chưa rõ ràng; di sản số (ảnh, tin nhắn, ghi âm) có thể bị tái sử dụng ngoài ý muốn.
https://www.theguardian.com/commentisfree/2025/aug/08/journalist-ai-interview-dead-child-joaquin-oliver