Nhiều trường hợp gần đây cho thấy AI tạo sinh tạo ra thông tin giả mạo: hai tờ báo lớn đăng danh sách sách hè với các tựa sách không tồn tại, báo cáo y tế của Nhà Trắng trích dẫn nghiên cứu không có thật, luật sư dùng AI để tạo ra hồ sơ pháp lý giả.
Hầu hết mọi người đều nghĩ mình đủ tỉnh táo để không bị AI lừa, nhưng nghiên cứu hàng chục năm chỉ ra con người có xu hướng tin tưởng máy móc dù biết có thể sai, gọi là "automation bias" (thiên vị tự động hóa).
AI tạo sinh như ChatGPT, Dall-E thường trả lời với giọng điệu uy quyền, tạo cảm giác chuyên gia, khiến người dùng dễ tin mọi câu trả lời là đúng mà không kiểm chứng lại.
Ví dụ điển hình: hàng trăm người Mỹ từng lái xe đến một trang trại ở Kansas để đối chất vì phần mềm định vị chỉ nhầm địa điểm, cho thấy sức mạnh của automation bias.
Lời cảnh báo của các hãng công nghệ như "AI có thể sai, hãy kiểm tra lại" thường không hiệu quả vì thói quen sử dụng công nghệ như "máy trả lời đúng".
Một số chuyên gia đề xuất chiến lược "không tin, phải kiểm chứng" (distrust but verify) khi dùng AI, khác với cách tiếp cận các công nghệ khác như dự báo thời tiết hay bản đồ số.
AI tạo sinh còn dễ mắc lỗi "ảo giác", nghĩa là tự bịa ra thông tin, và xu hướng này ngày càng tăng.
Áp lực từ môi trường làm việc, kỳ vọng tăng năng suất và sự bất ổn nghề nghiệp khiến nhiều người (kể cả luật sư) dễ lạm dụng AI mà không kiểm tra lại kết quả.
Một số chuyên gia cho rằng chỉ khi có hậu quả cụ thể (phạt nặng, tước giấy phép) mới khiến người dùng cân nhắc kỹ hơn khi sử dụng AI trong các lĩnh vực quan trọng.
Nhận định: AI tạo sinh không thông minh như vẻ ngoài, giao diện đối thoại chỉ tạo cảm giác thông minh, thực chất dễ mắc lỗi nghiêm trọng nếu không kiểm soát.
📌 AI tạo sinh ngày càng tạo ra nhiều thông tin giả mạo, gây hậu quả lớn trong pháp lý, truyền thông và đời sống. Con người có xu hướng tin tưởng máy móc một cách mù quáng (automation bias). Cần áp dụng chiến lược "không tin, phải kiểm chứng" và có chế tài mạnh để hạn chế lạm dụng AI, nhất là trong các lĩnh vực nhạy cảm.
https://www.washingtonpost.com/technology/2025/06/03/dont-trust-ai-automation-bias/