- Các nhà khoa học dữ liệu đang sử dụng mô hình ngôn ngữ lớn (LLM) để phát triển công cụ phát hiện tin giả, nhằm cảnh báo và đối phó với deepfake, tuyên truyền và thuyết âm mưu
- Nghiên cứu thần kinh học cho thấy con người không phải lúc nào cũng nhận biết được tin giả một cách có ý thức. Các chỉ số sinh học như nhịp tim, chuyển động mắt và hoạt động não bộ có thể thay đổi tinh tế khi tiếp xúc với nội dung thật và giả
- Khi nhìn khuôn mặt, dữ liệu theo dõi mắt cho thấy con người quét tìm tốc độ chớp mắt và thay đổi màu da do lưu lượng máu. Điều này giúp phát hiện deepfake
- Hệ thống AI có thể được cá nhân hóa dựa trên sở thích, tính cách và phản ứng cảm xúc của người dùng để phát hiện nội dung gây tác động mạnh nhất
- Các biện pháp đối phó bao gồm: nhãn cảnh báo, liên kết đến nội dung được xác thực và khuyến khích xem xét nhiều góc nhìn khác nhau
- Thách thức chính là xác định chính xác thế nào là tin giả. Nghiên cứu cho thấy hoạt động thần kinh thường giống nhau khi tiếp xúc với tin thật và tin giả
- Dữ liệu theo dõi mắt cũng cho kết quả không nhất quán: một số nghiên cứu cho thấy người dùng tập trung hơn khi xem nội dung sai lệch, trong khi các nghiên cứu khác cho thấy điều ngược lại
📌 AI phát hiện tin giả đang được phát triển với sự kết hợp của khoa học hành vi, nhưng vẫn còn nhiều thách thức về độ chính xác. Việc cá nhân hóa hệ thống dựa trên dữ liệu sinh trắc học và hành vi người dùng là hướng đi tiềm năng, tuy nhiên cần thêm nghiên cứu để đánh giá hiệu quả thực tế.
https://theconversation.com/how-close-are-we-to-an-accurate-ai-fake-news-detector-242309