Các mô hình ngôn ngữ lớn như ChatGPT của OpenAI xác thực thông tin sai lệch
- Mô hình ngôn ngữ lớn như ChatGPT của OpenAI có thể xác nhận thông tin sai lệch, theo một nghiên cứu mới từ Đại học Waterloo, Canada.
- Các nhà nghiên cứu đã kiểm tra phiên bản đầu của ChatGPT với hơn 1,200 phát biểu trong sáu hạng mục: sự thật, thuyết âm mưu, tranh cãi, hiểu lầm, định kiến, và hư cấu.
- Phân tích cho thấy GPT-3 đồng ý với các phát biểu sai từ 4.8% đến 26% tùy theo hạng mục.
- Dan Brown, giáo sư khoa học máy tính, bày tỏ lo ngại về "sự tái chế kỳ lạ" khi các mô hình khác được huấn luyện dựa trên đầu ra từ mô hình của OpenAI.
- Aisha Khatun, tác giả chính của nghiên cứu, nhận thấy cách diễn đạt nhỏ như "tôi nghĩ" trước một phát biểu có thể khiến mô hình đồng ý với thông tin sai lệch.
- Sự nguy hiểm nằm ở việc các mô hình ngôn ngữ lớn đang ngày càng phổ biến và tiếp tục học hỏi, kể cả thông tin sai lệch.
📌 Mô hình ngôn ngữ lớn như ChatGPT được phát hiện có khả năng lặp lại thông tin sai lệch, với tỷ lệ đồng ý với các phát biểu không chính xác từ 4.8% đến 26%. Sự biến đổi nhỏ trong cách diễn đạt có thể thay đổi hoàn toàn câu trả lời, đặt ra những lo ngại về việc các mô hình này có thể đang học hỏi thông tin sai lệch và trở nên nguy hiểm ngay cả khi không rõ ràng.