• Các nhà nghiên cứu Emily Bender và Timnit Gebru mô tả các mô hình ngôn ngữ như "những con vẹt ngẫu nhiên", chỉ biết nối các chuỗi ngôn ngữ mà không hiểu ý nghĩa.
• Sam Altman, CEO của OpenAI, cho rằng GPT-4 đã có khả năng suy luận ở mức độ nhỏ.
• Tuy nhiên, nghiên cứu của Lukas Berglund và cộng sự chỉ ra rằng các mô hình ngôn ngữ tự hồi quy không thể khái quát hóa thông tin cơ bản.
• Họ gọi đây là "lời nguyền đảo ngược" - AI không thể suy luận mối quan hệ ngược lại giữa các sự kiện.
• Ví dụ: GPT-4 có thể trả lời đúng "Ai là mẹ của Tom Cruise?" nhưng lại không thể trả lời "Ai là con trai của Mary Lee Pfeiffer?".
• Nguyên nhân là vì AI học mối quan hệ giữa các token từ ngữ, chứ không phải giữa các sự kiện.
• Con người cũng có sự bất đối xứng trong khả năng nhớ, nhưng có thể suy luận mối quan hệ theo cả hai chiều.
• Các mô hình AI hiện tại gặp khó khăn với các trường hợp ngoại lệ và câu đố được biến đổi nhẹ.
• Ví dụ: AI không thể giải quyết các câu đố đơn giản nhưng có cách diễn đạt khác thường.
• Điều này cho thấy AI vẫn chưa thực sự có khả năng suy luận và hiểu ngữ cảnh như con người.
📌 AI đang gặp vấn đề nghiêm trọng trong việc suy luận và hiểu mối quan hệ giữa các sự kiện đơn giản. "Lời nguyền đảo ngược" khiến các mô hình ngôn ngữ lớn như GPT-4 không thể khái quát hóa thông tin theo cả hai chiều. Điều này có thể là một trở ngại lớn cho sự phát triển của AI trong tương lai, đặc biệt là trong các ứng dụng đòi hỏi khả năng suy luận phức tạp.
https://www.theguardian.com/technology/article/2024/aug/06/ai-llms