• ChatGPT và các AI khác như Claude, Gemini, Llama đều gặp khó khăn với các bài toán cơ bản, mặc dù có khả năng viết văn xuôi phức tạp.
• Tokenization là một nguyên nhân khiến AI kém toán. Quá trình này chia nhỏ dữ liệu thành các phần, nhưng không hiểu bản chất của số, dẫn đến phá vỡ mối quan hệ giữa các chữ số.
• AI là các hệ thống thống kê, học mẫu từ nhiều ví dụ để đưa ra dự đoán. Với phép nhân 5,7897 x 1,2832, ChatGPT có thể suy ra kết quả kết thúc bằng "4" nhưng sai ở phần giữa.
• Nghiên cứu của GS Yuntian Deng (ĐH Waterloo) cho thấy GPT-4o chỉ đạt độ chính xác dưới 30% với phép nhân trên 4 chữ số.
• Mô hình o1 mới của OpenAI có khả năng "suy luận" tốt hơn, đạt độ chính xác khoảng 50% với phép nhân 9 chữ số.
• GS Deng lạc quan rằng một số loại bài toán như phép nhân cuối cùng sẽ được AI giải quyết hoàn toàn, do đây là nhiệm vụ xác định rõ ràng với thuật toán đã biết.
• Tuy nhiên, hiện tại AI vẫn chưa thể thay thế máy tính bỏ túi trong việc tính toán chính xác.
• Nguyên nhân sâu xa là do AI chưa thực sự hiểu bản chất của số học và các phép tính, mà chỉ dựa vào thống kê và mẫu.
• Việc cải thiện khả năng suy luận của AI như ở mô hình o1 cho thấy tiềm năng nâng cao kỹ năng toán học trong tương lai.
• Tuy nhiên, để AI đạt được khả năng tính toán như con người hoặc máy tính vẫn cần thời gian và những đột phá mới trong kiến trúc mô hình.
📌 ChatGPT và các AI hiện gặp khó với toán học cơ bản do hạn chế trong tokenization và cách học thống kê. Tuy nhiên, mô hình o1 mới đạt độ chính xác 50% với phép nhân 9 chữ số, cho thấy tiềm năng cải thiện trong tương lai.
https://techcrunch.com/2024/10/02/why-is-chatgpt-so-bad-at-math/