Nhóm nghiên cứu từ Meta (FAIR) và Đại học Hebrew vừa công bố phát hiện gây chấn động: các mô hình ngôn ngữ lớn (LLM) hoạt động chính xác hơn khi thực hiện chuỗi suy luận ngắn hơn.
Bài nghiên cứu có tựa đề “Don’t Overthink it: Preferring Shorter Thinking Chains for Improved LLM Reasoning” thách thức xu hướng phổ biến hiện nay là dùng chuỗi suy luận dài (long chain-of-thought) để giải quyết vấn đề phức tạp.
Kết quả cho thấy, với cùng một tác vụ, chuỗi suy luận ngắn chính xác hơn tới 34,5% so với chuỗi dài nhất được tạo ra từ cùng câu hỏi.
Ngoài ra, phương pháp mới gọi là “short-m@k” đã được đề xuất, giúp chạy nhiều quá trình suy luận song song và dừng sớm khi một vài kết quả đầu tiên hoàn tất, sau đó chọn kết quả qua bỏ phiếu đa số.
Short-m@k giúp giảm tới 40% chi phí tính toán mà vẫn duy trì hoặc vượt qua hiệu suất của phương pháp truyền thống.
Biến thể short-3@k còn giúp rút ngắn thời gian xử lý tới 33%, mà vẫn vượt qua phương pháp bỏ phiếu thông thường về độ chính xác.
Ngoài suy luận, nhóm nghiên cứu còn phát hiện việc huấn luyện mô hình bằng các ví dụ ngắn cũng cải thiện hiệu suất, ngược lại việc tinh chỉnh trên các chuỗi dài (S1-long) làm tăng thời gian suy luận mà không đem lại hiệu quả rõ rệt.
Kết luận của nhóm nhấn mạnh rằng việc “nghĩ nhiều hơn” không đồng nghĩa với thông minh hơn, và có thể gây phản tác dụng do tăng chi phí mà không cải thiện kết quả.
Nghiên cứu này đối lập với nhiều hướng tiếp cận hiện tại như Chain-of-Thought, Self-Consistency, hay Tree of Thoughts từ DeepMind và Self-Refine của Carnegie Mellon.
Trong bối cảnh AI ngày càng tiêu tốn tài nguyên, phát hiện này mang lại hướng đi mới: tối ưu hiệu quả thay vì mở rộng vô hạn, giúp các doanh nghiệp tiết kiệm hàng triệu USD chi phí vận hành.
📌 Meta và Đại học Hebrew đã chứng minh rằng AI suy luận ngắn gọn có thể nâng độ chính xác lên 34,5% và giảm tới 40% chi phí tính toán. Phương pháp short-m@k không chỉ nhanh hơn mà còn thông minh hơn, phá vỡ định kiến “nghĩ càng dài càng tốt”. Trong thời đại AI tiêu tốn tài nguyên khổng lồ, nghiên cứu này mở ra con đường mới cho sự tối ưu thông minh và hiệu quả hơn trong phát triển mô hình ngôn ngữ lớn.
https://venturebeat.com/ai/less-is-more-meta-study-shows-shorter-reasoning-improves-ai-accuracy-by-34/