Các mô hình AI lý luận (reasoning models) được kỳ vọng là bước tiến lớn tiếp theo, giúp AI có thể giải quyết các bài toán phức tạp bằng cách tư duy, phân tích và suy luận theo từng bước.
Tuy nhiên, nghiên cứu mới từ Apple công bố trong bài báo "The Illusion of Thinking" tháng 6/2025 cho thấy các mô hình này thất bại trong việc phát triển khả năng giải quyết vấn đề mang tính khái quát. Độ chính xác của mô hình giảm về 0 khi mức độ phức tạp của bài toán vượt quá ngưỡng nhất định.
Báo cáo cảnh báo rằng các mô hình AI có thể chỉ đang ghi nhớ mẫu dữ liệu thay vì thực sự tư duy sáng tạo và đưa ra giải pháp mới.
CEO Databricks, Ali Ghodsi, khẳng định: "Chúng ta có thể khiến mô hình làm tốt bài kiểm tra, nhưng nó thất bại ở những điều đơn giản mà con người làm được dễ dàng."
Salesforce gọi hiện tượng này là "trí tuệ lởm chởm" (jagged intelligence), phản ánh khoảng cách lớn giữa khả năng của AI hiện tại và nhu cầu thực tế trong doanh nghiệp.
Nvidia thừa nhận tại sự kiện GTC rằng lượng tính toán cần thiết cho AI reasoning và agentic AI đã tăng gấp 100 lần so với dự đoán chỉ một năm trước.
Apple bị nghi ngờ đưa ra báo cáo này nhằm đánh lạc hướng khi họ đang tụt lại trong cuộc đua AI. Bằng chứng là Apple đã phải trì hoãn nâng cấp Siri đến năm 2026 và không có nhiều thông báo AI đáng chú ý tại sự kiện WWDC vừa qua.
Một số chuyên gia nhận định động thái này của Apple là chiến lược truyền thông nhằm che đậy sự chậm chân với Apple Intelligence.
Các công ty như OpenAI, Anthropic và DeepSeek cũng đối mặt với vấn đề tương tự, cho thấy hạn chế chung của mô hình AI lý luận hiện nay.
📌 Báo cáo mới từ Apple và Salesforce chỉ ra rằng mô hình AI lý luận sụp đổ khi đối mặt với bài toán phức tạp, độ chính xác về 0. Nvidia thừa nhận nhu cầu tính toán tăng 100 lần. Cơn sốt AI đang đối mặt với lỗ hổng lớn khi khả năng lý luận không đạt kỳ vọng.
https://www.cnbc.com/2025/06/26/ai-reasoning-models-problem.html