GPT-5, ra mắt sau gần 3 năm phát triển và hàng tỷ USD đầu tư, được kỳ vọng là bước ngoặt tiến tới A.G.I. nhưng nhanh chóng gây thất vọng vì mắc lỗi toán cơ bản, đếm sai và trả lời ngớ ngẩn.
Dù cải thiện hơn GPT-4, GPT-5 vẫn ảo giác, không ổn định và không tạo ra bước nhảy vọt, khiến nhiều người dùng muốn quay lại mô hình cũ.
Gary Marcus chỉ ra sai lầm của giả thuyết “scaling” – huấn luyện với dữ liệu và phần cứng khổng lồ – vốn được Sam Altman và nhiều lãnh đạo công nghệ xem là con đường đến A.G.I.
Thực tế cho thấy scaling không phải là định luật vật lý, chỉ là xu hướng quá khứ. Các mô hình ngôn ngữ lớn chỉ là máy thống kê, thiếu hiểu biết thật sự, dẫn đến sai sót về sự thật và lý luận.
Ví dụ: Grok 4 (Elon Musk) được huấn luyện gấp 100 lần Grok 2 nhưng cải tiến chỉ vừa phải; Llama 4 (Meta) cũng bị coi là thất bại. GPT-5 chứng minh scaling đã cạn lực.
Khả năng xuất hiện A.G.I. trước năm 2027 trở nên mờ nhạt; chính phủ cần siết luật về chi phí và tác hại AI như tin giả, deepfake, tội phạm mạng, bản quyền, sức khỏe tinh thần và tiêu thụ năng lượng.
Ba hướng nghiên cứu mới từ khoa học nhận thức:
World models – xây dựng mô hình thế giới để AI hiểu và suy luận sâu hơn (DeepMind, World Labs đang nghiên cứu).
Kiến thức bẩm sinh – tích hợp khái niệm cơ bản như thời gian, không gian, nhân quả thay vì để AI học từ con số 0.
Đa cơ chế nhận thức – kết hợp học máy thống kê (nhanh, dễ sai) với lý luận trừu tượng (chậm, chắc chắn).
Hướng đi triển vọng là neurosymbolic A.I., kết hợp mạng neural với symbolic AI, đã được Amazon, Google DeepMind và OpenAI bắt đầu áp dụng.
📌 GPT-5 chứng minh giới hạn của chiến lược scaling: dù tốn hàng tỷ USD, nó vẫn mắc lỗi cơ bản, không đáng tin và không đạt A.G.I. Các ví dụ như Grok 4 hay Llama 4 củng cố nhận định scaling đã chạm trần. Để tiến xa hơn, AI cần hướng mới dựa vào khoa học nhận thức, world models và neurosymbolic AI. Triển vọng A.G.I. trước 2027 rất thấp, chính phủ nên siết luật và hỗ trợ nghiên cứu đa hướng.
https://www.nytimes.com/2025/09/03/opinion/ai-gpt5-rethinking.html