Yann LeCun, Giám đốc khoa học AI của Meta, tuyên bố tại Singapore rằng "chỉ mở rộng quy mô không còn đủ để làm AI thông minh hơn."
Ông phản bác các "scaling laws" từng nổi tiếng từ nghiên cứu năm 2020 của OpenAI, vốn cho rằng tăng số lượng tham số, dữ liệu và tính toán sẽ giúp AI mạnh hơn.
LeCun chỉ ra rằng mô hình lớn hiện tại chỉ được huấn luyện trên lượng dữ liệu tương đương vùng vỏ não thị giác của một đứa trẻ 4 tuổi.
Theo ông, khi giải quyết các vấn đề thực tế với nhiều mơ hồ và bất định, quy mô lớn không đảm bảo được sự tiến bộ về trí tuệ cho AI.
"Các hệ thống đơn giản có thể giải quyết bài toán đơn giản, nhưng không thể ngoại suy thành giải pháp cho các bài toán phức tạp," ông nhấn mạnh.
Các đột phá gần đây trong AI phần lớn đến từ các bài toán "dễ," do đó tạo ra ảo tưởng rằng cứ tăng quy mô sẽ tạo ra trí tuệ.
Ngoài LeCun, nhiều lãnh đạo khác như CEO Scale AI Alexandr Wang và CEO Cohere Aidan Gomez cũng chỉ trích cách tiếp cận tăng quy mô là kém hiệu quả.
LeCun đề xuất phát triển AI dựa trên "mô hình thế giới" (world models) – các hệ thống có thể hiểu, dự đoán sự thay đổi của thế giới dựa trên hành động.
Mục tiêu mới là tạo ra AI có khả năng học nhanh, có trí nhớ bền vững, hiểu được thế giới vật lý, lý luận, lập kế hoạch và sở hữu "common sense."
LeCun từng giải thích trên podcast Lex Fridman rằng mô hình thế giới đem lại khả năng nhận thức cao hơn nhiều so với các LLM chỉ dự đoán mẫu kế tiếp.
📌 Yann LeCun tuyên bố tại Singapore rằng mở rộng quy mô không còn đủ để làm AI thông minh hơn, yêu cầu chuyển hướng sang phát triển "mô hình thế giới" có khả năng dự đoán, lý luận và học nhanh. Cùng với các lãnh đạo AI khác, LeCun chỉ trích tư duy "tôn giáo hóa scaling" đang làm chậm sự tiến bộ thực sự trong ngành.
https://www.businessinsider.com/meta-yann-lecun-scaling-ai-wont-make-it-smarter-2025-4
Giám đốc khoa học AI của Meta nói rằng việc mở rộng quy mô AI sẽ không làm nó thông minh hơn
Tác giả: Lakshmi Varanasi
Giám đốc khoa học AI của Meta, Yann LeCun, không nghĩ rằng việc mở rộng quy mô AI là đủ để làm cho nó thông minh hơn. Meta Platforms
Ngày 27/4/2025, 11:55 PM UTC
Trong nhiều năm, ngành công nghiệp AI đã tuân theo một bộ nguyên tắc được gọi là "quy luật mở rộng quy mô". Các nhà nghiên cứu của OpenAI đã trình bày chúng trong bài báo tiên phong năm 2020, "Quy luật mở rộng quy mô cho các mô hình ngôn ngữ thần kinh".
"Hiệu suất mô hình phụ thuộc mạnh mẽ nhất vào quy mô, bao gồm ba yếu tố: số lượng tham số mô hình N (không bao gồm embeddings), kích thước của bộ dữ liệu D, và lượng tính toán C được sử dụng cho việc đào tạo," các tác giả viết.
Về cơ bản, càng nhiều càng tốt khi xây dựng AI có trí thông minh cao. Ý tưởng này đã thúc đẩy các khoản đầu tư khổng lồ vào các trung tâm dữ liệu cho phép các mô hình AI xử lý và học hỏi từ lượng thông tin hiện có khổng lồ.
Nhưng gần đây, các chuyên gia AI khắp Thung lũng Silicon đã bắt đầu thách thức học thuyết đó.
"Hầu hết các vấn đề thú vị đều có độ phức tạp tăng cực kỳ nhanh theo quy mô," giám đốc khoa học AI của Meta, Yann LeCun, phát biểu tại Đại học Quốc gia Singapore vào Chủ nhật. "Bạn không thể chỉ giả định rằng nhiều dữ liệu và nhiều khả năng tính toán có nghĩa là AI thông minh hơn."
Quan điểm của LeCun dựa trên ý tưởng rằng việc đào tạo AI trên một lượng lớn các chủ đề cơ bản, như dữ liệu internet, sẽ không dẫn đến một dạng siêu trí tuệ nào đó. AI thông minh là một loại khác biệt.
"Sai lầm là khi các hệ thống rất đơn giản, khi chúng hoạt động cho các vấn đề đơn giản, mọi người ngoại suy chúng để nghĩ rằng chúng sẽ hoạt động cho các vấn đề phức tạp," ông nói. "Chúng làm được một số điều đáng kinh ngạc, nhưng điều đó tạo ra một tôn giáo về việc mở rộng quy mô rằng bạn chỉ cần mở rộng hệ thống nhiều hơn và chúng sẽ tự nhiên trở nên thông minh hơn."
Hiện tại, tác động của việc mở rộng quy mô được phóng đại vì nhiều đột phá mới nhất trong AI thực sự là "rất dễ dàng", LeCun nói. Các mô hình ngôn ngữ lớn nhất ngày nay được đào tạo trên một lượng thông tin tương đương với vỏ não thị giác của một đứa trẻ 4 tuổi, ông nói.
"Khi bạn đối mặt với các vấn đề thực tế với sự mơ hồ và không chắc chắn, vấn đề không chỉ còn là mở rộng quy mô nữa," ông nói thêm.
Các tiến bộ trong AI đã chậm lại gần đây. Điều này một phần là do sự suy giảm của kho dữ liệu công cộng có thể sử dụng được.
LeCun không phải là nhà nghiên cứu nổi tiếng duy nhất đặt câu hỏi về sức mạnh của việc mở rộng quy mô. CEO của Scale AI, Alexandr Wang, đã nói rằng mở rộng quy mô là "câu hỏi lớn nhất trong ngành" tại hội nghị Cerebral Valley năm ngoái. CEO của Cohere, Aidan Gomez, gọi đó là cách "ngốc nhất" để cải thiện các mô hình AI.
LeCun ủng hộ một phương pháp đào tạo dựa trên thế giới thực hơn.
"Chúng ta cần các hệ thống AI có thể học các nhiệm vụ mới thực sự nhanh chóng. Chúng cần hiểu thế giới vật lý - không chỉ văn bản và ngôn ngữ mà là thế giới thực - có một mức độ hiểu biết thông thường, và khả năng suy luận và lập kế hoạch, có bộ nhớ bền vững - tất cả những thứ mà chúng ta mong đợi từ các thực thể thông minh," ông nói trong bài phát biểu hôm Chủ nhật.
Năm ngoái, trong một tập của podcast Lex Fridman, LeCun đã nói rằng trái ngược với các mô hình ngôn ngữ lớn, chỉ có thể dự đoán các bước tiếp theo của chúng dựa trên mẫu, các mô hình thế giới có mức độ nhận thức cao hơn. "Thành phần bổ sung của một mô hình thế giới là thứ có thể dự đoán thế giới sẽ phát triển như thế nào do hậu quả của một hành động bạn có thể thực hiện."