- Sam Altman, CEO của OpenAI, tiết lộ rằng việc xây dựng GPT-4 ban đầu đã cần đến "hàng trăm người, gần như toàn bộ nỗ lực của OpenAI". Tuy nhiên, nhờ những tiến bộ từ GPT-4.5, công ty hiện có thể xây dựng lại GPT-4 chỉ với 5-10 người.
- Trong một tập podcast của công ty được phát hành ngày 11/4/2025, Alex Paino - người đứng đầu quá trình huấn luyện máy học cho GPT-4.5 - xác nhận rằng việc tái xây dựng GPT-4 "có lẽ" chỉ cần 5-10 người. Ông chia sẻ: "Chúng tôi đã huấn luyện GPT-4o, một mô hình cùng đẳng cấp với GPT-4 mà chúng tôi tái huấn luyện bằng nhiều thành quả từ chương trình nghiên cứu GPT-4.5. Quá trình này thực sự chỉ cần một số lượng người ít hơn nhiều."
- Daniel Selsam, nhà nghiên cứu tại OpenAI làm việc về hiệu quả dữ liệu và thuật toán, đồng ý rằng việc xây dựng lại GPT-4 hiện sẽ dễ dàng hơn nhiều: "Chỉ cần biết ai đó đã làm được điều gì đó - nó trở nên dễ dàng hơn rất nhiều. Tôi cảm thấy chỉ cần biết điều gì đó là có thể thực hiện được đã là một mã gian lận khổng lồ."
- OpenAI đã phát hành GPT-4.5 vào tháng 2/2025, mô tả đây là mô hình lớn nhất và mạnh mẽ nhất của công ty cho đến nay. Altman mô tả nó trên X như "mô hình đầu tiên có cảm giác như đang nói chuyện với một người có tư duy."
- Paino cho biết GPT-4.5 được thiết kế để "thông minh gấp 10 lần" so với GPT-4, ra mắt vào tháng 3/2023. "Chúng tôi đang mở rộng quy mô gấp 10 lần so với những gì chúng tôi đã làm trước đây với các lần huấn luyện GPT."
- Altman cũng tiết lộ rằng OpenAI không còn bị "hạn chế về khả năng tính toán" đối với những mô hình tốt nhất mà họ có thể tạo ra - một sự thay đổi mà ông cho rằng thế giới chưa thực sự hiểu. Đối với nhiều công ty AI, rào cản lớn nhất để xây dựng mô hình tốt hơn đơn giản là có đủ sức mạnh tính toán.
- OpenAI đã công bố vào tháng 3 rằng họ đã hoàn tất vòng gọi vốn tư nhân lớn nhất trong lĩnh vực công nghệ, bao gồm 30 tỷ USD từ SoftBank và 10 tỷ USD từ các nhà đầu tư khác, đưa giá trị công ty lên 300 tỷ USD. Nguồn vốn mới sẽ giúp OpenAI mở rộng khả năng tính toán hơn nữa.
- Về những gì cần thiết để đạt được bước nhảy vọt tiếp theo gấp 10 hoặc 100 lần về quy mô, Selsam cho rằng đó là hiệu quả dữ liệu. Các mô hình GPT rất hiệu quả trong xử lý thông tin, nhưng có "giới hạn về mức độ hiểu biết sâu sắc mà nó có thể đạt được từ dữ liệu." Để vượt qua điều này sẽ đòi hỏi "một số đổi mới thuật toán" để khai thác nhiều giá trị hơn từ cùng một lượng dữ liệu.
📌 OpenAI đã đạt bước tiến quan trọng khi có thể xây dựng lại GPT-4 với chỉ 5-10 người thay vì hàng trăm người nhờ đột phá từ GPT-4.5. Công ty đã huy động được 40 tỷ USD, nâng định giá lên 300 tỷ USD, và khẳng định rằng hiệu quả dữ liệu, không phải khả năng tính toán, sẽ là thách thức chính cho sự phát triển AI tiếp theo.
https://www.businessinsider.com/openai-chatgpt-gpt4-rebuild-breakthroughs-sam-altman-2025-4
Bởi Lee Chong Ming
CEO của OpenAI, Sam Altman, nói việc xây dựng GPT-4 đã cần "hàng trăm người, gần như toàn bộ nỗ lực của OpenAI." Tomohiro Ohsumi/Getty Images
11/04/2025, 9:03 sáng UTC
Việc xây dựng GPT-4 đã cần rất nhiều nhân lực. Hiện nay, OpenAI nói họ có thể xây dựng lại GPT-4 với chỉ năm người, tất cả nhờ vào những gì họ học được từ mô hình mới nhất, GPT-4.5.
Trong một tập podcast của công ty được phát hành vào thứ Sáu, CEO của OpenAI, Sam Altman, đã đặt câu hỏi cho ba kỹ sư chính đứng sau GPT-4.5: Đội OpenAI nhỏ nhất có thể đào tạo lại GPT-4 từ đầu ngày nay là gì?
Altman nói việc xây dựng GPT-4 đã cần "hàng trăm người, gần như toàn bộ nỗ lực của OpenAI" — nhưng mọi thứ trở nên dễ dàng hơn nhiều khi một mô hình không còn ở biên giới công nghệ.
Alex Paino, người dẫn đầu việc đào tạo máy học cho GPT-4.5, nói việc đào tạo lại GPT-4 bây giờ "có lẽ" chỉ cần 5 đến 10 người.
"Chúng tôi đã đào tạo GPT-4o, một mô hình cùng cấp với GPT-4 mà chúng tôi đào tạo lại bằng cách sử dụng nhiều thành quả từ chương trình nghiên cứu GPT-4.5," Paino nói. "Việc thực hiện quá trình đó thực sự cần ít người hơn nhiều."
Daniel Selsam, một nhà nghiên cứu tại OpenAI làm việc về hiệu quả dữ liệu và thuật toán, đồng ý rằng việc xây dựng lại GPT-4 bây giờ sẽ dễ dàng hơn nhiều.
"Chỉ cần biết người khác đã làm được điều gì đó — nó trở nên dễ dàng hơn rất nhiều," ông nói. "Tôi cảm thấy chỉ cần biết điều gì đó là có thể làm được đã là một mã gian lận lớn."
Vào tháng 2, OpenAI đã phát hành GPT-4.5, nói rằng đây là mô hình lớn nhất và mạnh mẽ nhất của công ty cho đến nay.
Altman mô tả nó trong một bài đăng trên X là "mô hình đầu tiên cảm giác như đang nói chuyện với một người biết suy nghĩ."
Paino nói GPT-4.5 được thiết kế để "thông minh hơn 10 lần" so với GPT-4, ra mắt vào tháng 3/2023.
"Chúng tôi đang mở rộng quy mô gấp 10 lần so với những gì chúng tôi đã làm trước đây với các quá trình đào tạo GPT," Paino nói.
Altman cũng nói OpenAI không còn "bị giới hạn bởi sức tính toán" đối với những mô hình tốt nhất họ có thể tạo ra — một sự thay đổi mà ông nghĩ thế giới chưa thực sự hiểu.
Đối với nhiều công ty AI, trở ngại lớn nhất để xây dựng mô hình tốt hơn đơn giản là có đủ sức mạnh tính toán.
"Đó là một cập nhật điên rồ," Altman nói. "Trong thời gian dài, chúng tôi sống trong một thế giới nơi sức tính toán luôn là yếu tố giới hạn," ông nói thêm.
Các công ty công nghệ lớn đã đổ hàng tỷ đô la vào cơ sở hạ tầng AI. Microsoft, Amazon, Google và Meta dự kiến sẽ chi tổng cộng 320 tỷ đô la cho chi tiêu vốn trong năm nay để mở rộng khả năng AI của họ.
OpenAI thông báo vào tháng 3 rằng họ đã hoàn tất vòng gọi vốn công nghệ tư nhân lớn nhất từ trước đến nay, bao gồm 30 tỷ đô la từ SoftBank và 10 tỷ đô la từ các nhà đầu tư khác, nâng định giá công ty lên 300 tỷ đô la.
Nguồn vốn mới sẽ giúp OpenAI mở rộng sức mạnh tính toán của mình hơn nữa, công ty cho biết trong một tuyên bố vào thời điểm đó.
CEO của Nvidia, Jensen Huang, nói trong một cuộc gọi về kết quả kinh doanh vào tháng 2 rằng nhu cầu về sức tính toán AI sẽ chỉ tăng lên.
"Các mô hình suy luận có thể tiêu thụ sức tính toán nhiều hơn 100 lần. Suy luận trong tương lai có thể tiêu thụ nhiều sức tính toán hơn nữa," Huang nói trong cuộc gọi.
Về những gì cần thiết để đạt được bước nhảy vọt tiếp theo với quy mô gấp 10 hoặc 100 lần, Selsam, nhà nghiên cứu OpenAI, cho biết đó là hiệu quả dữ liệu.
Các mô hình GPT rất hiệu quả trong việc xử lý thông tin, nhưng có một "giới hạn về độ sâu của hiểu biết mà nó có thể đạt được từ dữ liệu," ông nói.
"Đến một lúc nào đó, khi sức tính toán tiếp tục phát triển, dữ liệu phát triển chậm hơn nhiều," ông nói, thêm rằng "dữ liệu trở thành điểm nghẽn."
Để vượt qua điều đó, ông nói, sẽ cần "một số đổi mới về thuật toán" để khai thác nhiều giá trị hơn từ cùng một lượng dữ liệu.