OpenAI tung mô hình o3-mini miễn phí đối đầu DeepSeek R1 của Trung Quốc

- OpenAI phát hành phiên bản nhỏ gọn hơn của mô hình AI tiên tiến nhất, o3-mini, miễn phí cho người dùng ChatGPT Plus, Team và Pro

- Mô hình o3-mini có khả năng:
  - Phân tích các vấn đề phức tạp thành các phần nhỏ để giải quyết
  - Mạnh về toán học, khoa học và lập trình
  - Tích hợp tìm kiếm web
  - Gọi các hàm từ mã người dùng
  - Chuyển đổi giữa các cấp độ suy luận khác nhau

- OpenAI đã tuyển dụng sinh viên tiến sĩ khoa học máy tính với mức lương 100 USD/giờ để huấn luyện mô hình mới

- Công ty cũng tuyển dụng thông qua Mercor để tìm chuyên gia trong các lĩnh vực khác, tập trung vào việc tạo ra các câu hỏi lập trình khoa học phức tạp

- DeepSeek R1 gây áp lực lên thị trường AI Mỹ khi:
  - Phát hành miễn phí một mô hình mạnh
  - Sử dụng ít tài nguyên hơn để phát triển
  - Tạo áp lực về giá lên Google và Anthropic

- OpenAI nghi ngờ DeepSeek R1 có thể đã sử dụng dữ liệu đầu ra từ các mô hình của họ trong quá trình huấn luyện

- Sự trỗi dậy của DeepSeek đặt ra câu hỏi về chiến lược của chính phủ Mỹ trong việc kiểm soát sự phát triển AI của Trung Quốc

📌 OpenAI tung ra mô hình o3-mini miễn phí với khả năng xử lý toán học, khoa học và lập trình mạnh mẽ, đối đầu trực tiếp với DeepSeek R1 từ Trung Quốc. Mô hình này tiết kiệm tài nguyên hơn và được tích hợp nhiều tính năng tiên tiến như tìm kiếm web và điều chỉnh cấp độ suy luận.

https://www.wired.com/story/openai-o3-mini-release/

 

OpenAI ra mắt o3-mini, mô hình AI nhỏ gọn nhưng không thua kém DeepSeek

Ngay sau khi DeepSeek R1 ra mắt, OpenAI đã giới thiệu một mô hình mới với khả năng tiên tiến hơn và chi phí rẻ hơn.

OpenAI đang cung cấp miễn phí một phiên bản nhỏ hơn và hiệu quả hơn của mô hình trí tuệ nhân tạo tiên tiến nhất của mình, nhằm đáp lại sự quan tâm và kỳ vọng xoay quanh một mô hình nguồn mở mới từ startup AI Trung Quốc, DeepSeek.

WIRED từng đưa tin rằng OpenAI đã chuẩn bị ra mắt mô hình mới có tên o3-mini vào ngày 31/1. Theo các nguồn tin giấu tên, đội ngũ nghiên cứu của công ty đã làm việc hết công suất để sẵn sàng cho sự kiện này.

o3-mini, từng được OpenAI hé lộ vào tháng 12, là phiên bản nhỏ hơn của mô hình có khả năng suy luận AI tiên tiến nhất từ trước đến nay của công ty. Mô hình này có thể chia nhỏ các vấn đề phức tạp thành từng phần để tìm ra cách giải quyết tối ưu nhất.

“Mô hình mạnh mẽ và nhanh chóng này mở rộng giới hạn của những gì mà các mô hình nhỏ có thể đạt được,” OpenAI viết trong bài đăng trên blog công bố sự ra mắt của o3-mini.

OpenAI cung cấp o3-mini cho tất cả người dùng gói Plus, Team và Pro của ChatGPT. Người dùng phiên bản miễn phí của ChatGPT cũng có thể thử nghiệm o3-mini nhưng sẽ bị giới hạn số lượng truy vấn.

OpenAI đã sử dụng các nghiên cứu sinh tiến sĩ để hỗ trợ huấn luyện mô hình mới trong một thời gian. Vài tuần trước, công ty bắt đầu tuyển dụng các nghiên cứu sinh tiến sĩ ngành khoa học máy tính với mức lương 100 USD/giờ để tham gia “hợp tác nghiên cứu”, trong đó họ sẽ làm việc với các mô hình chưa được công bố, theo một email mà WIRED có được.

OpenAI cũng có vẻ như đã tuyển dụng các nghiên cứu sinh tiến sĩ ở nhiều lĩnh vực khác thông qua một công ty có tên Mercor, vốn thường được sử dụng để tìm kiếm nhân sự cho việc huấn luyện mô hình. Một tin tuyển dụng gần đây từ Mercor trên LinkedIn viết:
“Mục tiêu tổng thể của dự án mà bạn có thể tham gia là tạo ra các câu hỏi lập trình khoa học thử thách, nhằm kiểm tra khả năng của các mô hình ngôn ngữ lớn trong việc tạo mã giải quyết các vấn đề nghiên cứu khoa học thực tế.”

Tin tuyển dụng này còn đưa ra một ví dụ về bài toán có nhiều điểm tương đồng với bài toán trong bộ đánh giá SciCode, vốn được thiết kế để kiểm tra khả năng giải quyết các vấn đề khoa học phức tạp của mô hình ngôn ngữ lớn.

Thông tin này xuất hiện trong bối cảnh DeepSeek R1 đang gây xáo trộn trong ngành công nghệ Mỹ. Việc một mô hình mạnh mẽ như vậy được phát hành miễn phí đã tạo áp lực lên GoogleAnthropic trong việc giảm giá dịch vụ của họ.

Theo các nguồn tin nội bộ, OpenAI đặc biệt muốn chứng minh rằng công ty vẫn đang dẫn đầu trong việc phát triển và thương mại hóa AI.

Mô hình của DeepSeek có những cải tiến giúp quá trình huấn luyện và triển khai hiệu quả hơn. Công ty này dường như đã phát triển mô hình với ít tài nguyên hơn so với OpenAI và các công ty Mỹ khác đang xây dựng mô hình AI tiên tiến. Tuy nhiên, chi tiết chính xác về mức chi tiêu của DeepSeek vẫn chưa được tiết lộ. OpenAI cho rằng DeepSeek R1 có thể đã sử dụng đầu ra từ các mô hình của OpenAI để huấn luyện.

OpenAI sẽ tập trung vào hiệu suất và tối ưu hóa

Mặc dù mô hình mới của OpenAI có thể không vượt trội hơn R1 về giá cả, nhưng nó cho thấy công ty sẽ tập trung nhiều hơn vào tính hiệu quả trong tương lai. OpenAI cũng cho biết mô hình này đặc biệt mạnh về toán học, khoa học và lập trình.

Ngoài ra, OpenAI tiết lộ rằng o3-mini sẽ có thêm các tính năng mới như:

  • Khả năng tìm kiếm trên web
  • Gọi các hàm từ mã của người dùng
  • Tùy chỉnh mức độ suy luận, đánh đổi giữa tốc độ và khả năng giải quyết vấn đề

Sự trỗi dậy nhanh chóng của DeepSeek cũng đặt ra nhiều câu hỏi về chiến lược của chính phủ Mỹ trong việc kiềm chế sự phát triển AI của Trung Quốc. Hai chính quyền Mỹ gần đây đã áp đặt nhiều lệnh trừng phạt nhằm hạn chế Trung Quốc tiếp cận các chip Nvidia tiên tiến nhất, vốn thường được sử dụng để xây dựng các mô hình AI hàng đầu. DeepSeek có nhắc đến một số dòng chip Nvidia trong nghiên cứu của mình, nhưng chưa rõ công ty đã sử dụng chính xác loại nào.

 

OpenAI’s o3-Mini Is a Leaner AI Model That Keeps Pace With DeepSeek
On the heels of DeepSeek R1, the latest model from OpenAI promises more advanced capabilities at a cheaper price.

 

OpenAI is making a smaller, more efficient version of its cleverest artificial intelligence model available for free as it seeks to answer the hype and enthusiasm swirling around a new open-source offering from Chinese AI startup DeepSeek.
WIRED previously reported that OpenAI was prepping the new model, called o3-mini, for release on January 31. The company’s researchers have been working overtime to get it ready for prime time, according to sources who spoke on the condition of anonymity.
o3-mini, which OpenAI teased in December, is a smaller version of the model that features the most advanced AI reasoning capabilities of any OpenAI offering to date. The model can break difficult problems into constituent parts in order to figure out how best to solve them.

 
“This powerful and fast model advances the boundaries of what small models can achieve,” the company said in a blog post announcing o3-mini’s availability.
OpenAI is making o3-mini available to all Plus, Team, and Pro users of ChatGPT. Users of the free version of ChatGPT will also be able to try o3-mini but won't be able to send as many queries, the company says.
OpenAI has evidently been using PhD students to help train a new model for some time. Several weeks ago, the company began recruiting PhD computer science students at $100 per hour for a “research collaboration” that would “involve working on unreleased models”, according to an email viewed by WIRED.
OpenAI also appears to have been recruiting PhD students with expertise in other areas through a company called Mercor that it regularly uses to find staff for model training. A recent job posting from Mercor on LinkedIn states: “The overall goal of this project that you may become a part of is to create challenging scientific coding questions designed to test the capabilities of large language models in generating code for solving realistic scientific research problems.”
The job posting goes on to give an example problem that is strikingly similar to a problem in a benchmark called SciCode that is designed to test a large language models’ ability to solve complex science problems.
The news comes as DeepSeek’s R1 continues to roil the US tech industry. The fact that such a powerful model could be released for free puts pressure on Google and Anthropic to lower their prices.
OpenAI is particularly eager to demonstrate that it remains at the forefront of developing and commercializing AI, according to sources inside the company.
DeepSeek’s freely available model incorporates innovations that made it more efficient to both train and serve. The company appears to have developed it using far fewer resources than OpenAI and other US companies currently building frontier AI models, although the precise details of DeepSeek’s expenditure remain unknown. OpenAI says it believes R1 may have incorporated the output from its models into its training.
Got a Tip?
Are you a current or former employee at OpenAI? We’d like to hear from you. Using a nonwork phone or computer, contact Will Knight at [email protected] or on Signal via his username is wak01.
OpenAI’s newest model may not outshine R1 in terms of price, but it shows that the company will make efficiency part of its focus going forward. OpenAI also says that the model is especially strong in math, science, and coding.
The company says that the latest model will also incorporate new features, including the ability to tap into web searches, call functions from a user’s code, and toggle between different reasoning levels that trade off speed for problem solving capabilities.
DeepSeek’s sudden rise has also raised questions about the US government strategy to curb China’s rise in AI. The past two US administrations have introduced a number of sanctions to curb China’s ability to access the most advanced Nvidia chips typically used to build cutting-edge AI models. DeepSeek described several types of Nvidia chips in its research but it remains unclear what exactly was used.

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo