Marco-o1 của Alibaba - Mô hình AI vượt trội với độ chính xác tăng 6% trong giải toán

• Alibaba vừa ra mắt Marco-o1, một mô hình ngôn ngữ lớn (LLM) tiên tiến được phát triển bởi đội MarcoPolo thuộc Alibaba International Digital Commerce.

Marco-o1 được xây dựng trên kiến trúc Qwen2-7B-Instruct, tập trung vào việc giải quyết các vấn đề mở và các tác vụ suy luận phức tạp.

• Mô hình sử dụng 3 phương pháp tiên tiến:
- Chain-of-Thought (CoT): Cho phép suy luận từng bước
- Monte Carlo Tree Search (MCTS): Khám phá nhiều đường dẫn suy luận
- Chiến lược hành động suy luận: Điều chỉnh độ chi tiết trong việc ra quyết định.

• Kết quả đánh giá ấn tượng:
- Tăng 6,17% độ chính xác trên bộ dữ liệu MGSM (tiếng Anh)
- Tăng 5,60% độ chính xác trên bộ dữ liệu MGSM (tiếng Trung).

• Marco-o1 được đào tạo bằng dữ liệu CoT nguồn mở kết hợp với bộ dữ liệu tổng hợp độc quyền.

Alibaba đã công bố Marco-o1 miễn phí trên các nền tảng GitHub và Hugging Face.

Sự ra mắt này diễn ra sau khi DeepSeek lab của Trung Quốc công bố mô hình DeepSeek-R1-Lite-Preview và trực tiếp cạnh tranh với mô hình o1 của OpenAI.

📌 Marco-o1 của Alibaba đạt bước tiến quan trọng với độ chính xác tăng 6,17% trong bài kiểm tra MGSM tiếng Anh, vượt trội trong khả năng suy luận và dịch thuật đa ngôn ngữ. Mô hình được phát hành miễn phí trên GitHub và Hugging Face, mở ra cơ hội nghiên cứu và phát triển rộng rãi.

https://www.eweek.com/news/alibaba-marco-o1-boosts-math-accuracy/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo