- SambaNova Systems công bố mô hình ngôn ngữ lớn Samba-CoE v0.2 mới đạt tốc độ ấn tượng 330 token/giây, vượt qua nhiều mô hình đáng chú ý của đối thủ như DBRX mới ra mắt của Databricks, Mixtral-8x7B của MistralAI, Grok-1 của xAI.
- Samba-CoE v0.2 đạt tốc độ cao mà không ảnh hưởng đến độ chính xác, chỉ cần 8 socket thay vì 576 socket và hoạt động ở tốc độ bit thấp hơn so với các mô hình khác.
- Trong các bài kiểm tra, Samba-CoE v0.2 đưa ra câu trả lời 425 từ về thiên hà Milky Way chỉ trong 330.42 giây. Câu hỏi về điện toán lượng tử cũng nhận được câu trả lời nhanh chóng tương tự với 332.56 token chỉ trong 1 giây.
- SambaNova nhấn mạnh việc sử dụng ít socket hơn đồng thời duy trì tốc độ bit cao, cho thấy sự tiến bộ đáng kể về hiệu quả tính toán và hiệu suất mô hình.
- Công ty cũng úp mở về việc sắp ra mắt Samba-CoE v0.3 hợp tác với LeptonAI, cho thấy sự tiến bộ và đổi mới liên tục.
- Nền tảng của những tiến bộ này dựa trên các mô hình mã nguồn mở từ Samba-1 và Sambaverse, sử dụng cách tiếp cận độc đáo để kết hợp và hợp nhất mô hình, không chỉ là cơ sở cho phiên bản hiện tại mà còn gợi ý cách tiếp cận có thể mở rộng và sáng tạo cho sự phát triển trong tương lai.
- So sánh với các mô hình khác như Gemma-7B của GoogleAI, Mixtral-8x7B của MistralAI, llama2-70B của Meta, Qwen-72B của Alibaba Group, Falcon-180B của TIIuae và BLOOM-176B của BigScience cho thấy lợi thế cạnh tranh của Samba-CoE v0.2.
📌 SambaNova Systems đã đạt được bước tiến quan trọng với mô hình ngôn ngữ lớn Samba-CoE v0.2, vượt trội hơn nhiều đối thủ về tốc độ xử lý (330 token/giây) và hiệu quả tính toán (chỉ cần 8 socket). Điều này cho thấy tiềm năng to lớn của công ty trong việc phát triển các công nghệ AI tiên tiến, mở ra hướng đi mới cho tương lai của lĩnh vực trí tuệ nhân tạo.
https://venturebeat.com/ai/sambanova-announces-new-ai-samba-coe-v0-2-that-already-beats-databricks-dbrx/