Dracarys: mã nguồn mở mới cải thiện hiệu suất viết mã nguồn cho các LLM như Llama 3.1 và Qwen2

- Abacus.ai, một nền tảng phát triển mô hình AI và nhà cung cấp công cụ, vừa ra mắt một họ mô hình ngôn ngữ lớn (LLM) mã nguồn mở mới có tên là Dracarys, được thiết kế để tối ưu hóa các tác vụ lập trình.
- Dracarys sử dụng kỹ thuật "công thức Dracarys" để cải thiện khả năng mã hóa của các mô hình LLM mã nguồn mở như Llama 3.1 70B và Qwen2 72B, với điểm số mã hóa LiveBench lần lượt là 35.23 và 38.95.
- Các mô hình Dracarys hiện đang có sẵn trên Hugging Face và trong gói Enterprise của Abacus.ai, cung cấp một lựa chọn cho các doanh nghiệp không muốn gửi dữ liệu của họ đến các API công cộng.
- Abacus.ai cũng có kế hoạch ra mắt các phiên bản Dracarys cho các mô hình Deepseek-coder và Llama-3.1 400b trong tương lai.
- Các nhà phát triển và doanh nghiệp có thể hưởng lợi từ hiệu suất mã hóa được cải thiện của Dracarys, giúp tạo mã hiệu quả hơn.


📌Các mô hình Dracarys mã nguồn mở mới của Abacus.ai, sử dụng công thức Dracarys, đã cải thiện đáng kể khả năng mã hóa của các mô hình LLM như Llama 3.1 70B và Qwen2 72B. Các mô hình này mang lại nhiều lợi ích cho các nhà phát triển và doanh nghiệp trong việc tạo mã hiệu quả hơn, đồng thời cung cấp một lựa chọn an toàn cho các doanh nghiệp không muốn gửi dữ liệu đến các API công cộng.

 

https://venturebeat.com/ai/open-source-dracarys-models-ignite-generative-ai-fired-coding/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo