TinyLlama: Mô hình ngôn ngữ quy mô nhỏ mã nguồn mở đào tạo trước mô hình Llama 1,1 tỷ USD trên 3 nghìn tỷ token
- TinyLlama là mô hình ngôn ngữ nhỏ gọn, nguồn mở với 1.1 tỷ tham số.
- Được tiền huấn luyện trên khoảng 1 nghìn tỷ token qua khoảng 3 kỳ.
- Kế thừa kiến trúc và tokenizer từ Llama 2, tận dụng các tiến bộ từ cộng đồng nguồn mở như FlashAttention để cải thiện hiệu suất tính toán.
- Mặc dù có kích thước nhỏ, TinyLlama thể hiện hiệu năng đáng chú ý trong các nhiệm vụ phụ trợ.
- Vượt trội hơn các mô hình ngôn ngữ nguồn mở khác có kích thước tương đương.
- Checkpoints và mã nguồn của mô hình có sẵn công khai trên GitHub.
📌 TinyLlama mở ra kỷ nguyên mới cho ngành xử lý ngôn ngữ tự nhiên (NLP), nơi mà hiệu suất cao không còn đồng nghĩa với việc sử dụng nhiều tài nguyên tính toán. Với kích thước nhỏ gọn và khả năng cạnh tranh, TinyLlama không chỉ thúc đẩy nghiên cứu trong lĩnh vực NLP mà còn làm cho công nghệ này trở nên tiếp cận hơn với cộng đồng lớn hơn, đặc biệt là những người dùng có nguồn lực hạn chế. Điều này chứng minh sự tinh gọn không hề giảm bớt khả năng của một mô hình AI, khi mà TinyLlama với 1.1 tỷ tham số vẫn đạt được hiệu suất xuất sắc trên nhiều nhiệm vụ khác nhau.