- Mô hình ngôn ngữ nhỏ (SLMs) dự kiến sẽ trở thành xu hướng chính vào năm 2025 khi doanh nghiệp tìm kiếm giải pháp huấn luyện nhanh hơn và tiết kiệm năng lượng.
- SLMs sử dụng tập dữ liệu nhỏ hơn và tập trung hơn, cho phép doanh nghiệp huấn luyện mô hình trong vài tuần thay vì vài tháng.
- Thông thường, SLMs có dưới 10 tỷ tham số, trong khi các mô hình lớn có thể lên tới 1.000 tỷ tham số.
- SLMs phù hợp cho các ứng dụng cụ thể trong các lĩnh vực như ứng dụng di động, tính toán biên và các môi trường có nguồn tài nguyên hạn chế.
- Kiến thức huấn luyện đang cải thiện, giúp SLMs có độ chính xác cao hơn và thời gian xử lý nhanh hơn.
- Do kích thước nhỏ hơn, SLMs có bề mặt tấn công nhỏ hơn, làm cho chúng có khả năng phòng thủ tốt hơn trong an ninh mạng.
- Chúng cũng ít tốn kém và tiêu thụ năng lượng hơn, không cần hạ tầng đắt tiền như các mô hình lớn.
- Việc đạt được giấy phép cho tài liệu huấn luyện cũng đơn giản hơn cho SLMs, giúp giảm bớt nghĩa vụ quy định.
- Các công ty lớn như Microsoft, Meta và Google đã phát triển SLMs. Microsoft phát hành mô hình Phi-3 cho nội dung tiếp thị và chatbot hỗ trợ khách hàng.
- Google đã ra mắt Gemma 2B và Gemma 7B, giúp thực hiện các nhiệm vụ như trả lời câu hỏi và tóm tắt thông tin.
- Mistral cũng đã phát hành một trong các mô hình của mình dưới giấy phép Apache 2.0.
- SLMs có thể gặp hạn chế khi tổ chức cảm thấy cần nâng cấp lên các mô hình lớn hơn vì tính hiệu quả chỉ trong một số lĩnh vực nhất định.
- SLMs thường hoạt động tốt nhất khi kết hợp với các mô hình lớn hơn (LLMs) để tối ưu hóa hiệu quả.
- Cạnh tranh trong thị trường AI đang gia tăng, và SLMs có thể cung cấp khả năng mở rộng dễ dàng cho các ứng dụng công nghiệp.
📌 Mô hình ngôn ngữ nhỏ có khả năng bùng nổ vào năm 2025 với độ chính xác cao hơn và chi phí thấp hơn. Các doanh nghiệp đang tìm kiếm giải pháp tiết kiệm năng lượng và dễ dàng tuân thủ quy định, đồng thời có thể kết hợp tốt với mô hình lớn hơn.
https://www.itpro.com/technology/artificial-intelligence/small-language-models-set-for-take-off-next-year