• Mô hình ngôn ngữ lớn (LLM) như GPT-4, Claude, PaLM và Llama đang thống trị lĩnh vực AI nhưng đòi hỏi tài nguyên tính toán và cơ sở hạ tầng lớn
• Mô hình ngôn ngữ nhỏ (SLM) là giải pháp thay thế với số lượng tham số từ vài triệu đến vài tỷ, phù hợp cho thiết bị có tài nguyên hạn chế
• Ưu điểm của SLM trên thiết bị biên:
- Xử lý thời gian thực không có độ trễ
- Tiết kiệm năng lượng
- Bảo mật dữ liệu tốt hơn nhờ xử lý cục bộ
• Thách thức chính khi triển khai SLM:
- Tài nguyên tính toán hạn chế
- Bộ nhớ và lưu trữ giới hạn
- Thời lượng pin ngắn
• Chiến lược tối ưu hóa SLM:
- Nén mô hình và lượng tử hóa để giảm kích thước
- Chưng cất tri thức từ mô hình lớn sang nhỏ
- Học liên hợp trực tiếp trên thiết bị
• Công cụ và framework hỗ trợ:
- TensorFlow Lite (LiteRT)
- ONNX Runtime
- MediaPipe của Google
• Ứng dụng thực tế:
- Dịch ngôn ngữ thời gian thực
- Nhận dạng giọng nói
- IoT công nghiệp
- Thiết bị y tế
- Hệ thống an ninh thông minh
📌 SLM mở ra kỷ nguyên mới cho AI trên thiết bị biên với ưu điểm về hiệu quả, bảo mật và xử lý thời gian thực. Mô hình này chỉ yêu cầu từ vài triệu đến vài tỷ tham số, phù hợp triển khai trên smartphone, thiết bị đeo và IoT mà không cần kết nối cloud.
https://www.forbes.com/councils/forbestechcouncil/2024/11/15/scaling-small-language-models-slms-for-edge-devices-a-new-frontier-in-ai/