- Theo khảo sát của Gartner, 92% CIO dự định tích hợp AI vào tổ chức của họ vào năm 2025, nhưng 49% gặp khó khăn trong việc đánh giá và thể hiện giá trị của công nghệ này.
- Mô hình ngôn ngữ nhỏ (SLM) đang nổi lên như một giải pháp hấp dẫn, hứa hẹn khả năng AI chi phí thấp hơn và bảo mật hơn, phù hợp với các ưu tiên chiến lược của doanh nghiệp.
- Amer Sheikh, trưởng khoa học dữ liệu tại BearingPoint cho biết: "Cộng đồng AI đã tích cực khám phá các mô hình ngôn ngữ nhỏ như Mistral Small và DeepSeek R1. Sự phổ biến của chúng xuất phát từ khả năng cân bằng giữa độ chính xác, tốc độ và hiệu quả chi phí."
- SLM đang thúc đẩy làn sóng tiếp theo của việc áp dụng AI tại biên, cho phép các mô hình AI chạy trên điện thoại thông minh, thiết bị IoT và hệ thống công nghiệp mà không phụ thuộc vào cơ sở hạ tầng đám mây.
- Một số ứng dụng thực tế của SLM bao gồm: mô hình DeepSeek R1 được tích hợp vào hệ thống thông tin giải trí của các nhà sản xuất ô tô Trung Quốc (như Geely), Phi-3 - một mô hình nhỏ được thiết kế cho ứng dụng AI di động, và Smile Plug của Stanford sử dụng các mô hình AI nhỏ để cung cấp trải nghiệm học tập tương tác trên thiết bị Raspberry Pi mà không cần kết nối internet.
- SLM có thể chạy cục bộ, cắt giảm chi phí và giảm thiểu rủi ro bảo mật, khiến chúng phù hợp để nâng cao trí thông minh của thiết bị biên. "Có sự giảm thiểu đáng kể trong chi phí suy luận. Tuy nhiên, sẽ có chi phí nhỏ cho việc tinh chỉnh và tự lưu trữ," Sheikh nói thêm.
- Các ngành được quy định chặt chẽ như viễn thông, kế toán và luật đang áp dụng SLM nhanh chóng hơn nhờ khả năng tập trung vào các trường hợp sử dụng cụ thể, dành riêng cho ngành.
- Bảo mật là yếu tố chính, đặc biệt là trong các thiết bị biên. SLM là phiên bản tại chỗ của thế giới AI tạo sinh, giúp dữ liệu không cần rời khỏi biên giới của tổ chức.
- Saman Nasrolahi từ InMotion Ventures cho biết: "Khoảng một phần ba tất cả các cuộc tấn công an ninh mạng xảy ra khi dữ liệu được chia sẻ với nhà cung cấp bên ngoài. Bằng cách giữ dữ liệu tại chỗ, SLM có thể giảm bề mặt tấn công và lỗ hổng doanh nghiệp."
- Với tiến bộ trong các bộ chip tùy chỉnh, các yêu cầu về điện năng, bộ nhớ và hiệu suất của SLM hiện có thể được tìm thấy trong hầu hết các máy tính xách tay và điện thoại di động tầm trung.
- SLM tiêu thụ ít năng lượng hơn, làm cho chúng rẻ hơn, tốt hơn cho môi trường, và thường đủ nhỏ để chạy cục bộ trên thiết bị biên như điện thoại di động hoặc PC mà không cần kết nối internet.
- Báo cáo Tech Trends 2025 của Deloitte cho thấy các doanh nghiệp đang xem xét SLM và các tùy chọn nguồn mở để đào tạo mô hình trên các bộ dữ liệu nhỏ hơn, chính xác hơn.
- Vào năm 2017, Gartner đã dự đoán rằng đến năm nay, 75% dữ liệu do doanh nghiệp tạo ra sẽ được tạo và xử lý bên ngoài các trung tâm dữ liệu tập trung truyền thống hoặc đám mây.
- SLM đang định hình lại các ngành y tế, tài chính và quốc phòng, cho phép AI trên thiết bị giảm độ trễ, bảo vệ dữ liệu nhạy cảm và nâng cao việc ra quyết định thời gian thực.
📌 SLM đang mở ra kỷ nguyên mới cho AI doanh nghiệp với chi phí thấp hơn 90%, bảo mật cao hơn và khả năng chạy trên thiết bị biên. Đến 2025, 92% CIO sẽ tích hợp AI, với SLM là giải pháp chiến lược cho các ngành y tế, tài chính và sản xuất.
https://www.computerweekly.com/feature/Why-SLMs-could-be-a-big-deal-for-businesses-looking-for-an-edge