- Microsoft và Nvidia đang hợp tác phát triển một giao diện lập trình ứng dụng (API) cho phép các nhà phát triển chạy ứng dụng AI được tăng cường trên card đồ họa RTX.
- API này bao gồm các mô hình ngôn ngữ nhỏ (SLM) là nền tảng cho các tính năng như Recall và Live Captions trong Copilot+.
- Điều này mở ra khả năng chạy ứng dụng AI mạnh mẽ hơn trên GPU thay vì NPU, vì GPU thường có khả năng xử lý AI cao hơn NPU.
- Nó cũng cho phép chạy ứng dụng AI trên các máy tính không thuộc dòng Copilot+ hiện tại.
- Các PC Copilot+ hiện tại yêu cầu NPU có khả năng xử lý ít nhất 40 Tera Ops/giây, chỉ có Snapdragon X Elite đáp ứng.
- Trong khi đó, ngay cả GPU cấp thấp cũng đạt 100 Tera Ops, cao cấp còn cao hơn nữa.
- API mới cũng thêm khả năng tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài (RAG) vào Copilot, giúp AI cung cấp giải pháp hữu ích hơn.
- Ngoài ra, Nvidia cũng công bố bộ công cụ RTX AI Toolkit cho phép nhà phát triển tối ưu mô hình AI cho ứng dụng cụ thể, làm mô hình nhanh hơn 4 lần và nhỏ hơn 3 lần so với nguồn mở.
📌 Nvidia và Microsoft hợp tác cho phép ứng dụng AI chạy trên GPU thay vì NPU, mở rộng khả năng sử dụng AI mạnh mẽ trên nhiều máy tính hơn. Bộ công cụ mới cũng giúp tối ưu mô hình AI cho ứng dụng cụ thể.
https://www.digitaltrends.com/computing/nvidia-microsoft-api-computex-2024/