- Groq phát triển Language Processing Unit (LPU), một loại chip mới chuyên biệt cho việc chạy các mô hình AI với tốc độ rất cao.
- GroqChip hiện tại là một bộ xử lý 14nm, hoạt động dựa trên quy mô, vận hành trong đám mây như một cụm các đơn vị được cấu trúc tốt, phân tích dữ liệu một cách hiệu quả.
- Việc có quyền truy cập vào suy luận AI với độ trễ thấp giúp giảm bớt một số điểm nghẽn trong việc cung cấp các giải pháp AI, cho phép chuyển đổi văn bản thành giọng nói và ngược lại diễn ra trong thời gian thực.
- Jonathan Ross, người sáng lập và CEO của Groq, cũng là người dẫn dắt phát triển Google's Tensor Processing Units (TPU), đã thiết kế các chip này với mục tiêu về khả năng mở rộng nhanh chóng và dòng chảy dữ liệu hiệu quả qua chip.
- Groq tập trung vào việc chạy các mô hình AI thay vì đào tạo chúng, một hướng đi khác biệt so với nhiều công ty khác đang cạnh tranh trong lĩnh vực trí tuệ nhân tạo.
📌 Groq tập trung vào việc chạy các mô hình AI thay vì đào tạo chúng, một hướng đi khác biệt so với nhiều công ty khác. GroqChip hiện tại là một bộ xử lý 14nm. Groq đang định hình lại tương lai của AI với việc phát triển Language Processing Unit (LPU), một loại chip được thiết kế đặc biệt để chạy các mô hình AI với tốc độ cao. Sự đổi mới này không chỉ giúp giảm thiểu độ trễ trong suy luận AI, mà còn mở ra khả năng tương tác tự nhiên hơn với trợ lý AI, như việc chuyển đổi văn bản thành giọng nói và ngược lại một cách nhanh chóng. Với kinh nghiệm từ việc phát triển Google's Tensor Processing Units (TPU), Jonathan Ross và đội ngũ của mình tại Groq đang tập trung vào việc mở rộng quy mô và tối ưu hóa dòng chảy dữ liệu qua chip.
Citations:
[1] https://www.tomsguide.com/ai/meet-groq-the-chip-designed-to-run-ai-models-really-really-fast