- Nhóm nghiên cứu từ Viện Khoa học và Công nghệ tiên tiến Hàn Quốc (KAIST) giới thiệu chip AI "Complementary-Transformer" (C-Transformer) tại Hội nghị Mạch tích hợp trạng thái rắn Quốc tế 2024.
- Chip C-Transformer được tuyên bố là chip tăng tốc AI siêu tiết kiệm năng lượng đầu tiên có khả năng xử lý mô hình ngôn ngữ lớn (LLM).
- Chip này tiêu thụ năng lượng thấp hơn 625 lần và nhỏ hơn 41 lần so với GPU Nvidia A100 Tensor Core.
- Thành tựu của chip C-Transformer chủ yếu đến từ công nghệ tính toán nơ-ron tinh chỉnh.
- Chip C-Transformer hiện được sản xuất trên quy trình 28nm của Samsung, có diện tích die 20.25mm2, tần số tối đa 200 MHz, tiêu thụ dưới 500mW và đạt 3.41 TOPS.
- Kiến trúc của chip gồm 3 khối tính năng chính: HDSC với HMAU, OSSU và IWGU với ESC.
- Công nghệ tính toán nơ-ron được cải tiến để đạt độ chính xác tương đương với mạng nơ-ron sâu (DNN).
- Mặc dù chưa có so sánh trực tiếp về hiệu năng, chip C-Transformer hứa hẹn là lựa chọn hấp dẫn cho điện toán di động.
📌 Chip AI C-Transformer của KAIST tiêu thụ năng lượng thấp hơn 625 lần và nhỏ gọn hơn 41 lần so với GPU Nvidia A100, đạt 3.41 TOPS trên quy trình 28nm của Samsung. Với công nghệ tính toán nơ-ron tinh chỉnh, chip này mở ra tiềm năng ứng dụng AI trên thiết bị di động mặc dù chưa có so sánh trực tiếp về hiệu năng.
https://www.tomshardware.com/tech-industry/artificial-intelligence/korean-researchers-power-shame-nvidia-with-new-neural-ai-chip-claim-625-times-less-power-41-times-smaller