Phương pháp mới có thể giảm 95% năng lượng tiêu thụ cho ứng dụng AI, nhưng cần phần cứng chuyên dụng mới

- BitEnergy AI giới thiệu phương pháp tính toán mới có tên Linear-complexity multiplication, có khả năng giảm 95% năng lượng tiêu thụ cho các ứng dụng AI

- Phương pháp này thay thế cách tính nhân dấu phẩy động (floating-point multiplication - FPM) truyền thống bằng phép cộng số nguyên

- FPM hiện được sử dụng phổ biến trong AI vì cho phép xử lý số liệu rất lớn hoặc rất nhỏ với độ chính xác cao, tuy nhiên tiêu tốn nhiều năng lượng nhất trong quá trình xử lý AI

- Theo các nhà nghiên cứu, phương pháp mới không ảnh hưởng đến hiệu suất của ứng dụng AI

- Thách thức lớn nhất là phương pháp này đòi hỏi phần cứng khác với hiện tại. Các ứng dụng AI hiện nay chạy trên phần cứng được tối ưu hóa cho tính toán dấu phẩy động như GPU của Nvidia

- Đội nghiên cứu cho biết phần cứng cần thiết đã được thiết kế, chế tạo và thử nghiệm, nhưng vẫn cần được cấp phép và chưa rõ khi nào sẽ có mặt trên thị trường

- Dữ liệu cho thấy riêng ChatGPT tiêu thụ khoảng 564 MWh điện mỗi ngày, đủ cung cấp cho 18.000 hộ gia đình Mỹ

- Các chuyên gia dự đoán trong vài năm tới, các ứng dụng AI có thể tiêu thụ khoảng 100 TWh điện hàng năm, tương đương với ngành đào Bitcoin

📌 BitEnergy AI phát triển phương pháp Linear-complexity multiplication giúp giảm 95% năng lượng tiêu thụ cho AI. Tuy nhiên cần phần cứng chuyên dụng mới thay thế GPU hiện tại. ChatGPT hiện tiêu thụ 564 MWh điện/ngày và dự kiến toàn ngành AI sẽ tiêu thụ 100 TWh điện/năm trong tương lai gần.

https://www.techradar.com/pro/this-new-method-could-reduce-the-energy-needs-of-ai-applications-by-95

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo