Phương pháp huấn luyện mới giúp tiết kiệm 30% năng lượng cho mô hình AI

- Các nhà nghiên cứu tại Đại học Michigan đã phát triển phương pháp huấn luyện mới giúp tiết kiệm tới 30% năng lượng cho các mô hình ngôn ngữ lớn như GPT.

- Theo dự báo của Wells Fargo, lượng điện tiết kiệm được có thể cung cấp cho 1,1 triệu hộ gia đình Mỹ vào năm 2026.

- Quỹ tiền tệ quốc tế IMF dự đoán các trung tâm dữ liệu sẽ chiếm 1,2% lượng khí thải carbon toàn cầu vào năm 2027.

- Công cụ Perseus được phát triển để xác định đường dẫn tới hạn - chuỗi các tác vụ phụ cần thời gian hoàn thành lâu nhất.

- Perseus làm chậm các bộ xử lý không nằm trên đường dẫn tới hạn để tất cả hoàn thành công việc cùng lúc, từ đó loại bỏ việc sử dụng điện không cần thiết.

- Nguyên nhân lãng phí năng lượng là do việc phân chia không đồng đều khối lượng công việc giữa các GPU khi huấn luyện AI.

- Nhóm nghiên cứu đã thử nghiệm Perseus với GPT-3 và ba mô hình ngôn ngữ lớn khác cùng một mô hình thị giác máy tính.

- Perseus là công cụ nguồn mở, được cung cấp như một phần của Zeus - công cụ đo lường và tối ưu hóa tiêu thụ năng lượng AI.

- Dự án nhận tài trợ từ Quỹ khoa học quốc gia, Chương trình tài năng NWO Hà Lan, VMware, Mozilla Foundation, Salesforce và Quỹ giáo dục Kwanjeong.

📌 Công cụ Perseus của Đại học Michigan giúp tiết kiệm 30% năng lượng khi huấn luyện AI bằng cách tối ưu hóa tốc độ xử lý GPU, có thể cung cấp điện cho 1,1 triệu hộ gia đình Mỹ vào 2026. Đây là giải pháp thiết thực giảm 1,2% khí thải carbon toàn cầu từ các trung tâm dữ liệu vào 2027.

https://www.futurity.org/ai-training-power-use-3258132/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo