• Nhu cầu năng lượng cho các trung tâm dữ liệu hỗ trợ công nghệ AI tạo sinh như ChatGPT và DALL-E đang tăng vọt, tạo áp lực lên lưới điện Mỹ chưa từng có kể từ thời kỳ phổ biến hóa điều hòa trung tâm vào những năm 1960.
• Theo báo cáo McKinsey tháng 1/2023, tiêu thụ điện năng của trung tâm dữ liệu tại Mỹ dự kiến tăng từ 17 gigawatt (GW) năm 2017 lên 35 GW vào năm 2030, tương đương sản lượng của 9 đập thủy điện Hoover Dam.
• Các công ty công nghệ như Microsoft đã bắt đầu ký hợp đồng trực tiếp với nhà cung cấp năng lượng tái tạo để đáp ứng nhu cầu.
• Tuy nhiên, một số công ty khác đang tìm kiếm giải pháp mới, tập trung vào việc nâng cao hiệu quả bằng cách giảm tiêu thụ điện năng cho hoạt động suy luận AI tạo sinh.
• Các trung tâm dữ liệu AI tiêu thụ gấp 4 lần điện năng so với trung tâm dữ liệu điện toán đám mây do sử dụng GPU thực hiện xử lý song song mạng.
• GPU NVIDIA H100 tiêu tốn 700 watt, gấp đôi so với CPU Intel và AMD thông thường (300-400 watt).
• Giải pháp mở rộng thêm phần cứng không phải là lâu dài vì sẽ chỉ làm tăng nhu cầu năng lượng, giống như việc mở rộng đường cao tốc không giải quyết được vấn đề tắc nghẽn giao thông.
• Cần có giải pháp mới tập trung vào việc tối ưu hóa phần mềm và thuật toán để giảm thiểu nhu cầu tài nguyên phần cứng, từ đó giảm tiêu thụ năng lượng.
📌Các trung tâm dữ liệu AI tiêu thụ gấp 4 lần điện năng so với trung tâm dữ liệu điện toán đám mây. Nhu cầu năng lượng tăng cao để phục vụ AI tạo sinh đang đặt ra thách thức mới cho lưới điện Mỹ. Cần có giải pháp mới tối ưu phần mềm, thuật toán để giảm thiểu tiêu thụ điện năng, thay vì chỉ mở rộng phần cứng như trước đây.
Citations:
[1] https://www.forbes.com/sites/forbestechcouncil/2024/04/22/powering-the-future-meet-the-scaling-energy-demands-of-generative-ai/?sh=2ac09ff66b7a