- Đầu tư tư nhân vào AI tăng từ 3 tỷ USD năm 2022 lên 25 tỷ USD năm 2023, thúc đẩy các trung tâm dữ liệu liên tục nâng cấp phần cứng
- Các mô hình ngôn ngữ lớn như ChatGPT, Claude hay LlaMa có thể tạo ra 2,75 triệu tấn rác thải điện tử mỗi năm
- Dự báo đến năm 2030, lượng rác thải điện tử từ các trung tâm dữ liệu AI sẽ đạt khoảng 16 triệu tấn
- Tốc độ tăng trưởng rác thải AI đạt 110% mỗi năm, vượt xa mức 2,8% của rác thải điện tử thông thường
- Bắc Mỹ chiếm 58% lượng rác thải AI, tiếp theo là Đông Á 25% và châu Âu 14%
- Đến năm 2030, rác thải này sẽ chứa gần 1 triệu tấn chì, 6.000 tấn bari và nhiều kim loại độc hại khác
- ChatGPT tiêu thụ 0,5 lít nước cho mỗi 4 lượt truy vấn, với hơn 220 triệu người dùng mỗi tháng
- Các quốc gia không tiếp cận được chip hiện đại có thể tạo ra nhiều rác thải hơn 14% do phải sử dụng phần cứng kém hiệu quả
- Giải pháp đề xuất: Kéo dài tuổi thọ máy chủ có thể giảm 58% rác thải, tái sử dụng linh kiện giảm thêm 21%
- Tiềm năng thu hồi 70 tỷ USD từ việc tái chế các kim loại quý trong rác thải điện tử
📌 Ngành AI đang tạo ra khủng hoảng rác thải điện tử với tốc độ tăng 110%/năm, dự kiến đạt 16 triệu tấn vào 2030. Bắc Mỹ chiếm tỷ trọng lớn nhất với 58%. Các giải pháp về bảo trì và tái sử dụng có thể giảm đến 79% lượng rác thải.
https://decrypt.co/290638/ai-boom-e-waste-toxic-materials-2030
• AI tạo sinh dự kiến sẽ tạo ra từ 1,2 đến 5 triệu tấn rác thải điện tử tính đến năm 2030, chiếm một phần nhỏ nhưng đáng kể trong tổng số 60 triệu tấn rác thải điện tử toàn cầu mỗi năm
• Rác thải điện tử từ AI chủ yếu đến từ các thiết bị máy tính hiệu năng cao tại trung tâm dữ liệu bao gồm:
- Máy chủ, GPU, CPU
- Module bộ nhớ và thiết bị lưu trữ
- Chứa kim loại quý như đồng, vàng, bạc, nhôm và đất hiếm
- Chứa vật liệu độc hại như chì, thủy ngân và crom
• Nguyên nhân chính gây ra rác thải:
- Công nghệ phần cứng phát triển nhanh chóng
- Vòng đời thiết bị ngắn (2-5 năm)
- Nhu cầu thay thế liên tục để cập nhật phiên bản mới
• Các giải pháp giảm thiểu rác thải:
- Kéo dài tuổi thọ thiết bị
- Tân trang và tái sử dụng linh kiện
- Thiết kế phần cứng dễ tái chế và nâng cấp
- Có thể giảm đến 86% rác thải trong kịch bản tốt nhất
• Thực trạng xử lý rác thải điện tử:
- Chỉ 22% được thu gom và tái chế chính thức
- Phần lớn được xử lý qua hệ thống không chính thức
- Các nước thu nhập thấp thiếu cơ sở hạ tầng quản lý
- Vấn đề bảo mật dữ liệu cản trở việc tái chế
📌 AI tạo sinh sẽ đóng góp thêm 5 triệu tấn rác thải điện tử vào năm 2030. Hiện mới có 22% rác thải được tái chế chính thức. Cần triển khai đồng bộ các giải pháp như kéo dài tuổi thọ thiết bị, tái chế an toàn và hoàn thiện chính sách quản lý để giảm thiểu tác động môi trường.
https://www.technologyreview.com/2024/10/28/1106316/ai-e-waste/
#MIT
📌 Để duy trì vị thế trong cuộc đua AI toàn cầu, Mỹ cần cải cách khẩn cấp mạng lưới năng lượng nhằm tăng cường hiệu quả và bảo mật. Việc trì hoãn cải cách sẽ khiến nước này thụt lùi và dễ bị tấn công mạng, đe dọa cả kinh tế và an ninh quốc gia.
https://www.darkreading.com/vulnerabilities-threats/us-needs-better-energy-grid-win-ai-arms-race
• Các kỹ sư từ công ty BitEnergy AI đã phát triển một phương pháp xử lý AI mới, thay thế phép nhân số thực dấu phẩy động (FPM) bằng phép cộng số nguyên.
• Phương pháp mới có tên Linear-Complexity Multiplication (L-Mul), cho kết quả gần với FPM nhưng sử dụng thuật toán đơn giản hơn, đồng thời vẫn duy trì độ chính xác cao.
• L-Mul có thể giảm mức tiêu thụ điện năng của hệ thống AI lên tới 95%, đây là bước phát triển quan trọng cho tương lai AI.
• Tuy nhiên, phần cứng phổ biến hiện nay như GPU Blackwell sắp ra mắt của Nvidia chưa được thiết kế để xử lý thuật toán này.
• Việc chuyển đổi sang L-Mul có thể khiến các công ty AI do dự, đặc biệt là sau khi đã đầu tư hàng triệu hoặc tỷ đô la vào phần cứng AI hiện tại.
• Tuy nhiên, mức giảm 95% tiêu thụ điện năng có thể thúc đẩy các công ty công nghệ lớn chuyển đổi, đặc biệt nếu các nhà sản xuất chip AI phát triển mạch tích hợp chuyên dụng (ASIC) tận dụng thuật toán mới.
• Năng lượng hiện là rào cản chính cho sự phát triển AI. Chỉ riêng các GPU trung tâm dữ liệu bán ra năm ngoái đã tiêu thụ nhiều điện hơn 1 triệu hộ gia đình trong một năm.
• Google đã phải đặt mục tiêu khí hậu sang một bên do nhu cầu điện năng của AI, với lượng phát thải khí nhà kính tăng 48% so với năm 2019.
• Cựu CEO Google thậm chí đề xuất bỏ mục tiêu khí hậu và sử dụng AI tiên tiến hơn để giải quyết vấn đề nóng lên toàn cầu.
• Nếu xử lý AI có thể hiệu quả hơn về năng lượng, chúng ta có thể đạt được công nghệ AI tiên tiến mà không hy sinh môi trường.
• Việc giảm 95% mức sử dụng năng lượng cũng sẽ giảm gánh nặng cho lưới điện quốc gia, giảm nhu cầu xây dựng thêm nhà máy điện.
• Sự tiến bộ thực sự chỉ đến khi các bộ xử lý mạnh mẽ hơn và hiệu quả hơn. Nếu L-Mul hoạt động như quảng cáo, nhân loại có thể có cả AI tiên tiến và bảo vệ môi trường.
📌 Thuật toán L-Mul của BitEnergy AI hứa hẹn giảm 95% tiêu thụ điện năng cho AI bằng cách thay thế phép nhân phức tạp bằng phép cộng đơn giản. Đây có thể là bước đột phá quan trọng giúp phát triển AI bền vững, giảm tác động môi trường và gánh nặng cho lưới điện.
https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-engineers-build-new-algorithm-for-ai-processing-replace-complex-floating-point-multiplication-with-integer-addition
- Nhu cầu về các trung tâm dữ liệu tại Mỹ đã tăng đột biến do sự gia tăng sử dụng các công nghệ số hóa và trí tuệ nhân tạo (AI). Đến cuối thập kỷ này, nhu cầu điện từ các trung tâm dữ liệu dự kiến sẽ chiếm từ 11% đến 12% tổng nhu cầu điện của Mỹ, so với chỉ 3% đến 4% hiện nay. Điều này có nghĩa là mức tiêu thụ điện của các trung tâm dữ liệu sẽ tăng gấp 3 lần so với hiện tại.
- Để đáp ứng nhu cầu này, cần phải có thêm hơn 50 gigawatt (GW) công suất trung tâm dữ liệu, yêu cầu một khoản đầu tư khổng lồ hơn 500 tỷ USD vào cơ sở hạ tầng.
- Sự phát triển của AI tạo sinh (gen AI) được dự đoán có thể mang lại giá trị kinh tế toàn cầu từ 2,6 nghìn tỷ đến 4,4 nghìn tỷ USD. Tuy nhiên, để đạt được tiềm năng này, Mỹ sẽ cần từ 50 đến 60 GW công suất trung tâm dữ liệu mới.
- Mặc dù nhu cầu về điện tăng cao, ngành năng lượng đang phải đối mặt với các thách thức lớn về cơ sở hạ tầng, nguồn cung điện bền vững, và khả năng truyền tải điện. Việc cung cấp điện cho các trung tâm dữ liệu mới tại các khu vực lớn như Northern Virginia có thể mất tới hơn 3 năm do thời gian chờ đợi cho thiết bị điện như máy biến áp có thể kéo dài tới 2 năm.
- Ngành năng lượng Mỹ đã không có sự tăng trưởng đáng kể về nhu cầu kể từ năm 2007, nhưng hiện nay, các trung tâm dữ liệu có thể đóng góp từ 30% đến 40% tổng nhu cầu điện mới từ nay đến năm 2030, bao gồm cả các yêu cầu về điện cho sản xuất trong nước và xe điện.
- Các vấn đề về kết nối lưới điện không chỉ là việc thiếu khả năng tạo ra điện mà còn do khó khăn trong việc kết nối với mạng lưới truyền tải. Trong khi đó, nguồn điện tái tạo chưa đủ để thay thế hoàn toàn các nhà máy nhiệt điện cũ, buộc các công ty phải tiếp tục phụ thuộc vào các nhà máy điện nhiên liệu hóa thạch.
- Vấn đề thiếu hụt lao động cũng là một rào cản lớn. Dự báo cho thấy sẽ thiếu khoảng 400.000 công nhân điện tay nghề cao tại Mỹ để thực hiện các dự án xây dựng trung tâm dữ liệu và các cơ sở liên quan như nhà máy sản xuất chất bán dẫn và nhà máy pin.
- Bên cạnh đó, các công ty lớn đang tìm cách xây dựng các trung tâm dữ liệu tại những khu vực có nguồn điện rẻ và bền vững hơn, như Iowa, Wyoming, Indiana, và Ohio. Điều này tạo cơ hội đầu tư lớn vào cơ sở hạ tầng truyền tải và phân phối điện tại các thị trường mới nổi này.
- Để giải quyết tình trạng thiếu hụt nguồn điện, các nhà đầu tư có thể hỗ trợ phát triển các giải pháp năng lượng "hậu đồng hồ điện" (behind-the-meter) nhằm cung cấp điện tại những khu vực mà lưới điện không đáp ứng kịp nhu cầu hoặc không đáng tin cậy. Ví dụ, có thể đầu tư vào việc xây dựng nguồn điện biệt lập ngoài lưới hoặc bổ sung công suất cho các cơ sở hiện có.
- Mặc dù có nhiều công nghệ mới như gió ngoài khơi, địa nhiệt, và lưu trữ carbon, phần lớn nguồn năng lượng sạch trong tương lai sẽ đến từ năng lượng mặt trời và gió trên bờ. Tuy nhiên, các cam kết về phát triển năng lượng tái tạo đang phải đối mặt với thách thức về chi phí và thời gian thực hiện.
- Một số cơ hội đầu tư khác bao gồm việc tham gia vào phát triển thiết bị điện như máy phát điện, máy biến áp, và các đơn vị phân phối điện (PDUs). Sự gia tăng mật độ năng lượng trong các giá chứa thiết bị (rack) lên đến 100 kilowatt/rack đòi hỏi các công nghệ thiết bị điện phải được cải tiến liên tục, mở ra cơ hội cho các nhà sản xuất mới.
- Để đối phó với nhu cầu lớn về nhân lực có tay nghề cao, các nhà thầu lớn trong lĩnh vực trung tâm dữ liệu đang phải hợp tác với các nhà thầu khu vực để bù đắp sự thiếu hụt. Việc đầu tư vào sản xuất và lắp ráp tại các địa điểm từ xa cũng có thể giúp giảm nhu cầu nhân lực tại các công trường và tăng tốc độ hoàn thành dự án.
📌 Nhu cầu điện của trung tâm dữ liệu tại Mỹ dự kiến tăng gấp 3 lần vào năm 2030, với đầu tư 500 tỷ USD vào hạ tầng năng lượng. Các thách thức về cơ sở hạ tầng, lao động và năng lượng tái tạo tạo ra nhiều cơ hội đầu tư mới trong lĩnh vực này.
https://www.mckinsey.com/industries/private-capital/our-insights/how-data-centers-and-the-energy-sector-can-sate-ais-hunger-for-power
#McKinsey
• Theo phân tích của The Guardian, lượng khí thải thực tế từ các trung tâm dữ liệu của các công ty công nghệ lớn như Microsoft, Google, Meta và Apple cao hơn 662% so với số liệu họ báo cáo chính thức.
• Phân tích này chỉ giới hạn trong giai đoạn 2020-2022, chưa bao gồm giai đoạn bùng nổ AI gần đây. Do đó, con số thực tế có thể còn cao hơn nhiều.
• Amazon là công ty phát thải lớn nhất, nhưng không thể đưa vào so sánh trên vì thiếu dữ liệu cụ thể về trung tâm dữ liệu.
• Tất cả 5 công ty công nghệ lớn đều từng tuyên bố đạt trung hòa carbon, nhưng đây được cho là "kế toán sáng tạo".
• Các công ty sử dụng phương pháp báo cáo "phát thải dựa trên thị trường", cho phép họ mua chứng chỉ năng lượng tái tạo (RECs) để bù đắp lượng khí thải. Tuy nhiên, việc xác minh RECs này rất hạn chế.
• Phương pháp "phát thải dựa trên vị trí" phản ánh chính xác hơn lượng khí thải thực tế của từng trung tâm dữ liệu.
• Meta có sự chênh lệch lớn nhất: báo cáo chính thức năm 2022 là 273 tấn CO2, trong khi con số thực tế là 3,8 triệu tấn - cao gấp 19.000 lần.
• Microsoft báo cáo 280.782 tấn, nhưng con số thực tế là 6,1 triệu tấn.
• Nếu coi 5 công ty này là một quốc gia, tổng lượng phát thải "dựa trên vị trí" năm 2022 sẽ xếp họ ở vị trí thứ 33 trong danh sách các quốc gia phát thải nhiều nhất, sau Philippines và trên Algeria.
• Xu hướng phát thải đang gia tăng đáng lo ngại, khi nhu cầu năng lượng cho AI tiếp tục tăng trong tương lai.
• Các công ty đang che giấu tác động môi trường thực sự của AI thông qua các phương pháp báo cáo không minh bạch.
• Việc thiếu trách nhiệm giải trình và kiểm chứng độc lập đối với các tuyên bố về môi trường của các công ty công nghệ lớn là một vấn đề nghiêm trọng.
📌 Các trung tâm dữ liệu AI thải ra lượng khí nhà kính gấp 6,62 lần so với báo cáo chính thức. Nếu coi 5 công ty công nghệ lớn là một quốc gia, họ sẽ đứng thứ 33 về lượng phát thải toàn cầu. Xu hướng này đang gia tăng đáng lo ngại khi nhu cầu AI tăng cao.
https://futurism.com/the-byte/ai-datacenters-worse
• Microsoft, BlackRock và các đối tác đã thành lập Liên minh Đầu tư Cơ sở Hạ tầng AI Toàn cầu (GAIIP) nhằm huy động tới 100 tỷ USD để phát triển trung tâm dữ liệu AI và cơ sở hạ tầng năng lượng.
• Mục tiêu ban đầu của GAIIP là huy động 30 tỷ USD vốn, sau đó có thể tăng lên 100 tỷ USD thông qua tài trợ nợ.
• Các thành viên khác của liên minh bao gồm Global Infrastructure Partners (GIP) - một nhà đầu tư cơ sở hạ tầng đang được BlackRock mua lại, và MGX - một nhà đầu tư công nghệ từ UAE.
• CEO Microsoft Satya Nadella cho biết sáng kiến này nhằm "tập hợp các nhà lãnh đạo tài chính và công nghiệp để xây dựng cơ sở hạ tầng tương lai và cung cấp năng lượng cho nó một cách bền vững".
• Dự án đáp ứng nhu cầu ngày càng tăng về trung tâm dữ liệu được trang bị GPU của Nvidia để chạy các mô hình AI tạo sinh như ChatGPT của OpenAI.
• Các GPU này tiêu thụ rất nhiều điện năng, tạo ra thách thức trong việc xây dựng các cơ sở mới.
• Khoản đầu tư này của Microsoft bổ sung cho chi tiêu vốn hiện tại nhằm mở rộng cơ sở hạ tầng cho dịch vụ đám mây Azure, vốn cung cấp cho OpenAI và các khách hàng AI khác.
• Microsoft cho biết chi tiêu vốn trong quý 4 tài khóa, bao gồm tài sản thuê tài chính, đạt 19 tỷ USD.
• BlackRock đã thông báo kế hoạch mua lại GIP với giá 3 tỷ USD tiền mặt và khoảng 12 triệu cổ phiếu phổ thông vào tháng 1/2024. Thương vụ dự kiến hoàn tất vào ngày 1/10/2024.
• MGX được thành lập vào tháng 3/2024, với Mubadala của Abu Dhabi và công ty AI G42 là các đối tác sáng lập.
📌 Microsoft, BlackRock và các đối tác thành lập GAIIP nhằm huy động 100 tỷ USD đầu tư vào cơ sở hạ tầng AI. Dự án tập trung phát triển trung tâm dữ liệu và năng lượng cho AI, với mục tiêu ban đầu 30 tỷ USD. Sáng kiến đáp ứng nhu cầu ngày càng tăng về GPU và cơ sở hạ tầng cho các mô hình AI tạo sinh.
https://www.cnbc.com/2024/09/17/microsoft-blackrock-form-gaiip-to-invest-in-ai-data-centers-energy.html
- Nghiên cứu từ Đại học California, Riverside chỉ ra rằng việc sử dụng AI tạo sinh như GPT-4 tiêu tốn lượng nước đáng kể để làm mát máy chủ.
- Đối với mỗi 100 từ được tạo ra, Texas cần khoảng 235 ml nước, trong khi Washington yêu cầu tới 1.408 ml (tương đương 3 chai nước 16.9 oz).
- Lượng nước này có vẻ nhỏ, nhưng khi người dùng sử dụng GPT-4 nhiều lần trong tuần, tổng lượng nước tiêu thụ sẽ tăng lên nhanh chóng.
- Các trung tâm dữ liệu không chỉ tiêu tốn nước mà còn tiêu thụ một lượng điện năng lớn, làm tăng hóa đơn cho cư dân gần đó.
- Ví dụ, Meta đã sử dụng 22 triệu lít nước để huấn luyện mô hình LLaMA-3, tương đương với lượng nước cần thiết để trồng 4.439 pound gạo.
- Nếu 10% người lao động Mỹ sử dụng GPT-4 một lần mỗi tuần trong một năm, nhu cầu điện sẽ đạt 121.517 MWh, tương đương với lượng điện tiêu thụ của tất cả các hộ gia đình ở Washington D.C. trong 20 ngày.
- Các đại diện từ OpenAI, Meta, Google và Microsoft đều nhấn mạnh cam kết giảm thiểu tác động môi trường nhưng không đưa ra hành động cụ thể.
- Đại diện của Microsoft cho biết công ty sẽ hướng tới các phương pháp làm mát trung tâm dữ liệu không tiêu tốn nước, tuy nhiên chưa rõ ràng về cách thực hiện.
📌 Việc sử dụng AI tạo sinh như GPT-4 không chỉ gây áp lực lên nguồn nước mà còn làm tăng hóa đơn điện cho cư dân gần các trung tâm dữ liệu. Nghiên cứu cho thấy rằng một số tiểu bang có mức tiêu thụ nước khác nhau khi sử dụng AI.
https://www.tomshardware.com/tech-industry/artificial-intelligence/using-gpt-4-to-generate-100-words-consumes-up-to-3-bottles-of-water-ai-data-centers-also-raise-power-and-water-bills-for-nearby-residents
• Sự phát triển mạnh mẽ của AI đang tạo ra thách thức kép cho các trung tâm dữ liệu của các công ty công nghệ lớn. Mặc dù AI mang lại cơ hội to lớn, nó cũng làm gia tăng đáng kể lượng khí thải nhà kính từ các trung tâm dữ liệu tiêu thụ nhiều năng lượng để chạy các tác vụ AI.
• Nguyên nhân chính khiến trung tâm dữ liệu tiêu thụ nhiều năng lượng:
- Thiết kế truyền thống chưa tính đến việc đồng phát điện, quản lý nhiệt và nước với các ngành công nghiệp lân cận.
- Các đội ngũ thiếu phương pháp hiệu quả để dự đoán và đo lường công suất xử lý cần thiết, dẫn đến việc sử dụng không hiệu quả CPU và GPU.
- Nhu cầu xử lý AI tăng nhanh vượt quá khả năng cung cấp của các nguồn năng lượng tái tạo.
- Vị trí địa lý của trung tâm dữ liệu hạn chế khả năng tiếp cận nguồn năng lượng tái tạo mới.
• Các giải pháp tiềm năng để tối ưu hóa hiệu quả năng lượng:
- Nâng cao hiệu quả phần cứng và phần mềm: GPU của Nvidia có thể hiệu quả hơn CPU tới 20 lần cho các tác vụ AI.
- Đầu tư vào năng lượng tái tạo và lưu trữ: năng lượng mặt trời, gió, địa nhiệt kết hợp với pin lưu trữ hiệu quả.
- Hạt nhân quy mô nhỏ: một số chuyên gia đề xuất hệ thống hạt nhân mô-đun tại chỗ.
- Tối ưu hóa lưới điện và chia sẻ nhiệt: sử dụng nhiệt thừa từ trung tâm dữ liệu để cung cấp cho cộng đồng xung quanh.
• AI có thể là một phần của giải pháp:
- Tự động hóa do AI điều khiển có thể giảm đáng kể tiêu thụ năng lượng trong sản xuất, giao thông và nông nghiệp.
- Các nhà máy tự tối ưu hóa và chia sẻ năng lượng, xe điện tự lái kết nối với nhà ở và lưới điện địa phương - tất cả được quản lý bởi AI có thể hiệu quả hơn nhiều về mặt năng lượng.
• Bài học từ quá trình chuyển đổi từ văn phòng giấy sang máy tính:
- Mặc dù trung tâm dữ liệu tiêu thụ nhiều điện, nhưng có thể thay thế năng lượng sử dụng trong sản xuất giấy, vận chuyển và đi lại liên quan đến quy trình làm việc thủ công.
- Theo quy luật lợi suất giảm dần, cải thiện hiệu quả năng lượng sẽ ngày càng khó khăn hơn.
• Giải pháp đòi hỏi sự hợp tác toàn cầu:
- Mỗi quốc gia sẽ sớm có mạng lưới trung tâm dữ liệu AI trong nước riêng.
- Cần chia sẻ kiến thức, thực hành tốt nhất và hợp tác nghiên cứu để giải quyết các thách thức mang tính hệ thống.
📌 Sự phát triển mạnh mẽ của AI đặt ra thách thức lớn về năng lượng cho các trung tâm dữ liệu. Các giải pháp tiềm năng bao gồm nâng cao hiệu quả phần cứng/phần mềm, đầu tư năng lượng tái tạo và tối ưu hóa lưới điện. Cần sự hợp tác toàn cầu để giải quyết vấn đề này một cách bền vững.
https://www.forbes.com/sites/timothypapandreou/2024/09/12/the-ai-power-squeeze-a-data-center-sustainability-imperative/
• Microsoft đang quảng bá AI như một công cụ giúp giải quyết "khủng hoảng hành tinh" và chống biến đổi khí hậu. Tuy nhiên, công ty cũng đang bán công nghệ AI cho các tập đoàn dầu khí như ExxonMobil và Chevron để tìm kiếm và khai thác các mỏ dầu khí mới.
• Các tài liệu nội bộ và phỏng vấn cho thấy Microsoft đang tích cực tiếp thị AI như một công cụ mạnh mẽ giúp các công ty dầu khí tối ưu hóa sản xuất, trong khi công khai cam kết giảm mạnh khí thải.
• Microsoft nhấn mạnh mối quan hệ độc quyền với OpenAI như một điểm bán hàng cho khách hàng năng lượng, gợi ý rằng GPT có thể thúc đẩy năng suất ngoài việc khai thác nhiên liệu hóa thạch.
• Công ty lập luận rằng AI có thể giúp sản xuất dầu khí hiệu quả hơn, tăng sản lượng đồng thời giảm khí thải. Tuy nhiên, ý tưởng này vẫn còn mang tính đầu cơ.
• Các trung tâm dữ liệu phục vụ phát triển và vận hành các mô hình AI thế hệ tiếp theo của Microsoft có thể tiêu thụ nhiều điện hơn cả Ấn Độ trong vòng 6 năm tới.
• Một số nhân viên Microsoft cho rằng các hợp đồng năng lượng của công ty chỉ thể hiện thực tế không mấy dễ chịu về cách đầu tư AI của họ được sử dụng.
• Microsoft đã không giảm được lượng khí thải hàng năm kể từ khi đưa ra cam kết khí hậu năm 2020. Báo cáo môi trường mới nhất cho thấy lượng khí thải tăng 29% kể từ năm 2020, một phần do phát triển AI gần đây.
• Một bản trình bày nội bộ năm 2022 phân tích cách các công cụ của Microsoft có thể giúp ExxonMobil tăng doanh thu hàng năm thêm 1,4 tỷ USD, trong đó 600 triệu USD đến từ việc tối đa hóa sản xuất "bền vững".
• Microsoft đang lên kế hoạch xây dựng một siêu máy tính trị giá 100 tỷ USD để hỗ trợ các công nghệ OpenAI thế hệ tiếp theo, có thể tiêu thụ lượng điện tương đương 4 triệu hộ gia đình Mỹ mỗi năm.
• Một số nhân viên Microsoft đã nhiều lần kiến nghị lãnh đạo thay đổi lập trường về các hợp đồng này, đề xuất hạn chế hơn nữa đối với các dự án khai thác nhiên liệu hóa thạch.
📌 Microsoft đang theo đuổi chiến lược mâu thuẫn: vừa quảng bá AI chống biến đổi khí hậu, vừa bán công nghệ cho ngành dầu khí. Công ty lập luận AI có thể giúp sản xuất hiệu quả hơn, nhưng vẫn chưa cam kết ngừng hỗ trợ khai thác nhiên liệu hóa thạch mới. Các trung tâm dữ liệu AI của Microsoft dự kiến tiêu thụ lượng điện khổng lồ trong tương lai gần.
https://www.theatlantic.com/technology/archive/2024/09/microsoft-ai-oil-contracts/679804/
• Theo báo cáo mới của ngân hàng đầu tư Morgan Stanley, từ nay đến năm 2030, các trung tâm dữ liệu có thể thải ra 2,5 tỷ tấn khí nhà kính trên toàn cầu - gấp 3 lần so với khi không có AI tạo sinh.
• Báo cáo có tên "Trung tâm dữ liệu toàn cầu: Quy mô & Giải pháp cho CO2" nhấn mạnh các giải pháp giảm carbon sẽ là ưu tiên hàng đầu khi nhiều doanh nghiệp công nghệ đặt mục tiêu trung hòa carbon vào cuối thập kỷ này.
• AI tạo sinh như ChatGPT có khả năng phản hồi các lệnh và tạo ra văn bản, hình ảnh, âm thanh riêng. Điều này tiêu tốn rất nhiều năng lượng.
• Các cơ sở mới được xây dựng để chứa AI là nguồn phát thải CO2 lớn. Cùng với lượng điện khổng lồ cần thiết để vận hành, lượng khí thải từ các trung tâm này có thể đạt 2,5 tỷ tấn vào cuối những năm 2020.
• Nghiên cứu cũng chỉ ra rằng đến năm 2030, các trung tâm dữ liệu sẽ thải ra 600 triệu tấn mỗi năm, gấp 3 lần so với ước tính 200 triệu tấn của năm nay.
• Dự báo này dựa trên sự tăng trưởng và nhu cầu nhanh chóng đối với công nghệ AI tạo sinh chỉ trong vài năm qua. Các gã khổng lồ công nghệ như Meta, Apple và Google đều đã tham gia sau thành công của các startup như Anthropic và OpenAI.
• Đầu tư vào lĩnh vực này không có dấu hiệu chậm lại. OpenAI, công ty tạo ra ChatGPT, thậm chí có thể đạt giá trị hơn 100 tỷ USD sau vòng gọi vốn mới.
• Báo cáo của Morgan Stanley nhắm đến những nhà đầu tư quan tâm đến các giải pháp bền vững. Nó nhấn mạnh các cơ hội trong thu giữ carbon và loại bỏ carbon dioxide trong ngành.
• Theo nghiên cứu, cần đầu tư từ 15 đến 45 tỷ USD cho các giải pháp bền vững trong lĩnh vực này.
📌 AI tạo sinh có thể làm tăng gấp 3 lần lượng khí thải carbon từ trung tâm dữ liệu, lên 2,5 tỷ tấn vào năm 2030. Morgan Stanley dự báo cần 15-45 tỷ USD đầu tư vào giải pháp bền vững. Các công ty công nghệ lớn đang đua nhau phát triển AI bất chấp tác động môi trường.
https://readwrite.com/generative-ai-carbon-emissions/
• Các công ty công nghệ lớn như Google, Microsoft và OpenAI đang che giấu thông tin về mức tiêu thụ năng lượng và carbon footprint của các mô hình AI của họ.
• Sasha Luccioni, chuyên gia nghiên cứu 10 năm về mức sử dụng năng lượng của AI, cho biết không một công ty nào cung cấp công cụ AI tiết lộ thông tin về mức tiêu thụ năng lượng và carbon footprint.
• Báo cáo bền vững năm 2024 của Google cho thấy tổng lượng khí thải nhà kính của công ty đã tăng 48% từ 2019 đến 2023, phần lớn là do sự phát triển của AI từ năm 2022.
• Microsoft cũng báo cáo mức tăng 29,1% lượng khí thải kể từ năm 2020.
• Theo ước tính của Goldman Sachs, lượng khí thải CO2 từ các trung tâm dữ liệu có thể tăng gấp đôi từ 2022 đến 2030.
• Một truy vấn ChatGPT tiêu thụ gần 3 watt-giờ điện, so với 0,3 watt-giờ cho một lần tìm kiếm Google thông thường.
• Năng lượng cần thiết để trả lời hàng trăm triệu truy vấn ChatGPT mỗi ngày có thể cung cấp điện cho 33.000 hộ gia đình ở Mỹ.
• Trong tháng cuối cùng huấn luyện GPT-4, OpenAI đã sử dụng 11,5 triệu gallon nước tại các trung tâm dữ liệu của Microsoft ở West Des Moines, Iowa - chiếm 6% tổng lượng nước của toàn khu vực.
• Các trung tâm dữ liệu đang gây ra xung đột về nguồn nước ở nhiều nơi như Arizona và Oregon.
• Mặc dù năng lượng tái tạo đang tăng trưởng, nhưng tốc độ không đủ để theo kịp sự phát triển của AI.
• Các công ty công nghệ đang sử dụng tín chỉ carbon để bù đắp lượng khí thải, nhưng điều này không tương đương với việc loại bỏ khí thải khỏi bầu khí quyển.
• Microsoft và Amazon phụ thuộc vào tín chỉ carbon cho hơn 50% năng lượng tái tạo được tuyên bố.
• Ngay cả khi các trung tâm dữ liệu AI được cung cấp 100% bằng năng lượng sạch, điều đó vẫn có nghĩa là họ đang chiếm dụng nguồn năng lượng xanh thuộc về tất cả chúng ta.
• Đã có những tranh chấp pháp lý về việc các công ty công nghệ xây dựng trung tâm dữ liệu gần các nhà máy điện hạt nhân và tranh giành sản lượng điện.
• Mặc dù AI có thể giúp nghiên cứu khí hậu và thiết kế giải pháp thu giữ carbon, nhưng phần lớn việc sử dụng AI hiện nay không nhằm mục đích bảo vệ môi trường.
📌 AI đang gây ra tác động môi trường đáng báo động với mức tiêu thụ năng lượng và nước tăng vọt. Các công ty công nghệ lớn che giấu thông tin chi tiết, nhưng ước tính cho thấy lượng khí thải CO2 từ trung tâm dữ liệu có thể tăng gấp đôi vào năm 2030. Cần minh bạch hơn và sử dụng AI có trách nhiệm.
https://sea.mashable.com/tech-industry/34076/how-much-is-ai-hurting-the-planet-big-tech-wont-tell-us
• AI đang gây lo ngại về tiêu thụ năng lượng quá mức. Các công ty công nghệ lớn đã đổ khoảng 105 tỷ USD vào xây dựng và thuê các trung tâm dữ liệu năm ngoái.
• Nhu cầu điện năng của các trung tâm dữ liệu dự kiến sẽ tăng gấp đôi trong vài năm tới. Goldman Sachs ước tính mức tăng 160% đến năm 2030.
• Tuy nhiên, AI cũng có tiềm năng thúc đẩy đổi mới và phát hiện khoa học, giúp nâng cao hiệu quả và giảm phát thải carbon trong nhiều lĩnh vực.
• Một nghiên cứu của Boston Consulting Group ước tính AI có thể giúp giảm 5-10% lượng khí nhà kính vào năm 2030 nếu được sử dụng rộng rãi trong nền kinh tế.
• AI đang được ứng dụng để cải thiện nông nghiệp, tìm kiếm khoáng sản quan trọng và phát triển năng lượng địa nhiệt sạch.
• Công ty khởi nghiệp Zanskar đang sử dụng AI để nâng cao tỷ lệ thành công trong tìm kiếm năng lượng địa nhiệt, vốn hiện chỉ chiếm chưa đến 0,5% sản lượng điện ở Mỹ.
• Các công ty công nghệ đang nỗ lực cải thiện hiệu quả năng lượng của phần mềm, phần cứng và hệ thống làm mát trong trung tâm dữ liệu.
• Họ cũng đang đặt các cơ sở tính toán ở các nước phía Bắc để tận dụng không khí lạnh làm chất làm mát, giảm tiêu thụ điện và nước.
• Nếu những nỗ lực này thành công và AI được sử dụng thông minh, nó có thể mang lại nhiều lợi ích cho môi trường.
• Tương tự như điện toán đám mây trước đây, hiệu quả của AI có thể tăng nhanh hơn mức tăng tiêu thụ điện năng.
📌 AI đang gây tranh cãi về tác động môi trường, với nhu cầu điện tăng gấp đôi đến 2030. Tuy nhiên, tiềm năng thúc đẩy đổi mới và hiệu quả có thể giúp giảm 5-10% khí nhà kính. Các công ty đang nỗ lực cải thiện hiệu suất, hứa hẹn AI sẽ mang lại lợi ích môi trường đáng kể.
https://www.nytimes.com/2024/08/26/climate/ai-planet-climate-change.html
• Theo dữ liệu từ Liftr Insights, việc vận hành 1.000 GPU H100 và 1.000 GPU A100 có thể tiêu tốn 2 triệu USD tiền điện hàng năm tại Texas.
• Cụm máy chủ gồm 2.000 card Nvidia này có giá trị khoảng 33 triệu USD và có hiệu năng tính toán vượt quá 44,7 petaflops FP64.
• Chi phí điện năng có thể dao động từ 2,1 triệu USD ở Houston, 1,9 triệu USD ở San Antonio đến 1,6 triệu USD ở Austin.
• Nhu cầu đối với H100 và A100 vẫn ở mức cao. Các nhà cung cấp đám mây lớn như AWS, Azure và GCP đang tăng cường áp dụng các bộ vi xử lý Nvidia mới nhất.
• 2.000 GPU được coi là quy mô nhỏ so với các cụm máy chủ lớn mà các công ty công nghệ hàng đầu đang triển khai.
• Meta dự kiến sẽ có công suất tính toán tương đương 600.000 H100 vào cuối năm 2024.
• Elon Musk đang nhắm tới mục tiêu 100.000 GPU H100 cho startup xAI của mình, trong khi Tesla đã triển khai khoảng 35.000 Nvidia H100.
• Theo báo cáo của TechInsights vào tháng 1/2024, năm 2023 có khoảng 878.000 bộ tăng tốc được các nhà cung cấp đám mây sử dụng.
• TechInsights cho rằng các bộ tăng tốc này có thể chưa được tận dụng hết công suất khi chỉ tạo ra 7 triệu giờ GPU làm việc.
• Báo cáo cũng chỉ ra rằng mỗi cụm máy chủ của AWS có 20.000 H100.
📌 Vận hành 2.000 GPU AI của Nvidia có thể tiêu tốn 2 triệu USD tiền điện mỗi năm tại Texas. Các công ty công nghệ lớn đang triển khai cụm máy chủ quy mô lớn, với Meta dự kiến đạt 600.000 H100 vào cuối năm 2024. Tuy nhiên, các bộ tăng tốc AI hiện tại có thể chưa được tận dụng hết công suất.
https://www.datacenterdynamics.com/en/news/running-2000-nvidia-ai-gpus-costs-2m-in-power-annually-in-texas/
• Các nhà nghiên cứu tại Đại học Texas đã phát triển một AI có thể dự đoán động đất với độ chính xác 70% và trước 1 tuần.
• AI sử dụng dữ liệu địa chấn từ các trận động đất ở Trung Quốc, nơi tổ chức một cuộc thi cho loại công nghệ này.
• Độ chính xác của AI liên quan đến khu vực xảy ra động đất. Thuật toán phân tích dữ liệu từ một địa điểm và đánh dấu tâm chấn tương lai trên bản đồ.
• Ngay cả khi dự đoán sai lệch vài km, điều này vẫn giúp chính phủ di dời dân cư khỏi vùng nguy hiểm trong bán kính nhất định.
• AI được đào tạo trên cơ sở dữ liệu 5 năm ghi chép địa chấn. Sau đó, hệ thống đánh giá dữ liệu hiện tại và đưa ra dự đoán về vị trí tâm chấn.
• Sai số tuyệt đối trung bình là 381 km. Tuy nhiên, dự đoán cho tuần 10, 11 và 13 rất gần với tâm chấn thực tế.
• Giáo sư Sergey Fomel gọi việc dự đoán động đất là "Chén Thánh". Ông cho rằng điều tưởng chừng bất khả thi này về nguyên tắc là có thể giải quyết được.
• AI sẽ hoạt động tốt nhất ở các khu vực có giám sát địa chấn hiệu quả như California, Hy Lạp, Ý, Nhật Bản, Thổ Nhĩ Kỳ và Texas.
• Nhà nghiên cứu chính Yangkang Chen cho biết bước tiếp theo là đào tạo AI với nhiều vật lý và dữ liệu hơn để tạo ra công nghệ tổng quát hơn.
• Mục tiêu là có một "ChatGPT cho động đất" có thể sử dụng ở bất kỳ đâu trên thế giới.
📌 AI mới của Đại học Texas dự đoán động đất trước 1 tuần với độ chính xác 70%, sử dụng dữ liệu địa chấn 5 năm từ Trung Quốc. Công nghệ này có thể giúp di dời dân cư khỏi vùng nguy hiểm, với tiềm năng phát triển thành "ChatGPT cho động đất" toàn cầu.
https://betechwise.com/new-ai-predicts-earthquake-a-week-in-advance/
• Các chính trị gia Đảng Cộng hòa Cathy McMorris Rodgers và Jeff Duncan đã gửi thư yêu cầu Ủy ban Quản lý Năng lượng Liên bang (FERC) cung cấp thông tin về cách đối phó với nhu cầu điện ngày càng tăng từ các trung tâm dữ liệu AI.
• Sau nhiều năm tăng trưởng tối thiểu, nhu cầu điện ở Mỹ dự kiến sẽ tăng đáng kể đến cuối thập kỷ, chủ yếu do sự phát triển nhanh chóng của các trung tâm dữ liệu mạnh mẽ để chạy các khối lượng công việc AI.
• Mức tiêu thụ điện trên toàn nước Mỹ đã tăng 1% kể từ năm 2019, tập trung ở 10 bang được coi là điểm nóng trung tâm dữ liệu.
• Ước tính tăng trưởng hàng năm sẽ đạt 5-6% đến cuối thập kỷ, tăng gấp 10 lần so với mức hiện tại. Đến cuối thập kỷ, các trung tâm dữ liệu có thể tiêu thụ tới 9,1% tổng lượng điện ở Mỹ.
• Các nghị sĩ đã đặt ra một số câu hỏi cho FERC và yêu cầu phản hồi trước ngày 30/7, bao gồm những gì cơ quan này đang làm để đảm bảo đáp ứng nhu cầu và tác động đến giá cả.
• Theo báo cáo của Newmark, mức tiêu thụ điện của trung tâm dữ liệu ở Mỹ dự kiến sẽ tăng gấp đôi vào năm 2030, đạt tổng cộng 35GW.
• Công ty điện lực PJM phục vụ Virginia và khu vực Mid-Atlantic rộng lớn hơn gần đây đã bị chỉ trích vì đưa ra các dự báo tải điện được mô tả là "không nhất quán" và "đầu cơ" về nhu cầu sắp tới.
• Các nhóm quyền lợi người tiêu dùng từ nhiều bang đã yêu cầu làm rõ cách PJM đưa ra các dự báo, vì cách tiếp cận hiện tại của công ty không phân biệt giữa các mức tăng tải có khả năng xảy ra và các mức tăng đầu cơ.
• Các dự báo trước đây đã được đưa ra dựa trên các dự án trung tâm dữ liệu chưa được xác nhận, cũng như các tiêu chí khác nhau về tăng trưởng tải, dẫn đến thiếu rõ ràng và cản trở đầu tư vào lưới điện.
• PJM cho biết vào tháng 1 rằng họ dự kiến tải lưới điện trong vùng truyền tải của mình sẽ tăng 40% vào năm 2039.
📌 Nhu cầu điện từ trung tâm dữ liệu AI ở Mỹ dự kiến tăng mạnh, có thể chiếm 9,1% tổng lượng điện vào cuối thập kỷ. Quốc hội yêu cầu FERC giải trình cách đối phó, trong khi dự báo tải điện của PJM bị chỉ trích là thiếu nhất quán, gây lo ngại về đầu tư lưới điện và chi phí cho người tiêu dùng.
https://www.datacenterdynamics.com/en/news/us-congress-takes-energy-regulator-ferc-to-task-on-ai-data-center-electricity-use/
• Seth Dobrin, cựu lãnh đạo AI toàn cầu của IBM, cho rằng tương lai có thể thuộc về các mô hình ngôn ngữ nhỏ (SLM) được thiết kế riêng cho các ứng dụng cụ thể và tiêu tốn ít năng lượng hơn nhiều để vận hành.
• Các chuyên gia cảnh báo rằng AI sẽ không thể đạt được tiềm năng đầy đủ cho đến khi giải quyết được sự phụ thuộc vào năng lượng. Arm Holdings dự đoán AI tạo sinh có thể tiêu thụ 1/4 tổng lượng điện tiêu thụ ở Mỹ vào năm 2030.
• Dobrin chỉ ra rằng cứ 25-50 lần nhắc nhở, tùy thuộc vào độ lớn, sẽ sử dụng khoảng nửa lít nước chỉ qua bay hơi khi sử dụng ChatGPT hoặc Claude.
• Khi công nghệ thu nhỏ tiến bộ xuống nút 2 và 3 nanomet, các thuộc tính nhiệt của chúng đang trở thành vấn đề lớn hơn. Quạt và điều hòa không thể tản nhiệt đủ nhanh.
• Tim Rosenfield, đồng sáng lập Sustainable Metal Cloud, tin rằng công ty của ông có giải pháp. Phần cứng trung tâm dữ liệu HyperCube linh hoạt, mô-đun của họ có thể giảm một nửa lượng khí thải carbon so với hệ thống làm mát bằng không khí thông thường bằng cách ngâm máy chủ trực tiếp trong bể dầu.
• Làm mát bằng cách ngâm chìm hiệu quả hơn nhiều so với không khí trong việc tản nhiệt và cũng ít dẫn điện hơn nước, khiến nó phù hợp hơn cho các giá đỡ máy chủ sẽ phải chạy các chip đào tạo và suy luận AI 2nm và 3nm tiên tiến.
• Tuy nhiên, công nghệ mới này đi kèm với những thách thức riêng về chi phí đầu tư ban đầu, bảo trì và sửa chữa. Do đó, kế hoạch của Rosenfield là cung cấp nó như một gói hoàn chỉnh gọi là làm mát như một dịch vụ.
• Dobrin khuyên trước khi sử dụng một công cụ mạnh mẽ như ChatGPT hoặc Claude, hãy quên đi sự phấn khích về AI tạo sinh và bắt đầu bằng cách tự hỏi liệu có thứ gì khác phù hợp cho nhiệm vụ không.
📌 Các chuyên gia AI cảnh báo về tác động môi trường nghiêm trọng của các mô hình ngôn ngữ lớn, với dự báo AI tạo sinh có thể tiêu thụ 25% điện năng Mỹ vào 2030. Giải pháp đề xuất bao gồm sử dụng mô hình nhỏ chuyên biệt và công nghệ làm mát ngâm chìm mới, có thể giảm 50% lượng khí thải carbon.
https://fortune.com/asia/2024/08/06/generative-ai-energy-power-large-language-models-sustainability-carbon-emissions/
• Nhà đầu tư Mỹ đang đổ xô vào cổ phiếu ngành điện khi nhu cầu điện cho AI tăng mạnh, thay đổi kỳ vọng tăng trưởng của ngành này.
• Hơn 1,7 tỷ USD đã đổ vào các quỹ tiện ích Mỹ trong tháng 5 và 6/2024, mức cao nhất trong gần 2 năm. Dự kiến thêm 1,1 tỷ USD sẽ đổ vào trong tháng 7.
• Cổ phiếu ngành điện cung cấp cách tiếp cận xu hướng AI với chi phí thấp hơn so với mua cổ phiếu công nghệ đắt đỏ như Nvidia, Microsoft, Google.
• Các công ty công nghệ lớn như Microsoft và Google đang đổ hàng tỷ USD vào trung tâm dữ liệu phục vụ AI, làm tăng mạnh nhu cầu điện.
• Một tìm kiếm internet sử dụng AI như ChatGPT tiêu thụ khoảng 2,9 watt giờ điện so với 0,3 watt giờ cho tìm kiếm Google thông thường.
• Chỉ số S&P 500 Utilities đã tăng 10,4% từ đầu năm 2024, so với mức giảm 7,1% năm 2023 và tăng 1,6% năm 2022.
• Quỹ ETF State Street Select Utilities SPDR đã tăng khoảng 15,3% từ đầu năm đến nay.
• Nhu cầu điện tăng nhanh sau hàng thập kỷ trì trệ đã thay đổi sự quan tâm của thị trường đối với ngành điện.
• Edison International, công ty mẹ của Southern California Edison, đã tăng kế hoạch chi tiêu vốn từ 6 tỷ USD lên 8 tỷ USD mỗi năm.
• Ba công ty điện lực - Vistra Corp, Constellation Energy và NRG Energy - nằm trong top 10 cổ phiếu hoạt động tốt nhất của S&P 500 năm nay.
• Trong 20 năm qua, tiêu thụ điện ở Mỹ chỉ tăng chưa đến 0,5% mỗi năm. Tuy nhiên, từ năm nay đến 2030, dự kiến sẽ tăng 2,4% mỗi năm.
• IEA ước tính nhu cầu điện từ trung tâm dữ liệu toàn cầu có thể vượt 1.000 terawatt giờ vào năm 2026 - gấp đôi mức năm 2022 và tương đương tổng nhu cầu điện của Đức.
• Microsoft cho biết đang mở một trung tâm dữ liệu mới cứ sau 3 ngày.
📌 Nhu cầu điện cho AI bùng nổ đang thúc đẩy cổ phiếu ngành điện tăng mạnh. Các quỹ tiện ích Mỹ thu hút 1,7 tỷ USD trong 2 tháng, kỳ vọng tăng trưởng ngành điện từ 0,5% lên 2,4%/năm đến 2030. Đây là cơ hội đầu tư mới vào xu hướng AI với chi phí thấp hơn cổ phiếu công nghệ.
https://www.ft.com/content/59bcc113-85fa-41b4-a52a-d244d2fdcb9b
#FT
• Chi phí năng lượng chiếm 20-40% chi phí hoạt động của các nhà mạng. Nhiều nhà mạng lớn đặt mục tiêu đạt phát thải ròng bằng 0 vào năm 2040, sử dụng machine learning và AI để giảm phát thải khí nhà kính.
• Verizon đã phát triển nền tảng phân tích dữ liệu tạo bản sao kỹ thuật số của mạng vật lý để phân tích và dự đoán hiệu suất, chi phí và hiệu quả của các trạm và thiết bị mạng. Điều này giúp phát hiện các bất thường về tiêu thụ điện và đưa ra khuyến nghị khắc phục.
• Jio (Ấn Độ) phát triển nền tảng AI để kích hoạt chế độ ngủ trên mạng RAN, tắt bộ khuếch đại công suất RAN trong các khoảng thời gian micro giây khi không có lưu lượng.
• Telenor triển khai chương trình toàn cầu về hiệu quả năng lượng, sử dụng công cụ phân tích để có cái nhìn rõ hơn về hoạt động của trạm và mạng. Trong vòng chưa đầy 1 năm, công ty đã giảm 2% tiêu thụ năng lượng trong khi tăng 35% dung lượng mạng.
• Tuy nhiên, phát thải gián tiếp Scope 3 (từ sản xuất, sử dụng và thải bỏ hàng hóa/dịch vụ mua vào) chiếm tới hơn 90% tổng lượng phát thải khí nhà kính của các nhà mạng. Đây là thách thức lớn nhất để đạt mục tiêu phát thải ròng bằng 0.
• Các rào cản chính để giải quyết phát thải Scope 3 bao gồm: khó tiếp cận dữ liệu từ chuỗi cung ứng, thiếu tiêu chuẩn báo cáo cụ thể cho ngành, thiếu dữ liệu chuẩn hóa chính xác để đưa vào hệ thống AI.
• Vodafone đã phát triển một dự án Catalyst nhằm giúp các nhà mạng xác định dữ liệu phát thải trong chuỗi giá trị và chuyển đổi dữ liệu đó vào danh mục sản phẩm. Mục tiêu là sử dụng AI/ML để giúp khách hàng trực quan hóa lượng CO2 của các sản phẩm/dịch vụ khác nhau.
• Công cụ này xem xét carbon footprint của thiết bị, tác động của việc sử dụng ứng dụng di động đến pin điện thoại, và hiệu suất mạng. Nền tảng phân tích dữ liệu sau đó tạo ra thông tin cá nhân hóa cho người tiêu dùng.
📌 AI đang giúp các nhà mạng tối ưu hóa hiệu quả năng lượng mạng, giảm 2-35% tiêu thụ điện. Tuy nhiên, phát thải gián tiếp Scope 3 vẫn là thách thức lớn, chiếm tới 90% tổng lượng phát thải. Các giải pháp AI đang được phát triển để tăng tính minh bạch và giúp khách hàng lựa chọn sản phẩm thân thiện môi trường hơn.
https://inform.tmforum.org/features-and-opinion/can-ai-help-telcos-achieve-net-zero
• Sự phát triển nhanh chóng của AI tạo sinh đang gây áp lực lớn lên lưới điện Mỹ do nhu cầu năng lượng và nước cao để vận hành các trung tâm dữ liệu.
• Các trung tâm dữ liệu mới đang được xây dựng trên khắp nước Mỹ để hỗ trợ việc đào tạo và triển khai các mô hình học máy phức tạp.
• Những trung tâm này tiêu thụ một lượng lớn điện năng để vận hành và bảo trì, đồng thời cần nhiều nước để làm mát các máy chủ.
• Ngày càng có nhiều lo ngại về việc liệu lưới điện Mỹ có thể tạo ra đủ điện năng cho số lượng trung tâm dữ liệu ngày càng tăng hay không.
• Mặc dù AI đang giúp cải thiện tính bền vững trong một số lĩnh vực, nhưng nếu bản thân nó không phải là một công nghệ bền vững thì sẽ không mang lại lợi ích cho hành tinh.
• Các công ty đang nỗ lực giảm thiểu tiêu thụ năng lượng và tài nguyên, cũng như đầu tư vào các nguồn năng lượng bền vững.
• Chip công suất thấp của Arm đang được sử dụng ngày càng nhiều bởi các công ty lớn như Google, Microsoft, Oracle và Amazon vì chúng có thể giúp giảm mức tiêu thụ điện trong trung tâm dữ liệu lên tới 15%.
• Nvidia đã phát triển chip AI Grace Blackwell tích hợp CPU dựa trên Arm, có thể chạy các mô hình AI tạo sinh với mức tiêu thụ điện năng thấp hơn 25 lần so với thế hệ trước.
• Tuy nhiên, vẫn còn những lo ngại rằng các biện pháp này là chưa đủ. Một truy vấn ChatGPT tiêu tốn gần 10 lần năng lượng so với một tìm kiếm Google thông thường, trong khi việc tạo ra một hình ảnh AI có thể tiêu tốn lượng điện tương đương với việc sạc đầy một chiếc smartphone.
• Báo cáo môi trường mới nhất của Google cho thấy lượng khí thải nhà kính tăng gần 50% trong giai đoạn 2019-2023, một phần do tiêu thụ năng lượng của trung tâm dữ liệu.
• Tương tự, lượng khí thải của Microsoft tăng gần 30% từ 2020 đến 2024, cũng một phần do các trung tâm dữ liệu.
• Những con số này cho thấy mức độ nghiêm trọng của vấn đề, ngay cả khi các công ty tuyên bố đã cải thiện hiệu quả năng lượng của trung tâm dữ liệu.
📌 Sự phát triển của AI tạo sinh đang gây áp lực lớn lên lưới điện Mỹ. Mặc dù có những nỗ lực giảm tiêu thụ năng lượng như chip tiết kiệm điện, nhưng vẫn chưa đủ để giải quyết vấn đề. Khí thải nhà kính từ các trung tâm dữ liệu của Google và Microsoft đã tăng lần lượt 50% và 30% trong những năm gần đây.
https://readwrite.com/the-us-grid-generative-ai-energy-use/
• Malaysia đang đẩy mạnh thu hút đầu tư vào lĩnh vực công nghệ cao như sản xuất chip và trung tâm dữ liệu, nhằm tận dụng cơ hội từ cuộc chiến công nghệ Mỹ-Trung.
• Trong 3 năm qua, Malaysia đã thu hút hàng tỷ USD đầu tư vào ngành bán dẫn và trung tâm dữ liệu. Dự kiến đến cuối thập kỷ, nước này sẽ trở thành một trong những trung tâm dữ liệu lớn trên toàn cầu.
• Tuy nhiên, các cơ sở công nghệ cao như nhà máy bán dẫn và trung tâm dữ liệu cần rất nhiều nước sạch để duy trì hoạt động. Điều này đe dọa làm trầm trọng thêm tình trạng khủng hoảng nước ở Malaysia.
• Hiện tượng El Niño gần đây đã gây ra hạn hán kéo dài ở Đông Nam Á. Mực nước ở một số đập và sông ở Malaysia đã xuống mức báo động trong những tháng đầu năm nay.
• Dự báo có 70% khả năng xảy ra hiện tượng La Niña trong những tháng tới, có thể gây mưa lớn và lũ lụt nghiêm trọng, làm gián đoạn nguồn cung cấp nước sạch.
• Hệ thống phân phối nước cũ kỹ của Malaysia bị rò rỉ, dẫn đến thất thoát hàng chục triệu lít nước sạch mỗi năm. Việc thực thi pháp luật để ngăn chặn ô nhiễm sông ngòi do công nghiệp còn yếu.
• Từ 2021-2023, Malaysia đã thu hút gần 115 tỷ ringgit (25 tỷ USD) đầu tư vào trung tâm dữ liệu, với các tên tuổi lớn như ByteDance, Nvidia, Amazon Web Services và Microsoft.
• Công suất điện dành cho trung tâm dữ liệu ở bang Johor đã tăng từ dưới 10MW năm 2019 lên 1,6GW năm 2023.
• Một báo cáo cho thấy các trung tâm dữ liệu ở Trung Quốc tiêu thụ khoảng 1,3 tỷ m3 nước mỗi năm, đủ để đáp ứng nhu cầu hàng năm của 75% dân số Malaysia (34 triệu người).
• Chính phủ cần đầu tư khoảng 30 tỷ ringgit (6,3 tỷ USD) trong 3 năm tới để nâng cấp cơ sở hạ tầng nước như thay thế đường ống rò rỉ và phát triển hệ thống thu gom nước mới.
📌 Malaysia đang phải đối mặt với thách thức cân bằng giữa phát triển công nghệ và bảo vệ nguồn nước. Với 115 tỷ ringgit (25 tỷ USD) đầu tư vào trung tâm dữ liệu trong 3 năm qua, nhu cầu nước tăng cao đe dọa nguồn cung. Chính phủ cần đầu tư 30 tỷ ringgit (6,3 tỷ USD) để nâng cấp hạ tầng nước trong 3 năm tới nhằm đảm bảo phát triển bền vững.
https://www.scmp.com/week-asia/economics/article/3271973/malaysia-wants-splash-out-tech-sector-heavy-water-demand-hard-quench
• Các nhà nghiên cứu từ Đại học Minnesota đã phát triển một chip prototype "bộ nhớ truy cập ngẫu nhiên tính toán" (CRAM) có thể giảm nhu cầu năng lượng cho các ứng dụng AI tới 1.000 lần hoặc hơn so với các phương pháp hiện tại.
• Trong một mô phỏng, công nghệ CRAM cho thấy khả năng tiết kiệm năng lượng lên tới 2.500 lần.
• CRAM hoàn toàn đảo ngược mô hình von Neumann truyền thống bằng cách thực hiện tính toán trực tiếp trong bộ nhớ sử dụng các thiết bị spintronics gọi là magnetic tunnel junctions (MTJs).
• Thay vì dựa vào điện tích để lưu trữ dữ liệu, các thiết bị spintronics tận dụng spin của electron, mang lại giải pháp hiệu quả hơn so với các chip dựa trên transistor truyền thống.
• Bằng cách loại bỏ việc truyền dữ liệu tốn nhiều năng lượng giữa logic và bộ nhớ, công nghệ CRAM có thể đóng vai trò quan trọng trong việc giúp AI tiết kiệm năng lượng hơn rất nhiều.
• Cơ quan Năng lượng Quốc tế dự báo vào tháng 3 rằng mức tiêu thụ điện toàn cầu cho đào tạo và ứng dụng AI có thể tăng hơn gấp đôi từ 460 terawatt-giờ năm 2022 lên hơn 1.000 terawatt-giờ vào năm 2026 - gần bằng mức tiêu thụ của toàn bộ Nhật Bản.
• Nền tảng của đột phá này đã được phát triển trong hơn 20 năm, bắt đầu từ công trình tiên phong của giáo sư kỹ thuật Jian-Ping Wang về việc sử dụng các nanodevice MTJ cho mục đích tính toán.
• Giáo sư Wang thừa nhận rằng các đề xuất ban đầu của họ về việc loại bỏ mô hình von Neumann đã bị coi là "điên rồ" cách đây hai thập kỷ.
• Nhóm nghiên cứu Minnesota đã kiên trì phát triển dựa trên nghiên cứu MTJ được cấp bằng sáng chế của Wang, cho phép sử dụng RAM từ tính (MRAM) hiện đang được sử dụng trong đồng hồ thông minh và các hệ thống nhúng khác.
• Các nhà nghiên cứu vẫn cần giải quyết những thách thức về khả năng mở rộng, sản xuất và tích hợp với silicon hiện có.
• Họ đang lên kế hoạch hợp tác demo với các công ty hàng đầu trong ngành bán dẫn để giúp CRAM trở thành hiện thực thương mại.
📌 Công nghệ CRAM đột phá từ Đại học Minnesota có thể giảm nhu cầu năng lượng cho AI tới 1.000 lần bằng cách tính toán trực tiếp trong bộ nhớ. Dự kiến tiêu thụ điện toàn cầu cho AI sẽ tăng từ 460 lên 1.000 terawatt-giờ vào năm 2026, công nghệ này hứa hẹn mang lại giải pháp tiết kiệm năng lượng đáng kể.
https://www.techspot.com/news/104005-breakthrough-cram-technology-ditches-von-neumann-model-makes.html
• AI tạo sinh đang tạo ra nhu cầu điện năng khổng lồ, gây áp lực lên lưới điện già cỗi của Mỹ. Một truy vấn ChatGPT tiêu thụ gần gấp 10 lần năng lượng so với tìm kiếm Google thông thường.
• Dự kiến đến năm 2030, các trung tâm dữ liệu sẽ chiếm 16% tổng lượng điện tiêu thụ của Mỹ, tăng từ mức 2,5% trước khi ChatGPT ra mắt năm 2022.
• Nhu cầu về trung tâm dữ liệu dự kiến tăng 15-20% mỗi năm đến năm 2030. Nhiều trung tâm dữ liệu mới đang được xây dựng để đáp ứng nhu cầu AI.
• Các công ty công nghệ lớn đang tìm kiếm địa điểm có nguồn năng lượng tái tạo gần kề hoặc cơ sở hạ tầng có thể tận dụng, như chuyển đổi nhà máy nhiệt điện than sang khí đốt tự nhiên.
• Một số công ty AI đang thử nghiệm các cách tạo ra điện tại chỗ, bao gồm đầu tư vào năng lượng mặt trời, phân hạch hạt nhân, và địa nhiệt.
• Lưới điện già cỗi gặp khó khăn trong việc đáp ứng tải. Giải pháp bao gồm mở rộng đường dây truyền tải và sử dụng phần mềm dự đoán để giảm sự cố tại các máy biến áp.
• Các trung tâm dữ liệu AI cũng cần lượng nước lớn để làm mát. Dự kiến đến năm 2027 sẽ cần 4,2-6,6 tỷ mét khối nước, nhiều hơn tổng lượng nước sử dụng hàng năm của nửa Vương quốc Anh.
• Một số giải pháp làm mát bao gồm sử dụng máy điều hòa không khí lớn không cần nước và làm mát trực tiếp chip bằng chất lỏng.
• Các công ty như Apple, Samsung và Qualcomm đang thúc đẩy AI trên thiết bị để giảm bớt gánh nặng cho các trung tâm dữ liệu.
• Ngành công nghiệp đang nỗ lực cải thiện hiệu quả năng lượng. Chip AI mới nhất của Nvidia có thể chạy các mô hình AI tạo sinh với mức tiêu thụ điện thấp hơn 25 lần so với thế hệ trước.
📌 AI tạo sinh đang tạo ra nhu cầu điện và nước khổng lồ, thách thức lưới điện già cỗi của Mỹ. Đến năm 2030, trung tâm dữ liệu có thể chiếm 16% tổng lượng điện tiêu thụ của Mỹ. Ngành công nghiệp đang tìm kiếm các giải pháp như cải thiện hiệu quả, nguồn năng lượng tại chỗ và phương pháp làm mát mới.
https://www.cnbc.com/2024/07/28/how-the-massive-power-draw-of-generative-ai-is-overtaxing-our-grid.html
• Supermicro, công ty chuyên về cơ sở hạ tầng AI, đã chứng kiến sự tăng trưởng đáng kinh ngạc với doanh thu tăng 200% so với cùng kỳ năm ngoái trong quý tài chính thứ ba.
• CEO Charles Liang dự đoán "cuộc cách mạng AI có thể lớn hơn cả cuộc cách mạng công nghiệp" và chia sẻ tầm nhìn này tại sự kiện VB Transform 2024.
• Supermicro cung cấp các giải pháp cơ sở hạ tầng AI toàn diện, bao gồm cụm máy chủ và tủ rack được kết nối mạng, làm mát và tích hợp GPU.
• Công ty làm việc chặt chẽ với các nhà lãnh đạo công nghệ như Nvidia, Intel, AMD và Broadcom để phát triển các nền tảng tối ưu nhất cho khách hàng.
• Tại Thung lũng Silicon, Supermicro đang sản xuất và vận chuyển 4.000 tủ rack mỗi tháng, trong đó có 1.000 tủ sử dụng giải pháp làm mát bằng chất lỏng.
• Công ty đang tăng cường sản xuất để đạt mục tiêu 2.000 tủ rack làm mát bằng chất lỏng mỗi tháng.
• Giải pháp làm mát bằng chất lỏng của Supermicro giúp tiết kiệm 30-40% năng lượng so với phương pháp làm mát truyền thống.
• Với cùng một ngân sách điện năng, khách hàng có thể triển khai thêm 30% sức mạnh tính toán khi sử dụng giải pháp làm mát bằng chất lỏng.
• Elon Musk đang sử dụng giải pháp làm mát bằng chất lỏng của Supermicro cho dự án xAI của mình.
• Supermicro đặt mục tiêu làm cho làm mát bằng chất lỏng chiếm ít nhất 20-30% tổng số triển khai trung tâm dữ liệu trong 12 tháng tới.
• Công ty đang chuẩn bị năng lực sản xuất để hỗ trợ toàn bộ ngành công nghiệp AI trên toàn cầu, tin rằng cuộc bùng nổ AI hiện tại mới chỉ ở giai đoạn đầu.
📌 Supermicro đang dẫn đầu cuộc cách mạng AI với doanh thu tăng 200%, nhờ giải pháp làm mát bằng chất lỏng tiết kiệm 40% năng lượng. Công ty đặt mục tiêu sản xuất 2.000 tủ rack làm mát bằng chất lỏng/tháng, chiếm 30% triển khai trung tâm dữ liệu trong năm tới.
https://venturebeat.com/ai/by-embracing-liquid-cooling-ai-powerhouse-supermicro-enables-30-more-computing-power-with-the-same-power-budget/
• AI đang làm tăng đáng kể nhu cầu năng lượng, chủ yếu do việc xây dựng và vận hành các trung tâm dữ liệu để đào tạo và vận hành các mô hình AI.
• Microsoft báo cáo lượng khí thải CO2 tăng gần 30% kể từ năm 2020 do mở rộng trung tâm dữ liệu. Khí thải nhà kính của Google năm 2023 cao hơn gần 50% so với năm 2019.
• Hiện tại, mức tiêu thụ năng lượng của AI chỉ chiếm một phần nhỏ trong tổng mức tiêu thụ của ngành công nghệ (khoảng 2-3% tổng lượng khí thải toàn cầu). Tuy nhiên, con số này có khả năng tăng lên khi AI được ứng dụng rộng rãi hơn.
• Các hệ thống AI tạo sinh có thể tiêu tốn nhiều năng lượng gấp 33 lần so với phần mềm chuyên biệt để hoàn thành một tác vụ.
• Việc đào tạo mô hình ngôn ngữ lớn như GPT-3 ước tính tiêu thụ khoảng 1.300 MWh điện, tương đương mức tiêu thụ hàng năm của 130 hộ gia đình ở Mỹ. GPT-4 tiêu thụ nhiều hơn 50 lần so với GPT-3.
• Sức mạnh tính toán cần thiết để duy trì sự phát triển của AI đang tăng gấp đôi cứ sau khoảng 100 ngày.
• Các dự báo cho thấy AI có tiềm năng giúp giảm 5-10% lượng khí thải nhà kính toàn cầu vào năm 2030.
• Các nhà quản lý như Nghị viện châu Âu đang bắt đầu thiết lập yêu cầu về khả năng ghi lại mức tiêu thụ năng lượng của các hệ thống AI.
• Các tiến bộ công nghệ như phần cứng chuyên dụng, chip 3D và kỹ thuật làm mát chip mới có thể giúp cải thiện hiệu quả năng lượng của AI.
• Nvidia tuyên bố "siêu chip" mới của họ có thể cải thiện hiệu suất gấp 30 lần khi chạy các dịch vụ AI tạo sinh, đồng thời sử dụng ít năng lượng hơn 25 lần.
• Các trung tâm dữ liệu đang trở nên hiệu quả hơn, với việc khám phá các công nghệ làm mát mới và các địa điểm có thể thực hiện nhiều phép tính hơn khi nguồn điện rẻ hơn, sẵn có hơn và bền vững hơn.
• Giảm sử dụng dữ liệu tổng thể, bao gồm cả vấn đề dữ liệu tối (dữ liệu được tạo ra và lưu trữ nhưng không bao giờ được sử dụng lại), sẽ rất quan trọng.
• AI có thể giúp vượt qua các rào cản trong việc tích hợp năng lượng tái tạo vào lưới điện hiện có bằng cách phân tích các bộ dữ liệu lớn để dự báo sản xuất năng lượng một cách chính xác.
• AI đang giúp cải thiện hiệu quả năng lượng trong các ngành công nghiệp thâm dụng carbon khác, từ mô hình hóa tòa nhà để dự đoán sử dụng năng lượng đến cải thiện hiệu quả sản xuất thông qua bảo trì dự đoán.
📌 AI đang làm tăng nhu cầu năng lượng, với mức tiêu thụ điện của trung tâm dữ liệu tăng 30-50%. Tuy nhiên, AI cũng có tiềm năng giảm 5-10% khí thải nhà kính toàn cầu vào năm 2030 thông qua tối ưu hóa lưới điện và cải thiện hiệu quả năng lượng trong các ngành công nghiệp. Cần có cách tiếp cận đa bên để cân bằng giữa lợi ích và tác động của AI.
https://www.weforum.org/agenda/2024/07/generative-ai-energy-emissions/
#WEF
• Bộ Năng lượng Mỹ (DOE) đang đề xuất một nỗ lực mới trên toàn cơ quan để khai thác và thúc đẩy trí tuệ nhân tạo vì lợi ích công cộng.
• Chương trình này nhằm giúp Mỹ đạt được năng lực hàng đầu về AI trong các mục tiêu khoa học, năng lượng và an ninh tự nhiên.
• DOE đã công bố lộ trình cho sáng kiến Frontiers in Artificial Intelligence for Science, Security and Technology (FASST) sẽ tận dụng 17 phòng thí nghiệm quốc gia của cơ quan.
• Một mục tiêu chính là xây dựng các siêu máy tính AI tiết kiệm năng lượng, giải quyết thách thức phát triển công nghệ này mà không làm tăng vọt mức tiêu thụ năng lượng.
• Hiện tại, DOE đang vận hành một số siêu máy tính nhanh nhất thế giới, được sử dụng cho nghiên cứu biến đổi khí hậu, năng lượng và hiện đại hóa vũ khí hạt nhân.
• DOE nhắm đến việc giúp các nhà khoa học của mình và cộng đồng khoa học rộng lớn hơn tạo ra các mô hình AI đáng tin cậy để đạt được những bước đột phá trong nhiều lĩnh vực, bao gồm cả công nghệ năng lượng sạch.
• Cơ quan này đặt mục tiêu nghiên cứu các đặc điểm của chính các hệ thống AI lớn, chứ không chỉ các ứng dụng của chúng.
• Đề xuất này sẽ cần được Quốc hội ủy quyền và cấp kinh phí để thực hiện. Một dự luật lưỡng đảng đã được đưa ra tại Thượng viện.
• Bộ trưởng Năng lượng Jennifer Granholm đã xác định việc giải quyết thách thức tiêu thụ năng lượng tăng vọt khi phát triển AI là một mối quan tâm hàng đầu.
• Sáng kiến FASST nhằm mục đích tận dụng các phòng thí nghiệm quốc gia hiện có của DOE để thúc đẩy nghiên cứu và phát triển AI.
📌 Bộ Năng lượng Mỹ đề xuất chiến lược AI tham vọng FASST, tập trung vào xây dựng siêu máy tính tiết kiệm năng lượng và nghiên cứu hệ thống AI lớn. Mục tiêu là đạt năng lực hàng đầu về AI trong khoa học, năng lượng và an ninh quốc gia, cần được Quốc hội phê duyệt.
https://www.axios.com/2024/07/16/exclusive-energy-department-proposes-ai-strategy
• FASST (Frontiers in Artificial Intelligence for Science, Security and Technology) là sáng kiến AI do Bộ Năng lượng Mỹ (DOE) đề xuất nhằm phát triển năng lực AI chiến lược cho quốc gia.
• Mục tiêu chính: thúc đẩy an ninh quốc gia, thu hút nhân tài, tăng tốc khám phá khoa học, giải quyết thách thức năng lượng và phát triển chuyên môn kỹ thuật cần thiết cho quản trị AI.
• DOE và 17 phòng thí nghiệm quốc gia có vị thế độc đáo để phát triển AI nhờ:
- Dữ liệu: Sở hữu bộ sưu tập lớn nhất thế giới các cơ sở thí nghiệm tiên tiến
- Máy tính: Vận hành các siêu máy tính mạnh mẽ và tiết kiệm năng lượng nhất thế giới
- Nhân lực: Hơn 40.000 nhà khoa học đầu ngành
- Quan hệ đối tác: Kinh nghiệm hợp tác công-tư theo định hướng nhiệm vụ
• FASST sẽ xây dựng hệ thống AI khoa học tích hợp mạnh mẽ nhất thế giới thông qua 4 trụ cột:
1. Dữ liệu sẵn sàng cho AI
2. Cơ sở hạ tầng và nền tảng tính toán AI quy mô lớn
3. Mô hình và hệ thống AI an toàn, bảo mật và đáng tin cậy
4. Ứng dụng AI
• Lý do cần FASST ngay bây giờ:
- Tốc độ phát triển nhanh chóng của AI đòi hỏi đầu tư chiến lược
- Nếu không có FASST, Mỹ có thể mất lợi thế cạnh tranh khoa học và khả năng duy trì an ninh quốc gia và kinh tế
- Hệ sinh thái đổi mới AI sẽ kém đa dạng và cạnh tranh hơn
- Thiếu chuyên môn kỹ thuật độc lập cần thiết để quản trị AI
- Mất khả năng thu hút và đào tạo lực lượng lao động tài năng
• FASST sẽ đáp ứng nhu cầu về an ninh quốc gia, an ninh năng lượng và khám phá khoa học, hỗ trợ sự thịnh vượng kinh tế bền vững của quốc gia trong nhiều thập kỷ tới.
📌 FASST là sáng kiến AI tham vọng nhất của Mỹ, tận dụng cơ sở hạ tầng độc đáo của DOE để xây dựng hệ thống AI khoa học mạnh mẽ nhất thế giới. Mục tiêu là duy trì vị thế dẫn đầu của Mỹ trong an ninh quốc gia, khám phá khoa học và đổi mới công nghệ thông qua 4 trụ cột chính về dữ liệu, cơ sở hạ tầng, mô hình và ứng dụng AI.
https://www.energy.gov/fasst
• Năm 2023, Google và Microsoft mỗi công ty tiêu thụ 24 TWh điện, vượt quá mức tiêu thụ của hơn 100 quốc gia, bao gồm Iceland, Ghana và Tunisia.
• Mức tiêu thụ điện 24 TWh của Google và Microsoft tương đương với Azerbaijan (quốc gia có 10,14 triệu dân) và cao hơn nhiều nước khác. Iceland, Ghana, Dominican Republic và Tunisia mỗi nước tiêu thụ 19 TWh, Jordan tiêu thụ 20 TWh.
• Slovakia với 5,4 triệu dân tiêu thụ 26 TWh, cao hơn một chút so với Google và Microsoft.
• Mức tiêu thụ điện khổng lồ này cho thấy tác động môi trường đáng kể của các trung tâm dữ liệu do Google và Microsoft vận hành.
• Tuy nhiên, Google và Microsoft cũng tạo ra doanh thu và tác động kinh tế lớn hơn nhiều so với các quốc gia có mức tiêu thụ điện tương đương.
• Năm 2023, Google tạo ra doanh thu 305,6 tỷ USD, trong khi tác động kinh tế của các công cụ như Google Search, Google Cloud và YouTube đóng góp khoảng 739 tỷ USD cho nền kinh tế.
• Microsoft đạt doanh thu 211,9 tỷ USD trong năm 2023. Với việc đa số dân số thế giới sử dụng Windows và Office, cùng nhiều ứng dụng online chạy trên Azure, tác động kinh tế của Microsoft có thể lên tới hàng nghìn tỷ USD.
• So sánh với các nước có mức tiêu thụ điện tương đương, GDP của Azerbaijan khoảng 78 tỷ USD, Slovakia khoảng 127 tỷ USD và Iceland khoảng 30 tỷ USD trong năm 2023.
• Sản lượng kinh tế của Google và Microsoft vượt xa GDP của các quốc gia này, cho thấy quy mô tài chính khổng lồ của hai gã khổng lồ công nghệ so với mức tiêu thụ điện đáng kể của họ.
• Intel, Google và Microsoft đang dẫn đầu trong việc áp dụng năng lượng tái tạo trong ngành công nghiệp.
📌 Google và Microsoft tiêu thụ 24 TWh điện mỗi năm, vượt quá 100 quốc gia. Tuy nhiên, doanh thu của họ (305,6 tỷ USD và 211,9 tỷ USD) và tác động kinh tế (739 tỷ USD cho Google) vượt xa GDP của các nước có mức tiêu thụ điện tương đương như Azerbaijan (78 tỷ USD) hay Slovakia (127 tỷ USD).
https://www.tomshardware.com/tech-industry/google-and-microsoft-consume-more-power-than-some-countries
• Theo nghiên cứu của Jesse Dodge, một truy vấn ChatGPT tiêu thụ lượng điện tương đương với việc thắp sáng một bóng đèn trong khoảng 20 phút. Với hàng triệu người sử dụng mỗi ngày, tổng lượng điện tiêu thụ là rất lớn.
• AI tiêu thụ nhiều năng lượng hơn nhiều so với các ứng dụng internet truyền thống. Một truy vấn ChatGPT cần gần 10 lần lượng điện so với một truy vấn Google Search.
• Phần lớn năng lượng ở Mỹ đến từ đốt nhiên liệu hóa thạch, là nguyên nhân chính gây biến đổi khí hậu.
• Báo cáo bền vững mới của Google cho thấy lượng khí thải nhà kính của công ty tăng 48% kể từ năm 2019, chủ yếu do tiêu thụ năng lượng ở trung tâm dữ liệu và chuỗi cung ứng.
• Google không còn duy trì trạng thái trung hòa carbon trong hoạt động từ năm 2023, dù vẫn hướng tới mục tiêu phát thải ròng bằng 0 vào năm 2030.
• Microsoft cũng gặp khó khăn với cam kết khí hậu do tập trung vào AI. Lượng khí thải tăng 29% kể từ 2020 do xây dựng thêm trung tâm dữ liệu phục vụ AI.
• Các trung tâm dữ liệu ở Bắc Virginia dự kiến sẽ cần lượng điện tương đương với 6 triệu hộ gia đình vào năm 2030.
• Nhu cầu điện năng cao đến mức một số kế hoạch đóng cửa nhà máy điện than đã bị hoãn lại.
• Goldman Sachs ước tính các trung tâm dữ liệu sẽ sử dụng 8% tổng điện năng ở Mỹ vào năm 2030, tăng từ 3% năm 2022.
• Hiện có hơn 7.000 trung tâm dữ liệu trên toàn cầu, tăng từ 3.600 năm 2015. Tổng lượng điện tiêu thụ hàng năm tương đương với cả nước Ý.
• Các công ty công nghệ lớn đang đầu tư hàng tỷ đô la vào AI. Google chi 12 tỷ USD cho chi phí vốn trong quý 1/2024, chủ yếu cho trung tâm dữ liệu phục vụ AI.
📌 AI đang thúc đẩy nhu cầu điện năng tăng vọt, gây áp lực lên cam kết khí hậu của các công ty công nghệ. Google và Microsoft đã báo cáo mức tăng khí thải lần lượt 48% và 29% do phát triển AI. Dự kiến đến 2030, các trung tâm dữ liệu sẽ tiêu thụ 8% tổng điện năng ở Mỹ.
https://www.npr.org/2024/07/12/g-s1-9545/ai-brings-soaring-emissions-for-google-and-microsoft-a-major-contributor-to-climate-change
- Tờ Washington Post ra mắt công cụ AI "Climate Answers" để giúp độc giả khám phá các bài báo uy tín về khí hậu của tờ báo.
- Tuy nhiên, chatbot này lại né tránh trả lời các câu hỏi về tác động của AI lên môi trường, mặc dù WaPo từng đưa tin sâu về vấn đề tiêu thụ năng lượng và tác động khí hậu của AI.
- Theo ước tính của Cơ quan Năng lượng Quốc tế, việc tạo ra một câu trả lời của ChatGPT tiêu tốn lượng điện tương đương 10 lần tìm kiếm Google. Áp lực duy trì hoạt động của các mô hình AI tạo sinh như ChatGPT gây căng thẳng lớn cho các trung tâm dữ liệu, thúc đẩy xây dựng thêm nhiều cơ sở mới.
- Các trung tâm dữ liệu cũng cần lượng nước khổng lồ để làm mát máy chủ tránh quá nhiệt và hỏng hóc.
- Nhiều công ty lớn như Google thậm chí không đạt được mục tiêu khí hậu quan trọng do nỗ lực phát triển AI. Theo WaPo, việc tiêu thụ điện năng "khủng khiếp" của AI đang thúc đẩy mở rộng sử dụng nhiên liệu hóa thạch, kể cả trì hoãn việc ngừng hoạt động một số nhà máy than.
- Khi được hỏi về vấn đề này, chatbot "Climate Answers" hầu như từ chối trả lời, xin lỗi và đưa ra các liên kết bài viết không liên quan. Ngay cả khi được cung cấp nguyên văn câu từ bài báo của chính WaPo, AI cũng chỉ đưa ra câu trả lời trực tiếp trong một vài trường hợp.
- WaPo giải thích chatbot bị hạn chế trong một tập hợp bài viết giới hạn, chủ yếu từ mục Khí hậu & Môi trường, không sử dụng bài từ mục kinh doanh nơi đăng tải các bài về năng lượng và AI.
- WaPo cũng phủ nhận "Climate Answers" sử dụng nhiều năng lượng hơn các bài báo thông thường, cho biết họ đánh giá và tối ưu hóa tính bền vững trong mọi nỗ lực, bao gồm hiệu quả năng lượng AI.
📌 Chatbot "Climate Answers" của Washington Post tỏ ra lúng túng khi được hỏi về tác động môi trường của chính công nghệ AI, bất chấp việc tờ báo này từng đưa tin sâu về vấn đề tiêu thụ năng lượng khổng lồ và dấu chân carbon đáng kể của AI. Điều này phản ánh sự thận trọng của WaPo khi bước chân vào lĩnh vực chatbot, vốn đã khiến nhiều thương hiệu báo chí khác "vấp ngã" trước đó.
https://futurism.com/washington-post-ai-climate-questions
• Google vừa công bố báo cáo môi trường 2024, cho thấy lượng khí thải nhà kính của công ty đã tăng gần 50% trong vòng 4 năm qua.
• Năm 2023, tổng lượng phát thải của Google đạt 14,3 triệu tấn CO2 tương đương, tăng 13% so với năm 2022 và tăng 48% so với năm 2019.
• Nguyên nhân chính của sự gia tăng này là do năng lượng tiêu thụ bởi các trung tâm dữ liệu và chuỗi cung ứng của Google.
• Google thừa nhận rằng việc tích hợp AI sâu hơn vào các sản phẩm sẽ gây khó khăn trong việc giảm phát thải, do nhu cầu năng lượng ngày càng tăng từ việc tính toán AI ngày càng mạnh mẽ.
• Công ty dự kiến sẽ tạo ra nhiều khí thải hơn khi đầu tư sâu hơn vào cơ sở hạ tầng kỹ thuật cần thiết cho AI.
• Mục tiêu phát thải ròng bằng 0 vào năm 2030 của Google đang gặp thách thức lớn do sự phát triển của AI.
• Google thừa nhận tác động môi trường trong tương lai của AI "phức tạp và khó dự đoán".
• Tuy nhiên, Google cũng nhấn mạnh tiềm năng của AI trong việc giải quyết biến đổi khí hậu, trích dẫn một nghiên cứu năm 2021 của Boston Consulting Group cho rằng AI có thể giảm tổng lượng phát thải từ 5% đến 10%.
• Google không phải là công ty duy nhất gặp vấn đề về năng lượng do AI: Microsoft cũng báo cáo lượng phát thải tăng 30% từ 2020 đến 2023.
• Google đã tích hợp AI vào nhiều sản phẩm công cộng như tổng quan AI trong Tìm kiếm, tích hợp AI với Gmail, Google Docs và Google Sheets.
📌 Google đối mặt thách thức lớn trong mục tiêu phát thải ròng bằng 0 vào 2030 do AI. Báo cáo môi trường 2024 cho thấy lượng khí thải tăng 48% trong 4 năm, đạt 14,3 triệu tấn CO2 năm 2023. Công ty vừa thừa nhận khó khăn, vừa nhấn mạnh tiềm năng của AI trong giảm phát thải.
https://www.entrepreneur.com/business-news/ai-drives-googles-greenhouse-emissions-up-by-48-since-2019/476620
• Các chỉ số tài chính truyền thống không còn đủ để đánh giá hiệu suất và tiềm năng tăng trưởng của doanh nghiệp trong bối cảnh kinh doanh hiện đại.
• Doanh nghiệp ngày nay phải đối mặt với áp lực khai thác tiềm năng của AI, ưu tiên các yếu tố ESG và thích ứng với hành vi người tiêu dùng đang thay đổi.
• Dữ liệu đã trở thành tài sản không thể thiếu để giải quyết những thách thức này, nhưng các chỉ số truyền thống thường bỏ qua giá trị của dữ liệu.
• Cần có cách tiếp cận mới trong định giá doanh nghiệp, tích hợp giá trị của dữ liệu cùng với hiệu suất tài chính.
• Cách tiếp cận này giúp doanh nghiệp tối ưu hóa nguồn lực, khám phá cơ hội tăng trưởng mới và thúc đẩy đổi mới tài chính cần thiết để biến ESG thành khả thi về mặt thương mại.
• Trong lĩnh vực dịch vụ tài chính, việc áp dụng AI vào bộ dữ liệu có thể giúp phát hiện các mô hình và thông tin chi tiết phức tạp, giúp doanh nghiệp điều hướng các thay đổi quy định và thúc đẩy đổi mới tài chính.
• Ví dụ, phát thải Scope 3 chiếm tới 95% lượng khí thải carbon của một công ty. NAX đã hợp tác phát triển nền tảng Klerra sử dụng AI để xác định các điểm nóng phát thải trong chuỗi cung ứng.
• Trong nông nghiệp, chuyển đổi sang canh tác bền vững là cần thiết để đạt được mục tiêu phát thải ròng bằng 0 và đảm bảo an ninh lương thực lâu dài.
• NAX đã phát triển giải pháp SaaS B2B nông nghiệp sáng tạo để hỗ trợ quá trình chuyển đổi này, tối ưu hóa quy trình canh tác tái sinh và đảm bảo sản xuất phù hợp với mục tiêu bền vững.
• Tích hợp dữ liệu vào bảng cân đối kế toán là cần thiết để doanh nghiệp thể hiện giá trị toàn diện với các bên liên quan và nhà đầu tư.
• Cách tiếp cận tích hợp này có tiềm năng khai thác giá trị thực của doanh nghiệp, thúc đẩy đổi mới tài chính ủng hộ thương mại hóa các nguyên tắc ESG.
📌 Tích hợp AI và dữ liệu vào định giá doanh nghiệp mở ra cơ hội đổi mới tài chính và phát triển bền vững. Các ví dụ thực tế trong lĩnh vực tài chính và nông nghiệp cho thấy tiềm năng to lớn của cách tiếp cận này trong việc giải quyết các thách thức toàn cầu như biến đổi khí hậu và bất bình đẳng xã hội.
https://www.weforum.org/agenda/2024/07/redefining-corporate-valuation-integrating-ai-and-data-can-drive-financial-innovation/
• Các công ty "nhàm chán" như trung tâm dữ liệu và điện lực đang trở thành những người hưởng lợi lớn nhất từ cuộc cách mạng AI.
• Goldman Sachs dự báo nhu cầu điện năng cho trung tâm dữ liệu sẽ tăng 160% vào cuối thập kỷ này. Một lần tìm kiếm sử dụng ChatGPT tiêu tốn gấp 10 lần điện năng so với tìm kiếm Google thông thường.
• Các công ty xây dựng, tiện ích và điện lực liên quan đến trung tâm dữ liệu đang có cơ hội đầu tư hấp dẫn. Ngành tiện ích là lĩnh vực có hiệu suất tốt thứ 3 trong S&P 500 trong 6 tháng qua.
• Digital Realty Trust - quỹ đầu tư bất động sản trung tâm dữ liệu duy nhất niêm yết trên NYSE đã tăng 38% trong năm qua. ETF Global X Data Center & Digital Infrastructure tăng 12%.
• Super Micro Computer - công ty sản xuất công nghệ làm mát cho phần cứng AI đã tăng 200% từ đầu năm đến nay, vượt xa mức tăng 150% của Nvidia.
• Vertiv - nhà sản xuất thiết bị làm mát và điện cho trung tâm dữ liệu đã tăng 80% trong năm nay và 435% kể từ quý bùng nổ đầu tiên của Nvidia 13 tháng trước.
• Cổ phiếu thiết bị điện lưới toàn cầu đã tăng tới 140% so với đầu năm nay theo JPMorgan.
• Morningstar dự báo ngành tiện ích sẽ tăng trưởng 10% mỗi năm trong 10 năm tới.
• Cổ phiếu phần cứng đang vượt trội hơn 30 điểm phần trăm so với cổ phiếu phần mềm trong năm nay do nhu cầu GPU và trung tâm dữ liệu tăng vọt.
• Các công ty đám mây dự kiến chi 200 tỷ USD cho trung tâm dữ liệu trong năm nay.
• Tuy nhiên, phải đến năm 2028 mới có thể thấy rõ tác động của trung tâm dữ liệu lên lợi nhuận doanh nghiệp.
• Vẫn còn rủi ro Mỹ không xây đủ trung tâm dữ liệu do lo ngại về công suất điện.
📌 Cuộc cách mạng AI đang tạo ra cơ hội đầu tư bất ngờ cho các công ty "nhàm chán" như trung tâm dữ liệu và điện lực. Với nhu cầu điện tăng 160% và chi tiêu 200 tỷ USD cho cơ sở hạ tầng, những cổ phiếu này đang vượt trội so với thị trường chung, mở ra tiềm năng tăng trưởng lớn trong thập kỷ tới.
https://markets.businessinsider.com/news/stocks/ai-stocks-to-invest-artificial-intelligence-data-center-energy-companies-2024-6
• Các công ty công nghệp lớn đang chuyển sang sử dụng năng lượng hạt nhân để đáp ứng nhu cầu điện khổng lồ cho AI tạo sinh.
• Theo Wall Street Journal, 1/3 số nhà máy điện hạt nhân ở Mỹ đang đàm phán với các công ty công nghệ để cung cấp điện cho các trung tâm dữ liệu chạy các mô hình AI hàng đầu.
• Amazon Web Services đang gần hoàn tất thỏa thuận mua điện từ Constellation Energy - công ty sở hữu nhiều nhà máy điện hạt nhân nhất tại Mỹ. Trước đó, Amazon đã mua một trung tâm dữ liệu chạy bằng điện hạt nhân từ Talen Energy với giá 650 triệu USD.
• Nhu cầu điện để phát triển các mô hình AI lớn hơn, mạnh mẽ hơn đang tăng nhanh chóng và có thể làm chậm cuộc đua AI trong tương lai.
• Theo dự đoán của Ami Badani từ Arm, tiêu thụ năng lượng của ngành AI có thể chiếm tới 1/4 tổng lượng điện sử dụng ở Mỹ vào cuối thập kỷ này.
• ChatGPT tiêu thụ nhiều năng lượng gấp 15 lần so với tìm kiếm web thông thường.
• Viện Nghiên cứu Điện lực dự báo đến năm 2030, các trung tâm dữ liệu có thể tiêu thụ tới 9% lượng điện ở Mỹ - gấp đôi mức sử dụng hiện tại.
• Sam Altman, CEO của OpenAI, đã đầu tư vào Exowatt - một startup phát triển các module lưu trữ năng lượng dưới dạng nhiệt và sản xuất điện cho các trung tâm dữ liệu AI. Exowatt đã huy động được 20 triệu USD trong vòng gọi vốn có sự tham gia của quỹ đầu tư mạo hiểm Andreessen Horowitz.
• Các công ty công nghệ đang tìm kiếm các giải pháp năng lượng mới để đáp ứng nhu cầu điện ngày càng tăng cho AI, trong đó năng lượng hạt nhân đang nổi lên như một lựa chọn tiềm năng.
📌 Nhu cầu điện cho AI tăng vọt buộc các công ty công nghệ phải tìm nguồn năng lượng mới. Amazon đang đàm phán mua điện hạt nhân, trong khi dự báo cho thấy trung tâm dữ liệu có thể tiêu thụ tới 9% điện năng Mỹ vào 2030. Các startup như Exowatt cũng đang phát triển giải pháp lưu trữ năng lượng mới.
https://qz.com/big-tech-nuclear-power-plants-ai-energy-electricity-1851569796
• Biến đổi khí hậu khiến mùa cháy rừng kéo dài từ 4 tháng lên 6-8 tháng ở nhiều nơi tại Mỹ. NASA đang sử dụng dữ liệu quan sát Trái đất để giúp các cơ quan quản lý cháy rừng dự đoán và dập tắt đám cháy.
• NASA sử dụng dữ liệu từ vệ tinh Landsat để chụp ảnh địa hình, đo nhiệt độ bề mặt và đánh giá vật liệu tự nhiên có thể gây cháy. Kho dữ liệu vệ tinh 40 năm giúp xây dựng các mô hình dự đoán.
• Sử dụng học máy, NASA có thể nhanh chóng tạo ra các mô hình dự đoán cháy rừng, cách chúng lan rộng và thiệt hại có thể xảy ra. Các dự đoán này giúp lính cứu hỏa phân bổ nguồn lực hiệu quả hơn.
• NASA ước tính có thể dự đoán chính xác đến từng dặm, thay vì dự báo cho cả khu vực rộng lớn. Dữ liệu cháy rừng của NASA được cung cấp miễn phí trực tuyến cho mọi người truy cập.
• Ngoài dự đoán, NASA còn phát triển công nghệ quản lý không phận để giúp máy bay có người lái, người điều khiển drone và nhân viên mặt đất theo dõi, chia sẻ vị trí và truyền thông tin cho nhau.
• NASA đã xây dựng bộ công cụ quản lý không lưu di động, giúp lực lượng ứng cứu hình dung được tình hình giao thông, bao gồm độ cao và vị trí máy bay. Điều này giúp triển khai drone an toàn hơn.
• Bộ công cụ gồm một hộp nhựa màu vàng cỡ vali lớn, được trang bị bộ thu ADS-B để theo dõi máy bay, iPad hiển thị vị trí các chuyến bay địa phương và trạm điện.
• NASA đang thử nghiệm các bộ công cụ này với phi công Cục Lâm nghiệp Hoa Kỳ ở nhiều bang, sử dụng chúng trong các đợt đốt có kiểm soát bằng drone. Các bộ công cụ giúp phi công nắm được tình hình giao thông trong khu vực.
• Công nghệ quản lý không phận vẫn đang được phát triển và sẽ được thử nghiệm trong một loạt các chuyến bay thử nghiệm ở khu vực tầm nhìn hạn chế, cùng với cộng đồng chữa cháy rừng.
📌 NASA ứng dụng AI và dữ liệu vệ tinh 40 năm để dự đoán cháy rừng chính xác đến từng dặm. Cơ quan này cũng phát triển công nghệ drone và quản lý không phận giúp ứng phó hiệu quả hơn với các đám cháy ngày càng lớn và khốc liệt do biến đổi khí hậu.
https://www.cnet.com/science/climate/how-nasa-is-using-machine-learning-to-predict-and-fight-wildfires/
• Một nghiên cứu kéo dài 16 tháng với kinh phí 2 triệu euro đã kết luận rằng việc triển khai trung tâm dữ liệu trong không gian là khả thi về mặt kỹ thuật, kinh tế và môi trường.
• Nghiên cứu ASCEND do Thales Alenia Space và Leonardo điều phối, được tài trợ bởi EU với sự tham gia của các chuyên gia từ Airbus, ArianeGroup và Cơ quan Vũ trụ Đức.
• Mục tiêu của dự án là triển khai 13 "khối xây dựng" trung tâm dữ liệu không gian với tổng công suất 10MW vào năm 2036, hướng tới đạt 1GW lưu trữ vào năm 2050.
• Các trung tâm dữ liệu không gian sẽ quay quanh Trái Đất ở độ cao khoảng 1.400km, cao gấp 3 lần Trạm Vũ trụ Quốc tế (ISS).
• Nhu cầu lưu trữ dữ liệu đang tăng vọt do sự phát triển của AI. Ví dụ, tính năng AI Overviews mới của Google tiêu thụ gấp 10 lần năng lượng so với tìm kiếm truyền thống.
• Nhu cầu điện năng cho các trung tâm dữ liệu hiện đang vượt quá nguồn cung ở một số nơi trên thế giới. Nhiều cơ sở vẫn sử dụng nhiên liệu hóa thạch.
• Trung tâm dữ liệu không gian có thể được cung cấp năng lượng mặt trời 24/7 và không cần nước để làm mát.
• Tuy nhiên, để trung tâm dữ liệu không gian có ý nghĩa về môi trường, cần phát triển một loại tên lửa phóng mới tạo ra ít khí thải hơn 10 lần. ArianeGroup đang phát triển một tên lửa phóng thân thiện với môi trường.
• Các trung tâm dữ liệu không gian vẫn cần nhiên liệu tên lửa để duy trì quỹ đạo, điều này sẽ ảnh hưởng đến tính bền vững của chúng.
• Các nhà khoa học vẫn đang tìm kiếm giải pháp thay thế bền vững và hiệu quả về chi phí cho nhiên liệu tên lửa.
• EU khởi động dự án ASCEND nhằm so sánh tác động môi trường của trung tâm dữ liệu trên không gian và mặt đất, trong nỗ lực bắt kịp Mỹ và Trung Quốc về năng lực lưu trữ dữ liệu.
• Mặc dù còn nhiều thách thức, việc thiết lập trung tâm dữ liệu trong không gian có thể là một giải pháp đáng để theo đuổi, xét đến những hạn chế về năng lượng và đất đai trên Trái Đất.
📌 Nghiên cứu ASCEND cho thấy tiềm năng của trung tâm dữ liệu không gian như một giải pháp cho vấn đề năng lượng của AI. Mục tiêu đạt 1GW lưu trữ vào năm 2050, với lợi thế năng lượng mặt trời 24/7 và không cần nước làm mát. Tuy nhiên, vẫn cần giải quyết thách thức về khí thải và nhiên liệu tên lửa.
https://thenextweb.com/news/data-centres-in-space-ai-energy-problem
- Quỹ Tiền tệ Quốc tế (IMF) đề xuất đánh thuế lượng khí thải CO2 do các máy chủ AI tạo ra nhằm giải quyết tác động môi trường ngày càng gia tăng của trí tuệ nhân tạo.
- Trong 2 năm qua, các trung tâm dữ liệu cung cấp năng lượng cho các công cụ AI mới nhất bị chỉ trích vì sử dụng năng lượng cao và phụ thuộc vào tài nguyên thiên nhiên như nước để làm mát.
- Đề xuất này là một phần trong bản thảo luận rộng hơn của IMF mang tên "Mở rộng lợi ích từ AI tạo sinh: Vai trò của chính sách tài khóa".
- IMF tìm cách sử dụng chính sách tài khóa để đảm bảo AI vừa phục vụ nhân loại một cách phù hợp, vừa kiềm chế những tác động tiêu cực đến thị trường lao động.
- Kể từ cuộc cách mạng công nghiệp, tự động hóa đã dịch chuyển việc làm có tay nghề thấp và trung bình. Giờ đây, AI đe dọa cả những nghề có tay nghề cao nhất.
- IMF đề xuất cách tiếp cận đa diện gồm sửa đổi chính sách tài khóa, tăng cường hệ thống bảo vệ xã hội, cải cách chính sách thị trường lao động và giáo dục.
- Điểm then chốt là hệ thống thuế đánh vào lượng khí thải liên quan đến các công nghệ AI tiên tiến, phản ánh chi phí môi trường bên ngoài vào giá của công nghệ.
- Tuy nhiên, IMF cũng lưu ý rằng thuế GenAI để ngăn chặn dịch chuyển lao động quá mức sẽ khó thiết kế và thậm chí có thể cản trở tăng trưởng năng suất.
- IMF thừa nhận sự không chắc chắn xung quanh tương lai của AI và tác động của nó đến cả môi trường lẫn thị trường lao động. Các cuộc thảo luận vẫn đang ở giai đoạn đầu.
📌 IMF đề xuất đánh thuế lượng khí thải CO2 do các máy chủ AI gây ra nhằm giải quyết tác động môi trường ngày càng gia tăng. Tổ chức này cũng thảo luận về việc sử dụng chính sách tài khóa đa diện để đảm bảo AI phục vụ nhân loại phù hợp, đồng thời giảm thiểu ảnh hưởng tiêu cực đến thị trường lao động. Tuy nhiên, IMF thừa nhận còn nhiều điều không chắc chắn xung quanh tương lai của AI.
https://www.techradar.com/pro/imf-suggests-taxing-co2-emissions-caused-by-ai
- Trí tuệ nhân tạo (AI) đang thúc đẩy nhu cầu năng lượng và nước ngọt tại các trung tâm dữ liệu trên toàn cầu. Khi các mô hình AI ngày càng lớn hơn, lượng điện và nước tiêu thụ tăng lên đáng kể.
- Theo ước tính của Cơ quan Năng lượng Quốc tế (IEA), tổng lượng điện tiêu thụ của các trung tâm dữ liệu toàn cầu sẽ tăng gấp đôi từ năm 2022 đến 2026, đạt hơn 1.000 terawatt giờ vào năm 2026, tương đương với toàn bộ mức tiêu thụ hàng năm của Nhật Bản.
- Các trung tâm dữ liệu không chỉ tiêu tốn điện năng mà còn cần một lượng nước khổng lồ để làm mát. Tổ chức China Water Risk ước tính lượng nước tiêu thụ hàng năm hiện tại của các trung tâm dữ liệu ở Trung Quốc vào khoảng 1,3 tỷ mét khối. Đến năm 2030, tổng lượng nước sử dụng có thể đạt hơn 3 tỷ mét khối.
- Việc tạo ra 1.000 hình ảnh bằng AI có thể thải ra lượng khí carbon dioxide tương đương với việc lái xe 6,6 km bằng một chiếc xe chở khách chạy xăng trung bình. Năng lượng tiêu thụ sẽ còn tăng lên khi AI trở nên mạnh mẽ hơn.
- Các công ty công nghệ lớn như Microsoft, Google và Amazon đang tìm cách giảm hóa đơn năng lượng bằng cách chuyển sang sử dụng năng lượng tái tạo. Amazon là nhà mua năng lượng tái tạo lớn nhất ở Ấn Độ với 50 dự án điện gió và điện mặt trời. Microsoft và Google cũng đã công bố kế hoạch hợp tác mua điện từ địa nhiệt, hydro sạch, pin lưu trữ và công nghệ hạt nhân tiên tiến.
- Mặc dù vậy, việc sử dụng chip tiết kiệm năng lượng hơn và mô hình AI nhỏ hơn vẫn chưa đủ để giảm thiểu nhu cầu năng lượng khổng lồ của AI. Phần lớn quá trình đào tạo và triển khai AI vẫn dựa trên điện toán đám mây, và đám mây phụ thuộc vào các trung tâm dữ liệu trên toàn thế giới.
📌 Sự phát triển nhanh chóng của AI đang gây ra những lo ngại về tác động môi trường nghiêm trọng. Lượng điện và nước tiêu thụ khổng lồ tại các trung tâm dữ liệu đang thúc đẩy nhu cầu năng lượng toàn cầu và phát thải carbon. Mặc dù các công ty công nghệ lớn đang nỗ lực chuyển sang sử dụng năng lượng tái tạo, nhưng vẫn cần nhiều giải pháp hơn nữa để giảm thiểu tác động môi trường của AI trong tương lai.
https://asia.nikkei.com/Spotlight/The-Big-Story/AI-s-looming-climate-cost-Energy-demand-surges-amid-data-center-race
- Các mô hình AI tiên tiến đang làm tăng nhu cầu năng lượng của các trung tâm dữ liệu. Các công cụ AI tạo sinh như ChatGPT của OpenAI yêu cầu lượng dữ liệu khổng lồ để huấn luyện, dẫn đến việc sử dụng điện lớn cho làm mát và xử lý.
- Theo báo cáo mới của Viện Nghiên cứu Điện lực (EPRI), các trung tâm dữ liệu có thể chiếm tới 9,1% tổng nhu cầu năng lượng của Mỹ vào cuối thập kỷ này, so với 4% hiện nay. Nhu cầu này có thể được đáp ứng bằng khí đốt tự nhiên không tái tạo, làm phức tạp thêm nỗ lực giảm phát thải carbon toàn cầu.
- Báo cáo của EPRI cảnh báo rằng việc áp dụng rộng rãi các công cụ AI tạo sinh có thể dẫn đến "bước nhảy vọt trong yêu cầu năng lượng". Đến năm 2030, nhu cầu năng lượng của các trung tâm dữ liệu có thể chiếm từ 4,6% đến 9,1% tổng lượng điện sản xuất tại Mỹ.
- Nhu cầu năng lượng của các trung tâm dữ liệu trên toàn cầu có thể tăng gấp đôi vào năm 2026, theo ước tính của Cơ quan Năng lượng Quốc tế (IEA). Một truy vấn đơn giản tới ChatGPT của OpenAI yêu cầu lượng điện gấp 10 lần so với một tìm kiếm Google thông thường.
- Các mô hình AI tạo sinh âm thanh và video như Sora của OpenAI tạo ra lượng dữ liệu chưa từng có, làm tăng nhu cầu năng lượng của các trung tâm dữ liệu.
- Dự báo của Goldman Sachs cho thấy AI sẽ chiếm 19% nhu cầu năng lượng của các trung tâm dữ liệu vào năm 2028. Các trung tâm dữ liệu hiện chiếm từ 1-2% nhu cầu năng lượng toàn cầu, con số này dự kiến sẽ tăng lên 3-4% vào cuối thập kỷ.
- Tại Mỹ, các trung tâm dữ liệu dự kiến sẽ chiếm 8% tổng nhu cầu năng lượng quốc gia vào năm 2030. Các nhà cung cấp năng lượng đang gấp rút xây dựng các nhà máy điện mới để đáp ứng nhu cầu này, với hơn một nửa (60%) năng lượng đến từ các nguồn không tái tạo.
- Các trung tâm dữ liệu có thể tăng hiệu quả nội bộ bằng cách giảm lượng điện sử dụng cho làm mát và chiếu sáng. Làm mát chiếm khoảng 40% năng lượng của trung tâm dữ liệu. Các máy phát điện dự phòng sử dụng năng lượng tái tạo cũng có thể hỗ trợ lưới điện bền vững hơn.
- Báo cáo của EPRI kêu gọi chuyển đổi mối quan hệ giữa trung tâm dữ liệu và lưới điện từ mô hình "tải thụ động" hiện tại sang "nền kinh tế năng lượng chia sẻ" để giúp các công ty điện lực đối phó với sự tăng trưởng bùng nổ của AI và đóng góp vào tính khả thi và độ tin cậy cho tất cả người dùng điện.
📌 Nhu cầu năng lượng của AI đang tăng mạnh, có thể chiếm tới 9,1% tổng nhu cầu năng lượng của Mỹ vào năm 2030. Các trung tâm dữ liệu đang chuyển sang sử dụng nhiên liệu hóa thạch để đáp ứng nhu cầu này, làm phức tạp thêm nỗ lực giảm phát thải carbon.
https://www.popsci.com/technology/ai-more-energy/
- Lượng khí thải của Microsoft tăng gần 30% từ năm 2020 đến 2023 do nhu cầu xây dựng cơ sở hạ tầng cho trí tuệ nhân tạo (AI) tăng vọt.
- Phát thải trực tiếp và liên quan đến năng lượng của Microsoft giảm 6,3% vào năm 2023 so với mức cơ sở năm 2020. Tuy nhiên, phát thải từ chuỗi cung ứng - chiếm phần lớn tổng lượng khí thải - tăng 30,9%, đẩy tổng lượng khí thải tăng 29,1%.
- Microsoft đang chạy đua với các đối thủ như Amazon và Google để đầu tư xây dựng cơ sở hạ tầng hỗ trợ AI. Công ty đã đầu tư hàng tỷ đô la vào OpenAI và đang phát triển các công cụ AI của riêng mình.
- Mục tiêu khí hậu của Microsoft, bao gồm "trung hòa carbon" và "không chất thải" vào năm 2030, đang bị đe dọa bởi cuộc đua phát triển AI tạo sinh vốn đòi hỏi nhiều năng lượng và nước.
- Cạnh tranh xây dựng cơ sở hạ tầng trung tâm dữ liệu cũng đặt ra câu hỏi về khả năng của lưới điện quốc gia trong việc đáp ứng nhu cầu điện dự kiến tăng vọt liên quan đến AI và liệu có đủ nguồn năng lượng tái tạo để cung cấp cho công nghệ này hay không.
- Để giải quyết vấn đề phát thải chuỗi cung ứng ngày càng tăng, Microsoft yêu cầu một số nhà cung cấp "khối lượng lớn" sử dụng 100% điện "không carbon" cho hàng hóa và dịch vụ giao cho công ty vào năm 2030.
- Microsoft cũng cam kết hỗ trợ khoảng 10 tỷ USD cho các dự án điện tái tạo do Brookfield Asset Management phát triển như một phần nỗ lực kết hợp mục tiêu năng lượng sạch với tham vọng AI.
- Phát thải liên quan đến xây dựng trung tâm dữ liệu mới một phần đến từ vật liệu xây dựng quan trọng như xi măng và thép - vốn thải ra nhiều carbon khi sản xuất, cũng như chip máy tính và phần cứng khác.
📌 Mục tiêu khí hậu của Microsoft đang bị thách thức bởi nhu cầu xây dựng cơ sở hạ tầng AI. Lượng khí thải tăng 29,1% từ 2020-2023, chủ yếu do phát thải chuỗi cung ứng tăng 30,9%. Công ty đang đưa ra các yêu cầu mới với nhà cung cấp và cam kết đầu tư 10 tỷ USD vào năng lượng tái tạo để giải quyết vấn đề, hướng tới mục tiêu 100% điện tiêu thụ từ năng lượng không carbon vào 2030.
https://www.ft.com/content/61bd45d9-2c0f-479a-8b24-605d5e72f1ab
#FT
- Mark Zuckerberg, CEO của Meta, cảnh báo rằng mặc dù nút thắt về GPU cho AI đã được giảm bớt, nhưng giờ đây năng lượng điện sẽ trở thành yếu tố hạn chế sự phát triển của AI.
- Ông nhấn mạnh tầm quan trọng của việc xây dựng các trung tâm dữ liệu hiệu quả năng lượng để đáp ứng nhu cầu ngày càng tăng của các mô hình AI.
- Zuckerberg chia sẻ rằng Meta đã đầu tư đáng kể vào cơ sở hạ tầng AI, bao gồm các siêu máy tính AI như AI Research SuperCluster (RSC).
- Tuy nhiên, việc mở rộng quy mô các mô hình AI đòi hỏi năng lượng điện khổng lồ. Ví dụ, siêu máy tính RSC tiêu thụ khoảng 30-35 megawatt.
- Zuckerberg dự đoán rằng trong 3-5 năm tới, các mô hình AI sẽ cần tới hàng trăm megawatt năng lượng, tương đương với một thành phố nhỏ.
- Để giải quyết vấn đề này, Meta đang tập trung vào việc tối ưu hóa hiệu quả năng lượng của phần cứng và phần mềm AI, cũng như xây dựng các trung tâm dữ liệu thân thiện với môi trường.
- Zuckerberg kêu gọi ngành công nghiệp cùng chung tay giải quyết thách thức về năng lượng để thúc đẩy sự phát triển bền vững của AI.
📌 Mark Zuckerberg cảnh báo rằng mặc dù nút thắt về GPU cho AI đã được giảm bớt, năng lượng điện sẽ trở thành rào cản chính cho sự phát triển của AI trong tương lai. Ông nhấn mạnh tầm quan trọng của việc xây dựng các trung tâm dữ liệu hiệu quả năng lượng, với dự báo các mô hình AI sẽ cần tới hàng trăm megawatt trong 3-5 năm tới.
Citations:
[1] https://www.tomshardware.com/tech-industry/ai-gpu-bottleneck-has-eased-but-now-power-will-constrain-ai-growth-warns-zuckerberg
- Các nhà khoa học Trung Quốc đã phát triển mô hình AI ED-DLSTM có thể dự báo rủi ro lũ lụt và lưu lượng dòng chảy xuyên vùng trên toàn cầu, kể cả ở các lưu vực thiếu hồ sơ thủy văn.
- Mô hình không dựa vào dữ liệu lưu lượng dòng chảy lịch sử như các mô hình dự báo khác, thay vào đó sử dụng các thuộc tính như độ cao và lượng mưa.
- Hơn 95% lưu vực nhỏ và vừa trên thế giới thiếu hoặc có hồ sơ thủy văn hạn chế, gây khó khăn cho các mô hình cần thông tin này để dự báo dòng chảy và lũ lụt.
- Mô hình ED-DLSTM được tiền huấn luyện trên quy mô lục địa sử dụng dữ liệu giám sát lịch sử từ năm 2010-2012 của hơn 2.000 lưu vực ở Mỹ, Canada, Trung Âu và Anh.
- Các thuộc tính tĩnh như đặc điểm đất có thể lấy từ dữ liệu vệ tinh có sẵn trên toàn cầu.
- Mô hình ED-DLSTM xử lý riêng biệt các thuộc tính không gian và đặc điểm khí hậu theo chuỗi thời gian, khác với các mô hình khác sử dụng chỉ số tổng hợp.
- Gần 82% lưu vực có lượng mưa lớn hơn hoặc dòng chảy nhiều hơn đạt hệ số hiệu quả Nash-Sutcliffe trung bình "xuất sắc" trên 0,6.
- Mô hình được kiểm tra chuyển giao sang các vùng chưa được nghiên cứu, áp dụng cho 160 lưu vực không có số liệu ở miền Trung Chile.
📌 Mô hình AI ED-DLSTM của Trung Quốc có thể dự báo lũ lụt và lưu lượng dòng chảy trên toàn cầu với độ chính xác cao, ngay cả ở 95% lưu vực thiếu dữ liệu, nhờ sử dụng các thuộc tính sẵn có như độ cao, lượng mưa thay vì dữ liệu lịch sử. Mô hình đạt hiệu quả dự báo xuất sắc trên 82% ở các lưu vực mưa nhiều và có thể chuyển giao sang vùng chưa nghiên cứu.
https://www.scmp.com/news/china/science/article/3261994/superior-capabilities-chinese-ai-can-make-flooding-forecast-every-river-earth
- Kỷ nguyên mới của AI tạo sinh đang nở rộ, nhưng sự bùng nổ đó đi kèm với cái giá phải trả về tài nguyên và môi trường. Để đáp ứng nhu cầu phát triển, thế giới cần nhiều siêu máy tính, trung tâm dữ liệu và năng lượng hơn.
- Dự báo đến năm 2026, AI có thể góp phần làm tăng gấp đôi lượng điện tiêu thụ toàn cầu của các trung tâm dữ liệu lên 1.000 terawatt giờ. Một nghiên cứu ước tính đến 2027, chỉ riêng các máy chủ AI của Nvidia đã có thể tiêu thụ 85,4 - 134 terawatt giờ điện.
- Các kế hoạch đầu tư vào cơ sở hạ tầng AI đang tiến gần đến mức phi lý. Microsoft và OpenAI lên kế hoạch xây dựng siêu máy tính trị giá 100 tỷ USD. Meta tăng ước tính chi tiêu vốn năm nay lên 40 tỷ USD để hỗ trợ AI.
- Sự phát triển của AI tạo sinh kéo theo những hệ quả như tăng nhu cầu năng lượng, gây áp lực lên lưới điện, tiềm ẩn nguy cơ phát thải carbon và sử dụng nước nhiều hơn. Các nhà máy điện có thể phải quay lại sử dụng khí đốt và than để đáp ứng nhu cầu.
- Nước đóng vai trò quan trọng để ngăn thiết bị quá nóng. Năm 2022, các trung tâm dữ liệu của Google tiêu thụ 19,7 tỷ lít nước, tương đương mức tiêu thụ của 2,5 triệu người. AI tạo sinh có thể khiến các trung tâm dữ liệu "khát" nước hơn.
- Các nhà nghiên cứu ước tính đến năm 2027, điện toán AI có thể chịu trách nhiệm cho lượng nước rút đi lên tới 6,6 tỷ mét khối - tương đương với 6 nước Đan Mạch.
- Các công ty như Cerio, Radium, CentML, Denvr Dataworks đang phát triển các giải pháp để tối ưu hóa cách thức vận hành ứng dụng AI, giảm tiêu thụ năng lượng và nước trong trung tâm dữ liệu như phân tán GPU, giới hạn công suất, sử dụng công nghệ làm mát bằng chất lỏng...
- Tuy nhiên, khi thế giới xây dựng thêm các trung tâm dữ liệu, tổng lượng điện và nước tiêu thụ vẫn có thể tăng lên bất chấp những cải tiến công nghệ. Các doanh nghiệp cần cân nhắc kỹ lưỡng liệu AI tạo sinh có phải là cách tiếp cận đúng đắn cho vấn đề cần giải quyết hay không.
- Chính phủ Canada khuyến nghị các cơ quan liên bang cần cân bằng giữa việc sử dụng AI tạo sinh và nhu cầu cấp bách giảm phát thải khí nhà kính toàn cầu để tránh gây tổn hại không thể phục hồi cho môi trường.
📌 Sự phát triển nhanh chóng của AI tạo sinh đang đặt ra những thách thức to lớn về năng lượng, nước và phát thải carbon. Dự báo đến năm 2026, AI có thể góp phần làm tăng gấp đôi lượng điện tiêu thụ toàn cầu của các trung tâm dữ liệu lên 1.000 terawatt giờ. Một nghiên cứu ước tính đến 2027, chỉ riêng các máy chủ AI của Nvidia đã có thể tiêu thụ 85,4 - 134 terawatt giờ điện. Các nhà nghiên cứu ước tính đến năm 2027, điện toán AI có thể chịu trách nhiệm cho lượng nước rút đi lên tới 6,6 tỷ mét khối - tương đương với 6 nước Đan Mạch.
Citations:
[1]https://www.theglobeandmail.com/business/article-ai-electricity-water-environment-climate-change/
- Các trung tâm dữ liệu AI đang ngày càng tăng cường sử dụng năng lượng tái tạo, đặc biệt là năng lượng gió biển, để vận hành. Điều này không chỉ giúp giảm thiểu tác động đến môi trường mà còn tăng cường hiệu quả năng lượng.
- Việc sử dụng năng lượng gió biển cho phép các trung tâm dữ liệu này cắt giảm đáng kể lượng khí thải carbon, một yếu tố quan trọng trong bối cảnh biến đổi khí hậu hiện nay.
- Các dự án năng lượng gió biển không chỉ bao gồm việc lắp đặt các tuabin gió ngoài khơi mà còn liên quan đến việc xây dựng cơ sở hạ tầng để truyền tải năng lượng từ các tuabin về đất liền.
- Một số trung tâm dữ liệu đã bắt đầu thử nghiệm sử dụng pin lưu trữ năng lượng để cải thiện khả năng ổn định cung cấp năng lượng, đặc biệt là trong các điều kiện thời tiết không thuận lợi khi sản lượng gió giảm sút.
- Các chính sách hỗ trợ từ chính phủ, như giảm thuế và cung cấp tài chính cho các dự án năng lượng tái tạo, đã thúc đẩy đáng kể sự phát triển của năng lượng gió biển.
- Các công nghệ mới như tuabin gió thế hệ mới với hiệu suất cao hơn và khả năng chịu đựng điều kiện khắc nghiệt ở biển cũng đang được phát triển, mở ra triển vọng mới cho ngành năng lượng tái tạo.
- Ngoài ra, việc tích hợp AI vào quản lý và vận hành các trung tâm dữ liệu sử dụng năng lượng gió biển giúp tối ưu hóa hiệu quả sử dụng năng lượng và giảm thiểu chi phí vận hành.
📌 Các trung tâm dữ liệu AI đang dần chuyển sang sử dụng năng lượng gió biển, giảm thiểu tác động môi trường và tăng hiệu quả năng lượng. Sự hỗ trợ từ chính phủ và công nghệ mới trong tuabin gió đang mở rộng khả năng và hiệu quả của năng lượng tái tạo.
Citations:
[1] https://www.theverge.com/24152249/ai-data-center-renewable-energy-offshore-wind
- Sự phát triển của AI tạo sinh đang thúc đẩy nhu cầu về năng lượng tính toán, dẫn đến gia tăng tiêu thụ điện năng và phát thải carbon.
- Các mô hình ngôn ngữ lớn như GPT-3 tiêu tốn 190.000 kWh điện và thải ra 78.000 kg CO2 trong quá trình đào tạo.
- Việc triển khai AI tạo sinh trên các thiết bị biên có thể giúp giảm đáng kể lượng điện năng tiêu thụ và lượng khí thải carbon.
- Các thiết bị biên chỉ tiêu thụ 1-2W điện, thấp hơn nhiều so với 150-300W của các máy chủ đám mây.
- Xử lý dữ liệu tại chỗ trên thiết bị biên giúp giảm băng thông mạng cần thiết, tiết kiệm năng lượng truyền dữ liệu.
- Bằng cách giữ dữ liệu cục bộ, các thiết bị biên còn giúp tăng cường bảo mật và quyền riêng tư của người dùng.
- Các công ty như Kneron đang phát triển giải pháp AI tạo sinh trên thiết bị biên, hứa hẹn hiệu suất cao với mức tiêu thụ điện năng tối thiểu.
📌 Triển khai AI tạo sinh trên các thiết bị biên có thể giúp giảm đáng kể tác động môi trường, với mức tiêu thụ điện chỉ 1-2W, thấp hơn nhiều so với 150-300W của máy chủ đám mây. Giải pháp này không chỉ tiết kiệm năng lượng mà còn tăng cường bảo mật dữ liệu người dùng.
Citations:
[1] https://www.csrwire.com/press_releases/801531-how-edge-devices-can-help-mitigate-global-environmental-cost-generative-ai
- Amazon đã giới thiệu công cụ beta cho phép các tác giả tự xuất bản tạo lồng tiếng ảo cho sách điện tử của họ, dẫn đến hơn 40.000 đầu sách nói do AI lồng tiếng được phát hành trên nền tảng Audible.
- Công cụ lồng tiếng ảo miễn phí của Amazon đã trở thành một bước đột phá cho các tác giả độc lập, giúp họ tiếp cận thị trường sách nói mà không cần chi trả phí lồng tiếng chuyên nghiệp đắt đỏ.
- Một blogger đã báo cáo rằng việc chuyển đổi một ebook thành sách nói sử dụng AI chỉ mất 52 phút, tránh được chi phí thu âm trong studio.
- Tuy nhiên, không phải tất cả mọi người đều hài lòng với giải pháp này. Một số người nghe đã phàn nàn về việc không có tùy chọn lọc các sách nói AI khi duyệt qua danh mục của Audible.
- Các nhà lồng tiếng chuyên nghiệp cũng bày tỏ lo ngại về nguy cơ mất việc làm khi công nghệ này ngày càng được cải thiện. Ramon de Ocampo, một nhà lồng tiếng, đã cảnh báo trên mạng xã hội rằng công nghệ giọng nói ảo của Amazon đang cố gắng "chiếm lấy tất cả công việc".
- Các nhà xuất bản lớn như HarperCollins đã ký kết thỏa thuận với các công ty giọng nói AI để sản xuất sách nói bằng nhiều ngôn ngữ sử dụng công nghệ này. Apple cũng đã bắt đầu bán sách nói với lồng tiếng dựa trên AI từ năm ngoái.
- Sự căng thẳng giữa các nhóm có lợi ích khác nhau đang nổi lên, với các tác giả có ngân sách hạn hẹp coi việc chuyển đổi âm thanh dễ dàng và miễn phí là điều hiển nhiên, trong khi người nghe quen với chất lượng lồng tiếng của con người lại cảm thấy bị bỏ rơi khi không có tùy chọn lọc.
📌 Trong khi hơn 40.000 sách nói AI đã xuất hiện trên Audible, tạo cơ hội cho các tác giả độc lập tiết kiệm chi phí, sự phản đối từ phía người nghe và nhà lồng tiếng chuyên nghiệp vẫn đang gia tăng. Công nghệ này không chỉ thay đổi cách chúng ta tiếp cận sách nói mà còn đặt ra những thách thức về việc bảo tồn chất lượng nghệ thuật và công việc cho con người.
https://www.techspot.com/news/102875-40000-ai-narrated-audiobooks-flood-audible-dividing-authors.html
- Các nhà sản xuất khí đốt tự nhiên lạc quan về tương lai khi họ nhìn thấy cơ hội tăng trưởng đáng kể từ nhu cầu năng lượng lớn của AI và các trung tâm dữ liệu.
- Phân tích của Wells Fargo công bố vào tháng 4 dự báo nhu cầu điện ở Mỹ sẽ tăng vọt tới 20% vào năm 2030.
- Các công ty điện nhấn mạnh sự cần thiết của khí đốt để đáp ứng nhu cầu ngày càng tăng khi các nguồn năng lượng tái tạo không tạo ra đủ điện.
- Các nhà sản xuất khí đốt tự nhiên kỳ vọng nhu cầu sẽ tăng mạnh trong thập kỷ tới, khi AI thúc đẩy sự gia tăng đáng kể về tiêu thụ điện mà năng lượng tái tạo có thể gặp khó khăn để đáp ứng.
- Wells Fargo dự báo riêng các trung tâm dữ liệu AI sẽ tăng thêm khoảng 323 terawatt giờ nhu cầu điện ở Mỹ vào năm 2030, gấp 7 lần mức tiêu thụ điện của New York.
- Công ty tư vấn Rystad Energy khẳng định sự gia tăng nhu cầu điện đòi hỏi một nguồn năng lượng có thể bổ sung cho năng lượng tái tạo trong những giai đoạn chúng không tạo ra đủ điện.
- Ngành công nghiệp khí đốt tự nhiên đang đặt cược vào khí đốt là lựa chọn ưu tiên để lấp đầy khoảng trống này.
- Goldman Sachs dự báo khí đốt tự nhiên sẽ đáp ứng 60% nhu cầu điện tăng thêm từ AI và trung tâm dữ liệu, trong khi năng lượng tái tạo sẽ cung cấp 40% còn lại.
- Nhu cầu khí đốt có thể tăng thêm 10 tỷ feet khối/ngày vào năm 2030, tăng 28% so với mức 35 tỷ feet khối/ngày hiện đang tiêu thụ để sản xuất điện ở Mỹ.
- Tuy nhiên, sự mở rộng của khí đốt tự nhiên trong việc đáp ứng nhu cầu năng lượng của Mỹ có thể sẽ gặp phải sự phản đối từ các nhóm môi trường ủng hộ việc loại bỏ dần nhiên liệu hóa thạch.
📌 Nhu cầu điện dự kiến tăng mạnh 20% vào năm 2030 do sự bùng nổ của AI và trung tâm dữ liệu. Khí đốt tự nhiên được kỳ vọng sẽ đóng vai trò then chốt, đáp ứng 60% nhu cầu tăng thêm, tương đương 10 tỷ feet khối/ngày. Tuy nhiên, điều này có thể vấp phải sự phản đối từ các nhóm môi trường do lo ngại phát thải carbon từ trung tâm dữ liệu có thể tăng gấp đôi vào năm 2030.
Citations:
[1] https://www.cnbc.com/2024/05/05/ai-could-drive-natural-gas-boom-as-utilities-face-surging-electric-demand.html
- Alphabet, Amazon và Microsoft đã đầu tư tổng cộng 40 tỷ USD vào các trung tâm dữ liệu trong quý đầu năm 2024 để đáp ứng khối lượng công việc AI ngày càng tăng. Meta cũng có thể chi tới 40 tỷ USD cho các dự án liên quan đến AI trong năm nay.
- Các nhà phát triển trung tâm dữ liệu thường xuyên yêu cầu công suất điện lên tới "vài gigawatt". Năm 2022, Microsoft, Amazon Web Services, Alphabet, Meta và Microsoft đã tiêu thụ 90 terawatt giờ điện, bằng với mức tiêu thụ của Colombia.
- Các gã khổng lồ công nghệ muốn năng lượng của họ phải sạch. Họ đã cảnh báo sẽ xây dựng ít trung tâm dữ liệu hơn ở Georgia nếu tiểu bang này tăng lượng khí thải carbon.
- Microsoft và Brookfield đã thỏa thuận xây dựng 10.5GW công suất năng lượng tái tạo ở Mỹ và châu Âu đến năm 2030. AWS đã mua một trung tâm dữ liệu 960MW ở Pennsylvania được cấp nguồn bởi lò phản ứng hạt nhân.
- Google đang thử nghiệm năng lượng địa nhiệt, ký hợp đồng phát triển địa nhiệt "nâng cao" đầu tiên với Fervo. Công nghệ của Fervo có thể mở rộng sản lượng địa nhiệt ở Mỹ lên 20 lần, đạt hơn 90GW vào năm 2050.
- Sam Altman của OpenAI đã đầu tư vào các công ty khởi nghiệp năng lượng đột phá như năng lượng nhiệt hạch, pin mặt trời kết hợp tích trữ nhiệt và lò phản ứng hạt nhân mini.
📌 Các gã khổng lồ công nghệ đang đầu tư mạnh vào năng lượng sạch và hợp tác với các công ty năng lượng để đáp ứng nhu cầu điện khổng lồ cho các trung tâm dữ liệu AI. Họ đang thúc đẩy phát triển năng lượng tái tạo, địa nhiệt, hạt nhân và các công nghệ đột phá, với mục tiêu 100% điện sạch vào năm 2030.
https://www.economist.com/business/2024/05/05/big-techs-great-ai-power-grab
- Goldman Sachs dự báo nhu cầu điện năng toàn cầu của trung tâm dữ liệu sẽ tăng hơn gấp đôi vào năm 2030, thúc đẩy tốc độ tăng trưởng kép hàng năm (CAGR) của nhu cầu điện Mỹ lên 2.4%.
- Các chuyên gia phân tích dự báo CAGR 15% trong nhu cầu điện của trung tâm dữ liệu từ 2023-2030, khiến trung tâm dữ liệu chiếm 8% tổng nhu cầu điện của Mỹ vào năm 2030, tăng từ mức 3% hiện tại.
- Goldman ước tính điều này sẽ thúc đẩy khoảng 50 tỷ USD đầu tư vào công suất sản xuất điện của Mỹ lũy kế đến năm 2030, giả định tỷ lệ 60/40 giữa khí đốt và năng lượng tái tạo.
- Các máy chủ AI thế hệ mới tiêu thụ nhiều điện năng hơn và cung cấp tốc độ tính toán nhanh hơn, ngay cả khi cường độ sử dụng điện đã giảm đáng kể.
- Dựa trên dự báo nhu cầu năng lượng, nhóm nghiên cứu của Goldman Sachs nhìn thấy hai nhóm hưởng lợi: 1) các công ty gắn liền với nhu cầu/giá điện và 2) các công ty cung cấp chuỗi cung ứng/cơ sở hạ tầng.
- Nhu cầu điện cho trung tâm dữ liệu sẽ thúc đẩy nhu cầu khí đốt tự nhiên tăng thêm khoảng 3.3 tỷ feet khối/ngày vào năm 2030, tăng khoảng 10% lượng khí tiêu thụ trên thị trường điện so với hiện tại.
📌 Goldman Sachs dự báo nhu cầu điện toàn cầu của trung tâm dữ liệu sẽ tăng hơn gấp đôi vào năm 2030 do sự phát triển của AI, thúc đẩy tăng trưởng nhu cầu điện Mỹ lên 2,4%/năm. Điều này sẽ kích thích đầu tư 50 tỷ USD vào năng lượng, chủ yếu vào khí đốt và năng lượng tái tạo, mang lại cơ hội cho các công ty năng lượng và cơ sở hạ tầng.
Citations:
[1] https://au.investing.com/news/stock-market-news/goldman-discusses-how-significant-the-power-demand-growth-from-ai-will-be-432SI-3235584
- Microsoft và Brookfield Asset Management đã ký kết một thỏa thuận trị giá hơn 10 tỷ đô la để phát triển năng lượng tái tạo.
- Dự án này nhằm mục đích phát triển tổng cộng 10,5 gigawatt năng lượng tái tạo để cung cấp cho các trung tâm dữ liệu và hoạt động AI của Microsoft.
- Các nguồn năng lượng tái tạo này sẽ được cung cấp cho Microsoft từ năm 2026 đến 2030 tại cả Hoa Kỳ và Châu Âu.
- Đầu tư này dự kiến sẽ bơm hơn 10 tỷ đô la vào các dự án năng lượng tái tạo.
- Công suất năng lượng tái tạo 10,5 gigawatt này gấp ba lần so với 3,5 gigawatt điện tiêu thụ bởi các trung tâm dữ liệu ở Bắc Virginia, thị trường trung tâm dữ liệu hàng đầu thế giới.
- Phát ngôn viên của Brookfield xác nhận rằng thỏa thuận này sẽ dẫn đến đầu tư đáng kể vào năng lượng tái tạo.
- Phạm vi của thỏa thuận có thể mở rộng để bao gồm thêm công suất năng lượng tại Hoa Kỳ, Châu Âu, Châu Á, Mỹ Latinh và Ấn Độ.
- Các công ty tập trung vào các công nghệ không carbon mới cũng như năng lượng gió và mặt trời.
- Nhu cầu điện tại Hoa Kỳ đang tăng mạnh do sự phát triển của AI, mở rộng sản xuất trong nước của bán dẫn và pin, và điện khí hóa đội xe quốc gia.
- Theo ghi chú nghiên cứu của Wells Fargo vào tháng Tư, tổng mức tiêu thụ điện tại Hoa Kỳ dự kiến sẽ tăng 20% vào cuối thập kỷ này.
- Microsoft cam kết đến năm 2030, 100% điện năng sử dụng sẽ được khớp với các khoản mua năng lượng không carbon.
📌 Microsoft và Brookfield Asset Management đã ký kết thỏa thuận trị giá hơn 10 tỷ đô la để phát triển 10,5 gigawatt năng lượng tái tạo, nhằm cung cấp năng lượng cho các trung tâm dữ liệu và hoạt động AI của Microsoft từ năm 2026 đến 2030. Đầu tư này không chỉ góp phần vào sự phát triển của năng lượng sạch mà còn đáp ứng nhu cầu điện năng tăng cao tại Hoa Kỳ và Châu Âu, hướng tới mục tiêu năng lượng không carbon vào năm 2030.
Citations:
[1] https://www.cnbc.com/2024/05/01/microsoft-brookfield-to-develop-more-than-10point5-gigawatts-of-renewable-energy.html
- Theo một báo cáo mới từ công ty nghiên cứu Enverus, sự bùng nổ của trí tuệ nhân tạo (AI) sẽ thúc đẩy nhu cầu khí đốt tự nhiên ở Mỹ trong những năm tới.
- Các trung tâm dữ liệu phục vụ cho các ứng dụng AI sẽ tiêu thụ một lượng điện năng đáng kể, dẫn đến tăng nhu cầu khí đốt tự nhiên để sản xuất điện.
- Báo cáo ước tính rằng đến năm 2030, AI sẽ chiếm khoảng 12% tổng nhu cầu khí đốt của Mỹ, tương đương 11 tỷ feet khối/ngày.
- Các nhà máy điện chạy bằng khí đốt sẽ đóng vai trò quan trọng trong việc cung cấp điện cho các trung tâm dữ liệu AI, do tính linh hoạt và khả năng cung cấp điện ổn định.
- Sự gia tăng nhu cầu khí đốt từ AI sẽ bổ sung thêm 1-2 tỷ feet khối/ngày vào nhu cầu khí đốt công nghiệp của Mỹ.
- Các công ty năng lượng đang chú ý đến xu hướng này và chuẩn bị đáp ứng nhu cầu tăng cao trong tương lai.
- Tuy nhiên, sự phát triển của năng lượng tái tạo và công nghệ lưu trữ có thể làm giảm phần nào vai trò của khí đốt trong việc cung cấp điện cho AI.
📌 Sự bùng nổ của AI được dự báo sẽ thúc đẩy mạnh nhu cầu khí đốt tự nhiên ở Mỹ, chiếm 12% tổng nhu cầu vào năm 2030 (tương đương 11 tỷ feet khối/ngày) để cung cấp điện cho các trung tâm dữ liệu. Tuy nhiên, năng lượng tái tạo và công nghệ lưu trữ có thể làm giảm phần nào vai trò của khí đốt.
Citations:
[1] https://www.reuters.com/business/energy/ai-boom-fuel-natural-gas-demand-coming-years-report-says-2024-04-23/
• Nhu cầu năng lượng cho các trung tâm dữ liệu hỗ trợ công nghệ AI tạo sinh như ChatGPT và DALL-E đang tăng vọt, tạo áp lực lên lưới điện Mỹ chưa từng có kể từ thời kỳ phổ biến hóa điều hòa trung tâm vào những năm 1960.
• Theo báo cáo McKinsey tháng 1/2023, tiêu thụ điện năng của trung tâm dữ liệu tại Mỹ dự kiến tăng từ 17 gigawatt (GW) năm 2017 lên 35 GW vào năm 2030, tương đương sản lượng của 9 đập thủy điện Hoover Dam.
• Các công ty công nghệ như Microsoft đã bắt đầu ký hợp đồng trực tiếp với nhà cung cấp năng lượng tái tạo để đáp ứng nhu cầu.
• Tuy nhiên, một số công ty khác đang tìm kiếm giải pháp mới, tập trung vào việc nâng cao hiệu quả bằng cách giảm tiêu thụ điện năng cho hoạt động suy luận AI tạo sinh.
• Các trung tâm dữ liệu AI tiêu thụ gấp 4 lần điện năng so với trung tâm dữ liệu điện toán đám mây do sử dụng GPU thực hiện xử lý song song mạng.
• GPU NVIDIA H100 tiêu tốn 700 watt, gấp đôi so với CPU Intel và AMD thông thường (300-400 watt).
• Giải pháp mở rộng thêm phần cứng không phải là lâu dài vì sẽ chỉ làm tăng nhu cầu năng lượng, giống như việc mở rộng đường cao tốc không giải quyết được vấn đề tắc nghẽn giao thông.
• Cần có giải pháp mới tập trung vào việc tối ưu hóa phần mềm và thuật toán để giảm thiểu nhu cầu tài nguyên phần cứng, từ đó giảm tiêu thụ năng lượng.
📌Các trung tâm dữ liệu AI tiêu thụ gấp 4 lần điện năng so với trung tâm dữ liệu điện toán đám mây. Nhu cầu năng lượng tăng cao để phục vụ AI tạo sinh đang đặt ra thách thức mới cho lưới điện Mỹ. Cần có giải pháp mới tối ưu phần mềm, thuật toán để giảm thiểu tiêu thụ điện năng, thay vì chỉ mở rộng phần cứng như trước đây.
Citations:
[1] https://www.forbes.com/sites/forbestechcouncil/2024/04/22/powering-the-future-meet-the-scaling-energy-demands-of-generative-ai/?sh=2ac09ff66b7a
- Trung Quốc đang đẩy mạnh đầu tư vào công nghệ AI, tập trung mở rộng các trung tâm dữ liệu, gây ra lượng tiêu thụ nước khổng lồ.
- Theo báo cáo của tổ chức phi lợi nhuận China Water Risk, đến năm 2030, các trung tâm dữ liệu của Trung Quốc có thể tiêu thụ khoảng 343 tỷ gallon nước, tương đương mức sử dụng của 26 triệu dân.
- Con số này có thể tăng lên 792 tỷ gallon, đủ cung cấp cho toàn bộ dân số Hàn Quốc.
- Việc đào tạo và duy trì các mô hình AI tiêu tốn nhiều năng lượng, tạo ra lượng nhiệt khổng lồ, cần sử dụng nước để làm mát phần cứng.
- China Water Risk dự báo Trung Quốc có thể tăng gấp 3 lần số trung tâm dữ liệu vào năm 2030, đạt khoảng 11 triệu giá đỡ.
- Xu hướng này không chỉ diễn ra ở Trung Quốc. Sự bùng nổ AI toàn cầu đã dẫn đến lượng tiêu thụ nước đáng báo động, kể cả ở Mỹ.
- Năm ngoái, các nhà nghiên cứu phát hiện Microsoft và OpenAI đã tiêu thụ 185.000 gallon nước chỉ để huấn luyện GPT-3.
- Google thừa nhận đã sử dụng 5,6 tỷ gallon nước trong năm 2022.
- Chatbot AI tiêu tốn năng lượng nhiều hơn hẳn so với các phương thức truy cập thông tin trực tuyến truyền thống.
- Nếu 100 triệu người dùng tương tác với ChatGPT của OpenAI, lượng nước tiêu thụ tương đương 20 bể bơi Olympic, trong khi cùng lượng tương tác qua tìm kiếm Google chỉ "tiêu thụ một bể bơi".
- Tuy nhiên, cơn sốt AI vẫn tiếp diễn. CEO của Arm Holdings Plc dự báo đến cuối thập kỷ, các trung tâm dữ liệu thế giới sẽ tiêu thụ điện nhiều hơn cả Ấn Độ.
📌 Sự bùng nổ của công nghệ AI đang khiến các trung tâm dữ liệu ở Trung Quốc và trên toàn cầu gia tăng mạnh mẽ, dẫn đến lượng tiêu thụ nước và điện năng khổng lồ. Dự báo đến năm 2030, lượng nước tiêu thụ của các trung tâm dữ liệu AI Trung Quốc sẽ vượt qua cả Hàn Quốc, gây ra những lo ngại sâu sắc về tác động môi trường.
Citations:
[1] https://futurism.com/the-byte/chinas-ai-centers-drink-water-south-korea-2030
- Rene Haas, CEO của Arm Holdings Plc, đưa ra cảnh báo nghiêm trọng về nhu cầu năng lượng ngày càng tăng của trí tuệ nhân tạo (AI), có thể sớm vượt quá nguồn năng lượng thế giới nếu ngành công nghiệp không thích ứng.
- Đến năm 2030, Haas dự báo các trung tâm dữ liệu trên thế giới sẽ tiêu thụ điện năng nhiều hơn Ấn Độ, quốc gia đông dân nhất thế giới.
- Mức tăng gấp ba lần về sử dụng năng lượng này là một vấn đề quan trọng cần được giải quyết nếu AI muốn phát huy tiềm năng của nó.
- Sự tăng trưởng không ngừng của mức tiêu thụ năng lượng AI là một mối quan tâm cấp bách đối với ngành công nghiệp.
- Hậu quả tiềm ẩn của việc không hành động là đáng kể, vì mức sử dụng năng lượng gia tăng có thể đe dọa tính bền vững của công nghệ và làm suy yếu lời hứa cải thiện cuộc sống của chúng ta.
- Theo Haas, các trung tâm dữ liệu trên thế giới dự kiến sẽ chiếm khoảng 8% tổng mức tiêu thụ điện năng của thế giới vào năm 2030.
- Để ngăn chặn cuộc khủng hoảng năng lượng này, Haas ủng hộ thay đổi cách tiếp cận phát triển AI, bao gồm chuyển sang thiết kế phần cứng hiệu quả năng lượng hơn, áp dụng các nguồn năng lượng tái tạo và tối ưu hóa các thuật toán AI để giảm dấu chân năng lượng.
📌 Cảnh báo của CEO Arm Holdings về mức tiêu thụ điện năng khổng lồ của AI vào năm 2030, vượt qua cả Ấn Độ (dân số 1.4 tỷ), cho thấy sự cấp bách trong việc thay đổi cách tiếp cận phát triển AI. Giải pháp nằm ở thiết kế phần cứng tiết kiệm năng lượng, sử dụng năng lượng tái tạo và tối ưu thuật toán để đảm bảo tương lai bền vững cho ngành công nghiệp trí tuệ nhân tạo.
Citations:
[1] https://www.bloomberg.com/news/articles/2024-04-17/ai-computing-is-on-pace-to-consume-more-energy-than-india-arm-says
- Tại hội nghị AI: Powering the New Energy Era ngày 18/4/2024 ở Washington D.C., các giám đốc điều hành lĩnh vực điện lực Mỹ bày tỏ lo ngại về sự mở rộng chưa đủ của hệ thống điện để đáp ứng nhu cầu năng lượng ngày càng tăng từ các công nghệ tiên tiến như AI tạo sinh và trung tâm dữ liệu.
- Việc lưới điện không theo kịp nhu cầu năng lượng tăng cao đã buộc các doanh nghiệp trung tâm dữ liệu phải bỏ qua các công ty điện lực và trực tiếp thỏa thuận với các nhà sản xuất điện hoặc thậm chí tự sản xuất điện.
- Aligned, một nhà phát triển trung tâm dữ liệu lớn với công suất 2.5 gigawatt, hiện đang ưu tiên tìm kiếm nguồn điện sau nhiều năm tập trung vào việc mua đất cho các dự án.
- Aligned đang cân nhắc các lựa chọn như lò phản ứng module nhỏ (SMR) và hợp tác với các công ty điện lực trong các dự án khi có thể. Nếu không thể hợp tác, họ sẽ phải tự sản xuất điện.
- Michael Keyser, người đứng đầu Tổ chức Hợp tác Năng lượng Tái tạo Quốc gia, cho rằng việc xây dựng nhanh chóng bất cứ thứ gì là một thách thức. Do đó, các trung tâm dữ liệu và công ty công nghệ tự mua điện là kết quả tất yếu.
- Các công ty điện lực có quy định thừa nhận quy trình quản lý chậm chạp để mở rộng hệ thống, đặc biệt là với nhu cầu ngày càng tăng về năng lượng tái tạo như điện mặt trời và gió. Tuy nhiên, họ cũng hy vọng sự gia tăng nhu cầu từ các công ty công nghệ sẽ góp phần vào sự tăng trưởng của họ.
📌 Sự gia tăng nhu cầu năng lượng từ AI và trung tâm dữ liệu đang gây áp lực lên lưới điện Mỹ. Các công ty đang phải tự tìm kiếm nguồn điện riêng do quy trình mở rộng hệ thống điện chậm chạp. Tuy nhiên, điều này cũng mở ra cơ hội tăng trưởng cho ngành điện lực trong tương lai.
Citations:
[1] https://www.reuters.com/business/energy/us-power-tech-companies-lament-snags-meeting-ai-energy-needs-2024-04-18/
- Caroline Hargrove, Giám đốc công nghệ của Ceres Power, cảnh báo rằng việc sử dụng ChatGPT cho các truy vấn đơn giản có thể dẫn đến mức tiêu thụ năng lượng đáng lo ngại.
- Theo báo cáo của IEA, đến năm 2026, ngành công nghiệp AI dự kiến sẽ tiêu thụ ít nhất gấp 10 lần nhu cầu điện năng so với năm 2023.
- Mary de Wysocki, Giám đốc bền vững của Cisco, cho rằng điều quan trọng là phải sử dụng AI một cách có trách nhiệm, tập trung vào những lĩnh vực mang lại lợi ích thực sự.
- Nếu không quản lý đúng cách, việc sử dụng AI có thể dẫn đến hiệu ứng ngược và làm tăng đáng kể mức tiêu thụ năng lượng.
- Bertrand Piccard, người sáng lập tổ chức phi lợi nhuận Solar Impulse Foundation, cho rằng AI là một cách tuyệt vời để giảm tiêu thụ năng lượng nếu được quản lý tốt.
- Ví dụ, lưới điện thông minh sử dụng AI có thể tích hợp năng lượng tái tạo gián đoạn với lưu trữ, phân phối và tiêu thụ, giúp giảm thiểu lãng phí năng lượng.
📌 Giám đốc công nghệ của Ceres Power cảnh báo về nguy cơ gia tăng đáng kể mức tiêu thụ năng lượng khi các công cụ AI như ChatGPT được sử dụng rộng rãi. Báo cáo IEA dự báo đến năm 2026, ngành công nghiệp AI sẽ tiêu thụ gấp 10 lần điện năng so với 2023. Tuy nhiên, nếu được quản lý tốt, AI cũng có thể giúp giảm tiêu thụ năng lượng hiệu quả.
Citations:
[1] Green hydrogen tech boss warns of AI energy consumption risk https://www.cnbc.com/2024/04/15/green-hydrogen-tech-boss-warns-of-ai-energy-consumption-risk.html
Here are the SEO contents and summary for the given URL:
Meta description: Theo Trafigura, nhu cầu đồng liên quan đến trí tuệ nhân tạo và trung tâm dữ liệu có thể tăng thêm 1 triệu tấn vào năm 2030, làm trầm trọng thêm tình trạng thiếu hụt nguồn cung vào cuối thập kỷ.
Meta keywords: nhu cầu đồng, trí tuệ nhân tạo, trung tâm dữ liệu, năng lượng tái tạo, xe điện, chuyển đổi năng lượng, Trafigura
SEO title: AI có thể làm tăng nhu cầu đồng thêm 1 triệu tấn vào năm 2030
Tóm tắt chi tiết:
- Theo Saad Rahim, chuyên gia kinh tế trưởng của Trafigura, nhu cầu đồng liên quan đến trí tuệ nhân tạo (AI) và trung tâm dữ liệu có thể tăng thêm 1 triệu tấn vào năm 2030.
- Con số này sẽ làm trầm trọng thêm tình trạng thiếu hụt nguồn cung đồng vào cuối thập kỷ, vốn đã dự báo thiếu hụt 4-5 triệu tấn vào năm 2030.
- Quá trình chuyển đổi năng lượng, bao gồm xe điện và công nghệ năng lượng tái tạo, dự kiến sẽ thúc đẩy mạnh mẽ tiêu thụ đồng trong những năm tới khi thế giới hướng tới loại bỏ phát thải carbon.
- Nhu cầu từ các trung tâm dữ liệu và liên quan đến AI đã tăng đột biến gần đây.
- Lượng nhu cầu tăng thêm 1 triệu tấn từ AI và trung tâm dữ liệu chưa được tính đến trong hầu hết các dự báo cân bằng cung cầu.
📌 Nhu cầu đồng từ AI và trung tâm dữ liệu có thể tăng thêm 1 triệu tấn vào năm 2030, đẩy mức thiếu hụt nguồn cung lên 5-6 triệu tấn. Quá trình chuyển đổi năng lượng cũng sẽ thúc đẩy mạnh tiêu thụ đồng, gây áp lực lên thị trường kim loại này trong tương lai.
Citations:
[1]https://energy.economictimes.indiatimes.com/news/renewable/ai-could-add-1-million-tons-to-copper-demand-by-2030-says-trafigura/109150066
- Chính quyền Tổng thống Mỹ Joe Biden đang tìm cách đẩy nhanh các cuộc đàm phán với các công ty công nghệ khi nhu cầu điện năng để cung cấp cho các trung tâm dữ liệu AI ngày càng tăng.
- Bộ trưởng Năng lượng Jennifer Granholm cho rằng nhu cầu điện năng gia tăng là một "vấn đề", nhưng AI có thể giúp giải quyết vấn đề này.
- Một giải pháp được đề xuất là sử dụng năng lượng hạt nhân. Bộ Năng lượng Mỹ đang cân nhắc ý tưởng đặt các nhà máy điện hạt nhân quy mô nhỏ gần các trung tâm dữ liệu AI khổng lồ của các công ty công nghệ.
- Năm 2023, khoảng 18,6% điện năng của Mỹ được sản xuất từ năng lượng hạt nhân. Nếu Bộ Năng lượng thuyết phục được các công ty công nghệ sử dụng năng lượng hạt nhân, điều này có thể giải quyết nhu cầu tính toán AI và thúc đẩy sử dụng năng lượng sạch ở Mỹ.
- Một số công ty công nghệ lớn như Microsoft đã bắt đầu đầu tư mạnh vào nhiệt hạch, ký hợp đồng mua điện từ máy phát điện nhiệt hạch của Helion Energy.
- Microsoft và OpenAI được cho là đang thảo luận về một siêu máy tính mới có thể tiêu thụ "ít nhất vài gigawatt" điện năng.
- Một lựa chọn khác là sử dụng lò phản ứng modun nhỏ phân hạch hạt nhân, nhưng chi phí cao là một rào cản. Bộ Năng lượng đang cố gắng giảm chi phí để các công ty sẵn sàng cân nhắc sử dụng.
- Các công ty như Microsoft, Google, OpenAI, Amazon và Meta tiếp tục xây dựng các trung tâm dữ liệu và tập trung nghiên cứu AI. Chip Nvidia, AMD và các chip tùy chỉnh khác đòi hỏi rất nhiều điện năng, có thể lên tới hàng megawatt hoặc gigawatt cho một trung tâm dữ liệu.
📌 Chính phủ Mỹ đang tìm cách đáp ứng nhu cầu điện năng ngày càng tăng của các trung tâm dữ liệu AI, xem xét giải pháp sử dụng năng lượng hạt nhân như nhiệt hạch và phân hạch. Năm 2023, 18,6% điện năng Mỹ được sản xuất từ hạt nhân. Các công ty công nghệ lớn như Microsoft đã bắt đầu đầu tư vào nhiệt hạch. Tuy nhiên, chi phí cao là một rào cản cần vượt qua.
https://www.tomshardware.com/tech-industry/artificial-intelligence/us-govt-wants-to-talk-to-tech-companies-about-ai-electricity-demands-eyes-nuclear-fusion-and-fission
- Các công ty năng lượng đang tận dụng AI để cải thiện hiệu quả và tính bền vững trong hoạt động, từ giảm phát thải carbon, giảm thiểu tấn công mạng đến dự đoán hỏng hóc cơ khí.
- Shell đã phát triển công cụ AI để giám sát phát thải khí mê-tan. AI có thể tối ưu hóa hiệu quả của hệ thống năng lượng, tạo ra các hệ thống năng lượng mới có lượng khí thải carbon thấp.
- AI giúp cải thiện tính hiệu quả chi phí và độ chính xác của cơ sở hạ tầng năng lượng. Các kỹ sư có thể sử dụng AI để tạo danh sách tuyến đường khả thi trong vài giây thay vì vài ngày.
- AI cho phép các kỹ sư vận hành có cái nhìn tổng quan chiến lược hơn về nguồn cung, phân tích các mẫu sản xuất và sử dụng năng lượng để lập kế hoạch cung cấp hiệu quả hơn.
- Các nhà quản lý tài sản năng lượng có thể sử dụng công cụ AI để dự đoán lỗi hệ thống, kiểm tra và sửa chữa tương ứng, giải quyết cả năng suất và an toàn.
- SSE sử dụng công nghệ AI để dự báo mức sử dụng năng lượng ở cấp độ nhà điều hành hệ thống phân phối và phân tích nhu cầu năng lượng trong tương lai ở cấp độ địa phương.
- AI có thể hợp lý hóa nghiên cứu giao dịch năng lượng bằng cách khảo sát lượng lớn thông tin và phát hiện các mẫu và bất thường. Công nghệ này cũng giúp các công ty năng lượng giám sát và phát hiện các mối đe dọa an ninh mạng.
- Khi các công ty năng lượng tiếp tục tích hợp AI vào hoạt động hàng ngày, họ sẽ cần nhân viên có kỹ năng khoa học dữ liệu và phát triển AI để tạo ra thế hệ mô hình dự đoán tiếp theo.
- Các công ty cũng cần bổ nhiệm các cán bộ đạo đức AI để đảm bảo các thuật toán AI không bị sử dụng sai mục đích. Các chuyên gia an ninh mạng sẽ đóng vai trò lớn hơn trong việc giữ an toàn cho cơ sở hạ tầng năng lượng tương lai.
- AI có thể thay thế các công việc năng lượng có tay nghề thấp. Các công ty có thể sử dụng drone và hệ thống thị giác máy tính để kiểm tra đường dây truyền tải và đường ống thay vì con người.
- Khu xử lý chất thải hạt nhân Sellafield ở Cumbria đang sử dụng robot hỗ trợ AI để giữ an toàn cho người vận hành, tránh xa môi trường làm việc nguy hiểm.
- Lĩnh vực dầu mỏ có thể chịu nhiều tổn thất việc làm liên quan đến AI nhất, nơi công việc cơ khí đang được thay thế bằng tự động hóa robot và AI.
📌 AI đang thúc đẩy mạnh mẽ quá trình chuyển đổi năng lượng, giúp giảm phát thải carbon, tối ưu hóa hiệu quả và an toàn. Tuy nhiên, công nghệ này cũng tạo ra thách thức việc làm, đặc biệt trong lĩnh vực dầu mỏ. Các công ty cần tuyển dụng chuyên gia về khoa học dữ liệu, phát triển AI và đạo đức AI để tận dụng tối đa tiềm năng của công nghệ này.
https://www.ft.com/content/07671f2e-d7b4-4f94-836c-eb0be9f6b605
#FT
- Iowa thu hút nhiều trung tâm dữ liệu của các gã khổng lồ công nghệ nhờ đất đai rẻ, giá điện thấp và 60% điện năng từ nguồn tái tạo. Tuy nhiên, Iowa lại thường thiếu nước, một tài nguyên quan trọng khác mà trung tâm dữ liệu cần.
- Các trung tâm dữ liệu cần một lượng nước lớn để làm mát máy chủ. Một trung tâm ở Altoona sử dụng tới 1/5 lượng nước của thành phố. Iowa đang trải qua đợt hạn hán kéo dài, 85% diện tích bang rơi vào tình trạng hạn hán vào giữa tháng 3/2024.
- Sự bùng nổ của AI làm tăng nhu cầu nước. Nghiên cứu cho thấy việc đào tạo mô hình GPT-3 của OpenAI có thể làm bay hơi trực tiếp 185.000 gallon nước. Ước tính nhu cầu AI toàn cầu có thể dẫn đến lượng nước sử dụng tương đương 4-6 quốc gia Đan Mạch vào năm 2027.
- Microsoft đã xây dựng 5 trung tâm dữ liệu ở Iowa, bao gồm siêu máy tính Azure để đào tạo các mô hình AI của OpenAI. Công ty đặt mục tiêu trả lại môi trường nhiều nước hơn lượng sử dụng vào năm 2030.
- Một số trung tâm dữ liệu đã có giải pháp bền vững như đặt sâu dưới lòng đất để làm mát tự nhiên, sử dụng hồ nước ngầm để làm mát, tận dụng nhiệt thải sưởi ấm nhà cửa ở châu Âu.
📌 Sự phát triển nhanh chóng của AI đang đẩy nhu cầu nước của các trung tâm dữ liệu lên cao. Ước tính đến năm 2027, lượng nước sử dụng cho AI toàn cầu tương đương 4-6 quốc gia Đan Mạch. Các công ty công nghệ đang nỗ lực tìm giải pháp bền vững như tận dụng điều kiện tự nhiên, sử dụng nguồn nước thay thế và tái sử dụng nhiệt thải.
Citations:
[1] https://www.newsweek.com/why-ai-so-thirsty-data-centers-use-massive-amounts-water-1882374
- Công ty Atmo AI đang phát triển công nghệ AI để cải thiện dự báo thời tiết ở Philippines, quốc gia hứng chịu nhiều bão nhất thế giới. Công nghệ này hứa hẹn dự báo nhanh hơn, chính xác hơn đến từng khu vực nhỏ, giúp người dân chuẩn bị tốt hơn trước thiên tai.
- Tại Malaysia, các nhà nghiên cứu đang sử dụng nền tảng Arbimon hỗ trợ AI để phân tích hàng nghìn giờ ghi âm động vật hoang dã, đánh giá mức độ đa dạng sinh học của rừng nhiệt đới. Phương pháp này giúp tiết kiệm thời gian và công sức đáng kể so với phân tích thủ công.
- Ở Philippines, dự án Plasticount Pilipinas đang ứng dụng AI và máy bay không người lái để thu thập dữ liệu toàn diện về rác thải nhựa dọc bờ biển. Nhóm nghiên cứu đã xây dựng thư viện 50.000 hình ảnh để huấn luyện AI nhận diện 16 loại nhựa, giúp định lượng vấn đề ô nhiễm một cách khoa học.
- Việc chia sẻ dữ liệu mở từ các dự án trên sẽ giúp các quốc gia Đông Nam Á đưa ra chính sách phù hợp, hợp tác giải quyết các vấn đề môi trường chung của khu vực.
📌 Trí tuệ nhân tạo đang mang đến những giải pháp đột phá cho các thách thức môi trường lâu đời ở Đông Nam Á. Từ dự báo thời tiết chính xác hơn ở Philippines, giám sát đa dạng sinh học rừng nhiệt đới Malaysia đến định lượng rác thải nhựa bằng máy bay không người lái ở Philippines, AI hứa hẹn nâng cao hiệu quả của các nỗ lực bảo tồn, giúp khu vực thích ứng tốt hơn với biến đổi khí hậu.
Citations:
[1] https://www.channelnewsasia.com/asia/ai-technology-sustainability-weather-plastic-forests-asia-4214281
- Nhu cầu điện năng toàn cầu từ các trung tâm dữ liệu có thể tăng gấp đôi từ năm 2022 đến 2026, theo Cơ quan Năng lượng Quốc tế.
- Ngành công nghiệp hạt nhân đang tìm cách đáp ứng nhu cầu này bằng công nghệ lò phản ứng tiên tiến thế hệ mới, bao gồm lò phản ứng modun nhỏ (SMR) và lò phản ứng siêu nhỏ.
- Các lò phản ứng này có thể cung cấp điện ổn định 24/7, không phát thải CO2, và được thiết kế để sản xuất nhanh, rẻ và với quy mô lớn.
- Tuy nhiên, việc thương mại hóa SMR sớm nhất cũng phải đến cuối thập kỷ này. NuScale, nhà phát triển SMR đầu tiên của Mỹ, gặp trở ngại do chi phí tăng vọt.
- Hiện tại, ngành công nghiệp đang tập trung vào các giải pháp năng lượng nguyên tử gần hơn, như ký hợp đồng sử dụng các nhà máy hạt nhân hiện có để cung cấp điện cho trung tâm dữ liệu.
- Các chuyên gia tin rằng trung tâm dữ liệu có thể là bài thử nghiệm cho SMR, vì các công ty công nghệ lớn là một trong số ít có đủ vốn để đầu tư vào các mô hình đầu tiên.
📌Nhu cầu điện năng toàn cầu từ các trung tâm dữ liệu có thể tăng gấp đôi từ năm 2022 đến 2026. Lò phản ứng modun nhỏ là giải pháp tiềm năng, nhưng còn nhiều thách thức về thời gian và chi phí thương mại hóa. Ngành công nghiệp đang tìm cách kết hợp năng lượng hạt nhân hiện có với trung tâm dữ liệu.
https://www.ft.com/content/b927b4af-1e65-438d-a127-f3b76a1f7668
- Google công bố đã sử dụng AI để dự đoán thành công lũ lụt trên sông, trước 7 ngày trong một số trường hợp. Kết quả được công bố trên tạp chí khoa học uy tín Nature.
- Lũ lụt là thảm họa thiên nhiên phổ biến nhất trên thế giới. Việc dự đoán lũ lụt rất khó khăn do hầu hết sông không có thiết bị đo lưu lượng.
- Google đã huấn luyện các mô hình học máy với nhiều loại dữ liệu liên quan như các sự kiện trong quá khứ, số đo mực nước sông, độ cao và địa hình. Sau đó, công ty tạo ra các bản đồ cục bộ và chạy "hàng trăm nghìn" mô phỏng cho từng vị trí.
- Phương pháp này cho phép các mô hình dự đoán chính xác lũ lụt sắp xảy ra, xây dựng "các mô hình cực kỳ chính xác cho các vị trí cụ thể". Google hy vọng sẽ mở rộng quy mô toàn cầu.
- Trung bình, Google dự đoán trước lũ lụt khoảng 5 ngày, mở rộng "độ tin cậy của các dự báo toàn cầu hiện có từ 0 lên 5 ngày". Dự báo cũng được cải thiện đáng kể ở các khu vực chưa được quan tâm như một số nơi ở châu Phi và châu Á.
- Công nghệ này cho phép Google cung cấp dự báo lũ lụt chính xác ở 80 quốc gia với tổng dân số 460 triệu người, thông qua Google Search, Google Maps, thông báo Android và ứng dụng web Flood Hub từ năm 2022.
- Google sẽ tiếp tục khám phá "tiềm năng của học máy để tạo ra các mô hình dự báo lũ lụt tốt hơn" và hợp tác với các nhà nghiên cứu học thuật để tinh chỉnh cách tiếp cận dựa trên AI, hướng tới một "nền tảng dự báo lũ lụt toàn cầu đầu cuối".
📌 Google đã sử dụng AI và học máy để dự báo chính xác lũ lụt trên sông trước 5-7 ngày, cung cấp cảnh báo sớm cho 460 triệu người ở 80 quốc gia. Công ty đang hợp tác với giới học thuật để cải tiến mô hình, hướng tới một nền tảng dự báo lũ lụt toàn cầu trong tương lai.
https://www.engadget.com/google-used-ai-to-accurately-predict-floods-up-to-7-days-in-advance-191353201.html
- Nghiên cứu từ Đại học California cho thấy các chương trình AI tạo sinh sử dụng khoảng 0,5 lít nước cho mỗi 20-50 lần nhập dữ liệu.
- Các trung tâm xử lý dữ liệu tiêu thụ nước theo hai cách: sử dụng điện từ các nhà máy điện hơi nước và dùng máy làm mát tại chỗ để giữ mát máy chủ.
- Nước bơm vào trung tâm dữ liệu thường bốc hơi sau khi làm mát hoặc trở thành nước thải đậm đặc cần xử lý, tăng thêm chi phí.
- Năm 2021, Google ước tính đã sử dụng 12,7 tỷ lít nước ngọt chỉ để làm mát máy chủ ở Mỹ.
- Điều này đáng lo ngại khi nguồn nước ngày càng khan hiếm, đặc biệt ở những nơi dễ bị hạn hán và sa mạc hóa.
- Ảnh vệ tinh từ NASA cho thấy tình trạng dễ bị hạn hán ở Tây Nam nước Mỹ, với các hồ chứa co lại trông thấy.
- Các nhà nghiên cứu kêu gọi các công ty công nghệ lớn cần có trách nhiệm và đi đầu trong việc giảm sử dụng nước.
- Tại Diễn đàn Kinh tế Thế giới ở Davos, CEO của OpenAI cảnh báo các hệ thống AI tạo sinh tiếp theo sẽ tiêu thụ nhiều điện năng hơn dự kiến.
- Ở West Demoines, Iowa, trung tâm dữ liệu phục vụ ChatGPT-4 của OpenAI đã sử dụng 6% lượng nước của khu vực trong tháng 7/2022, giữa đợt hạn hán kéo dài 3 năm.
- Microsoft và Google cũng có sự gia tăng mạnh về sử dụng nước (tăng 20% và 34% chỉ trong một năm).
- Các nhà nghiên cứu ước tính đến năm 2027, nhu cầu nước toàn cầu cho AI có thể bằng một nửa tổng lượng tiêu thụ nước hàng năm của Vương quốc Anh.
- Một giải pháp được đề xuất là cho phép các bộ tạo AI xử lý phần lớn công việc vào những giờ mát mẻ hơn như ban đêm.
📌 Nhu cầu sử dụng nước của AI tạo sinh đang gia tăng nhanh chóng, gây áp lực lên nguồn tài nguyên khan hiếm. Các công ty công nghệ lớn cần có trách nhiệm giảm thiểu tác động, nếu không chúng ta có thể phải đối mặt với tình trạng thiếu nước trầm trọng trong tương lai gần. Giải pháp tiềm năng là tối ưu hóa thời gian xử lý của AI vào ban đêm.
https://www.diyphotography.net/gen-ai-uses-huge-amounts-of-water-resources/
- Huấn luyện mô hình AI GPT-3 tạo ra 502 tấn carbon, tương đương với lượng khí thải của 112 xe chạy xăng trong một năm. GPT-3 thải ra 8,4 tấn CO2 mỗi năm do quá trình suy luận.
- Từ đầu những năm 2010, nhu cầu năng lượng của các mô hình ngôn ngữ lớn AI đã tăng lên 300.000 lần.
- Mạng nơ-ron xung điện (SNN) là một giải pháp thay thế tiết kiệm năng lượng cho mạng nơ-ron nhân tạo (ANN). SNN chỉ tiêu thụ năng lượng khi xảy ra xung điện, có thể tiết kiệm năng lượng gấp 280 lần so với ANN.
- Học suốt đời (L2) là tập hợp các thuật toán cho phép mô hình AI được huấn luyện tuần tự trên nhiều tác vụ mà không bị quên kiến thức trước đó, giúp giảm nhu cầu năng lượng tổng thể.
- Tiến bộ trong điện toán lượng tử cũng sẽ cho phép huấn luyện và suy luận nhanh hơn bằng ANN và SNN, tìm ra các giải pháp tiết kiệm năng lượng cho AI ở quy mô lớn hơn nhiều.
📌 Mặc dù AI có tiềm năng lớn trong việc giải quyết vấn đề, nhưng nó cũng góp phần vào cuộc khủng hoảng khí hậu với dấu chân carbon ngày càng tăng. Tuy nhiên, các công nghệ như mạng nơ-ron xung điện, học suốt đời và điện toán lượng tử hứa hẹn sẽ giảm đáng kể mức tiêu thụ năng lượng của AI, với SNN tiết kiệm hơn ANN tới 280 lần.
Citations:
[1] https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/131695/55d5243d-d9e9-4372-9191-663d2c747b42/paste.txt
https://www.thehindu.com/sci-tech/science/ai-has-a-big-and-growing-carbon-footprint-but-algorithms-can-help/article67916635.ece
- Sự phát triển nhanh chóng của AI đang gây áp lực lên lưới điện Hoa Kỳ do nhu cầu năng lượng khổng lồ từ các trung tâm dữ liệu.
- Ước tính đến năm 2030, lượng điện tiêu thụ cho AI sẽ tăng gấp 30 lần, chiếm 15% tổng nhu cầu điện toàn cầu.
- Các "siêu trung tâm dữ liệu" phục vụ cho việc huấn luyện các mô hình AI tiêu tốn lượng điện tương đương 50.000 hộ gia đình.
- Để giảm tác động môi trường, các công ty công nghệ đang chuyển sang sử dụng năng lượng tái tạo và tối ưu hóa hiệu quả năng lượng.
- Google đã cam kết sử dụng 100% năng lượng tái tạo cho các trung tâm dữ liệu vào năm 2030.
- Microsoft hợp tác với Vattenfall để xây dựng trang trại gió 24/7 cung cấp năng lượng cho các trung tâm dữ liệu ở Thụy Điển.
- Các nhà nghiên cứu cũng đang phát triển các thuật toán AI tiết kiệm năng lượng hơn và tận dụng năng lượng tái tạo hiệu quả.
📌 Sự bùng nổ của AI đang đặt áp lực lên lưới điện Hoa Kỳ, với nhu cầu điện năng dự kiến tăng gấp 30 lần vào năm 2030. Để giảm thiểu tác động môi trường, các công ty công nghệ đang chuyển sang sử dụng 100% năng lượng tái tạo và tối ưu hóa hiệu quả năng lượng cho các trung tâm dữ liệu khổng lồ của mình.
https://www.fastcompany.com/91050626/surge-in-ai-straining-the-u-s-power-grid-artificial-intelligence
#hay
- Sự bùng nổ của công nghệ sạch và AI đang gây áp lực lên nguồn cung năng lượng của Hoa Kỳ.
- Các trung tâm dữ liệu đòi hỏi lượng điện khổng lồ, tương đương với 50.000 hộ gia đình trung bình.
- Các tiểu bang như Texas, Virginia và Ohio đang phải đối mặt với thách thức đáp ứng nhu cầu năng lượng ngày càng tăng.
- Một số tiểu bang đang tìm cách thu hút các trung tâm dữ liệu bằng cách cung cấp năng lượng tái tạo.
- Tuy nhiên, việc xây dựng cơ sở hạ tầng năng lượng tái tạo đòi hỏi thời gian và chi phí đầu tư lớn.
- Các chuyên gia cho rằng cần có sự phối hợp giữa chính phủ, ngành công nghiệp và cộng đồng để giải quyết vấn đề này.
- Việc phát triển bền vững và sử dụng hiệu quả năng lượng là yếu tố quan trọng trong bối cảnh nhu cầu năng lượng ngày càng tăng.
📌 Sự bùng nổ của công nghệ sạch và AI đang đặt ra thách thức lớn cho nguồn cung năng lượng của Hoa Kỳ. Các trung tâm dữ liệu đòi hỏi lượng điện khổng lồ, buộc các tiểu bang phải tìm giải pháp đáp ứng nhu cầu năng lượng ngày càng tăng. Việc phát triển cơ sở hạ tầng năng lượng tái tạo và sử dụng hiệu quả năng lượng là yếu tố then chốt để đảm bảo sự phát triển bền vững trong tương lai.
https://www.foxbusiness.com/economy/clean-tech-ai-boom-straining-u-s-energy-supply
- Các công ty công nghệ và tỷ phú Thung lũng Silicon đang đầu tư mạnh vào năng lượng hạt nhân như một phần của quá trình chuyển đổi xanh, với AI tạo sinh là một động lực mới.
- AI tạo sinh phát triển nhanh chóng, tăng nhu cầu về năng lượng, trong khi dự án năng lượng hạt nhân chịu sự quản lý chặt chẽ và tiến triển chậm.
- Sarah Myers West từ AI Now Institute chỉ ra rằng tích hợp mô hình ngôn ngữ lớn vào công cụ tìm kiếm sẽ tăng chi phí môi trường lên 5 lần so với tìm kiếm thông thường.
- Sam Altman, CEO của OpenAI, đầu tư vào các startup năng lượng hạt nhân như Oklo và Helion Energy, coi AI và năng lượng xanh, rẻ là yếu tố cần thiết cho tương lai phồn thịnh.
- Oklo đang phát triển một nhà máy hạt nhân quy mô nhỏ ở Idaho để cung cấp năng lượng cho trung tâm dữ liệu và cộng đồng đa dụng.
- Cơ quan Quản lý Hạt nhân Liên bang từ chối đơn đăng ký thiết kế của Oklo do thiếu thông tin an toàn, nhưng công ty đang làm việc để đáp ứng các yêu cầu.
- Mặc dù năng lượng hạt nhân không mở rộng đáng kể trong hỗn hợp năng lượng của Mỹ, sự ủng hộ của công chúng đối với việc mở rộng năng lượng hạt nhân đang tăng lên, với 57% người Mỹ ủng hộ so với 43% vào năm 2020.
- Các công ty công nghệ như Microsoft, Google và Amazon đang tăng cường đầu tư vào năng lượng hạt nhân để đáp ứng nhu cầu năng lượng ngày càng tăng từ AI và trung tâm dữ liệu.
📌 Các công ty công nghệ và tỷ phú Thung lũng Silicon đang chuyển hướng đầu tư mạnh mẽ vào năng lượng hạt nhân, nhìn thấy nó như một giải pháp cho nhu cầu năng lượng ngày càng tăng từ AI tạo sinh. Dù gặp phải thách thức về quy định và an toàn, sự ủng hộ từ công chúng và nhu cầu từ các công ty công nghệ lớn cho thấy một tương lai hứa hẹn cho năng lượng hạt nhân, với các dự án như Oklo và Helion Energy đang dẫn đầu cuộc đua.
https://www.nbcnews.com/tech/tech-news/nuclear-power-oklo-sam-altman-ai-energy-rcna139094
- AI đang trở thành công cụ hữu ích cho các cộng đồng trong nỗ lực bảo tồn, đối mặt với thách thức sinh thái phức tạp và cần bảo vệ thiên nhiên cùng di sản văn hóa sinh học.
- Sự kết hợp giữa AI và bảo tồn có thể cải thiện khả năng giám sát và bảo vệ hệ sinh thái, giảm xung đột giữa con người và động vật hoang dã, tối ưu hóa quản lý tài nguyên và thúc đẩy sự cùng tồn giữa con người và động vật.
- AI không chỉ là tiến bộ công nghệ mà còn là chất xúc tác giúp tăng cường năng lực bảo vệ đa dạng sinh học và sinh kế của người dân phụ thuộc vào nó.
- Từ những năm 1990, AI đã được áp dụng trong phân tích dữ liệu từ xa và nhận dạng loài. Đầu những năm 2000, AI được sử dụng để giám sát động vật hoang dã và phân tích dữ liệu âm thanh.
- Giữa những năm 2010, AI ngày càng được sử dụng để phân tích hình ảnh từ camera giám sát và hỗ trợ giám sát loài nguy cấp, chống săn trộm.
- Đến cuối những năm 2010 và đầu những năm 2020, công cụ và nền tảng AI dành riêng cho bảo tồn bắt đầu xuất hiện, hỗ trợ tự động hóa thu thập dữ liệu và phân tích dữ liệu môi trường.
- Năm 2024, AI đóng vai trò quan trọng trong việc giám sát môi trường, bảo vệ động vật hoang dã, phân tích dữ liệu và nhận dạng mô hình. AI cũng được sử dụng trong việc đưa ra quyết định bảo tồn và xây dựng chính sách.
- AI giúp mô hình hóa dự đoán và phân bố loài, giám sát động vật hoang dã và chống săn trộm, cải thiện phát hiện loài qua eDNA, hỗ trợ phục hồi hệ sinh thái và can thiệp bảo tồn, mô hình hóa biến đổi khí hậu và lập kế hoạch khả năng phục hồi, và tối ưu hóa quản lý tài nguyên thông minh.
- Trong tương lai, AI sẽ hỗ trợ tối ưu hóa kế hoạch bảo tồn, phân tích dữ liệu tự nhiên và giao tiếp, tăng cường sự tham gia và giáo dục của công chúng. Cần xem xét đến các vấn đề đạo đức như quyền riêng tư dữ liệu, thiên vị và sự hợp tác giữa con người và AI.
📌 AI đang thay đổi cách chúng ta bảo tồn thiên nhiên, từ việc giám sát động vật hoang dã đến việc lập kế hoạch chống lại biến đổi khí hậu. Với sự tiến bộ nhanh chóng, AI hứa hẹn sẽ trở thành công cụ không thể thiếu trong việc bảo vệ đa dạng sinh học và hỗ trợ cộng đồng địa phương, đồng thời cần phải xem xét cẩn thận đến các vấn đề đạo đức và môi trường liên quan.
- Các công ty công nghệ lớn đang chạy đua để tránh một quả bom carbon do việc xây dựng các trung tâm dữ liệu khổng lồ trên toàn thế giới.
- Google đã tiên phong một kỹ thuật sử dụng phần mềm để tìm kiếm điện sạch ở những nơi có nguồn năng lượng mặt trời và gió dư thừa trên lưới, sau đó tăng cường hoạt động của trung tâm dữ liệu tại đó.
- Việc này có thể giảm carbon và chi phí. Chris Noble, đồng sáng lập và CEO của Cirrus Nexus, nhấn mạnh nhu cầu cấp bách trong việc tìm cách vận hành trung tâm dữ liệu theo cách tối đa hóa việc sử dụng năng lượng tái tạo.
- Rủi ro về khí hậu do tính toán dựa trên AI gây ra rất lớn và sẽ trở nên tồi tệ hơn nếu không chuyển từ điện dựa trên nhiên liệu hóa thạch sang năng lượng sạch.
- Jensen Huang, CEO của Nvidia, cho biết AI đã đến một "điểm nghẽn" và chi phí cho trung tâm dữ liệu sẽ tăng gấp đôi.
- Sự tiêu thụ năng lượng của AI không ổn định, giống như đồ thị răng cưa hơn là đường thẳng mà hầu hết các nhà điều hành trung tâm dữ liệu quen thuộc, làm cho việc giảm carbon trở nên thách thức.
- Sự tăng trưởng của AI được thúc đẩy bởi các công ty Bắc Mỹ, giữ nguồn lực tính toán - và sử dụng năng lượng - tập trung tại đó, theo Dave Sterlace, giám đốc tài khoản cho trung tâm dữ liệu toàn cầu tại Hitachi Energy.
- Để giảm phát thải CO2 từ trung tâm dữ liệu, các nhà cung cấp đã tài trợ cho một lượng lớn các trang trại năng lượng mặt trời hoặc gió và sử dụng tín dụng để bù đắp lượng phát thải.
📌 Việc tìm kiếm và sử dụng điện sạch cho các trung tâm dữ liệu đang trở thành một xu hướng quan trọng trong ngành công nghệ, nhất là khi AI ngày càng tiêu thụ nhiều năng lượng hơn. Google đã tiên phong một kỹ thuật sử dụng phần mềm để tìm kiếm điện sạch ở những nơi có nguồn năng lượng mặt trời và gió dư thừa trên lưới, sau đó tăng cường hoạt động của trung tâm dữ liệu tại đó. Các công ty lớn như Nvidia và Hitachi Energy cũng nhận thấy tầm quan trọng của việc chuyển đổi sang năng lượng sạch để đối phó với các rủi ro về khí hậu và đảm bảo sự ổn định của lưới điện.
Citations:
[1] https://fortune.com/2024/02/25/ai-data-centers-energy-software-hunts-for-clean-electricity/
- Báo cáo triển vọng toàn cầu về trung tâm dữ liệu của JLL cho năm 2024 chỉ ra rằng nhu cầu về năng lượng và lưu trữ của các trung tâm dữ liệu đang tăng lên một cách nhanh chóng, tạo ra thách thức cho ngành.
- Sự tập trung ngày càng tăng vào AI tạo sinh đòi hỏi một lượng lớn năng lượng, làm trầm trọng thêm tình trạng khan hiếm nguồn cung cấp colocation của trung tâm dữ liệu do hạn chế về năng lượng khu vực.
- AI tạo sinh dự kiến sẽ là một yếu tố chính trong việc tăng tiêu thụ điện năng toàn cầu trong những năm tới, với ước tính của Ủy ban Châu Âu cho thấy mức tiêu thụ điện sẽ tăng 60% vào năm 2030.
- Công ty điện lực Ireland EirGrid ước tính rằng nhu cầu điện từ các trung tâm dữ liệu có thể tăng gấp đôi lên 30% tổng tiêu thụ vào năm 2028.
- Thị trường AI tạo sinh dự kiến sẽ tăng trưởng lên đến 1.3 nghìn tỷ USD trong 10 năm tới theo Bloomberg Intelligence, đề xuất rằng đây là thời điểm cho các công ty nhận ra rằng các trung tâm dữ liệu chuyên biệt cho AI "trông khác biệt so với các cơ sở thông thường".
📌 AI tạo sinh dự kiến sẽ là một yếu tố chính trong việc tăng tiêu thụ điện năng toàn cầu trong những năm tới, với ước tính của Ủy ban Châu Âu cho thấy mức tiêu thụ điện sẽ tăng 60% vào năm 2030. Công ty điện lực Ireland EirGrid ước tính rằng nhu cầu điện từ các trung tâm dữ liệu có thể tăng gấp đôi lên 30% tổng tiêu thụ vào năm 2028.
Citations:
[1] https://www.itpro.com/infrastructure/data-centres/global-power-shortages-mean-data-centers-could-struggle-to-shoulder-the-burden-of-energy-intensive-generative-ai-demands-in-2024
- Theo dự đoán của de Vries, ngành công nghiệp AI có thể tiêu thụ từ 85 đến 134 terawatt giờ điện mỗi năm vào năm 2027.
- Mức tiêu thụ điện năng này tương đương với nhu cầu năng lượng hàng năm của Hà Lan, quê hương của de Vries.
- Tiêu thụ điện của AI có thể chiếm tới nửa phần trăm tổng lượng tiêu thụ điện toàn cầu vào năm 2027.
- de Vries nhấn mạnh rằng đây là một con số đáng kể khi nói chuyện với The Verge.
📌 Từ những dữ liệu được tổng hợp, có thể thấy rằng ngành công nghiệp AI đang trên đà tăng trưởng mạnh mẽ về mức tiêu thụ điện năng. Với dự đoán tiêu thụ điện hàng năm từ 85 đến 134 terawatt giờ vào năm 2027, AI không chỉ gây ảnh hưởng đến nguồn cung cấp năng lượng mà còn đặt ra những thách thức về môi trường và bền vững. Con số này, chiếm khoảng nửa phần trăm tổng lượng tiêu thụ điện toàn cầu, cho thấy sự cần thiết phải có những cải tiến trong công nghệ để giảm bớt tác động tiêu cực và tối ưu hóa hiệu quả năng lượng trong tương lai.
Citations:
[1] https://www.theverge.com/24066646/ai-electricity-energy-watts-generative-consumption
- Hai tháng sau khi phát hành vào tháng 11/2022, ChatGPT của OpenAI đã có 100 triệu người dùng hoạt động, khiến các công ty công nghệ đua nhau cung cấp AI tạo sinh cho công chúng.
- Công nghệ AI có dấu chân môi trường lớn và đang tăng trưởng, trực tiếp gây ra phát thải carbon từ điện không tái tạo và tiêu thụ hàng triệu gallon nước ngọt.
- AI cũng tăng cường ảnh hưởng gián tiếp từ việc xây dựng và bảo trì thiết bị tiêu thụ năng lượng mà AI hoạt động.
- Các công ty công nghệ tìm cách tích hợp AI cường độ cao vào mọi thứ từ viết sơ yếu lý lịch đến y học ghép thận và từ chọn thức ăn cho chó đến mô hình hóa khí hậu, nhưng hiện tại không thể biết yêu cầu AI của bạn ảnh hưởng như thế nào đến phát thải carbon hoặc nguồn nước.
- Các đề xuất về AI bền vững năm 2024 mô tả cách để có thêm thông tin về ảnh hưởng của AI.
- Các nhà khoa học dữ liệu hiện nay không có quyền truy cập dễ dàng hoặc đáng tin cậy vào các phép đo ảnh hưởng khí nhà kính từ AI, cản trở phát triển các chiến lược hành động.
- AI có thể được sử dụng để giảm ảnh hưởng của loài người, chẳng hạn như cải thiện mô hình khí hậu, tìm cách hiệu quả hơn để sản xuất công nghệ số, giảm lãng phí trong vận tải và cắt giảm carbon và sử dụng nước.
- Ước tính cho thấy, các ngôi nhà thông minh chạy bằng AI có thể giảm tiêu thụ CO₂ của hộ gia đình lên đến 40%.
📌 Công nghệ AI đang phát triển nhanh chóng với ảnh hưởng đáng kể đến môi trường thông qua việc tiêu thụ năng lượng và nước. Tuy nhiên, cũng có tiềm năng sử dụng AI để giảm thiểu ảnh hưởng này, nhưng hiện tại, việc đánh giá cụ thể ảnh hưởng của từng yêu cầu AI đối với môi trường là không khả thi. Ước tính cho thấy, các ngôi nhà thông minh chạy bằng AI có thể giảm tiêu thụ CO₂ của hộ gia đình lên đến 40%.
Citations:
[1] https://e360.yale.edu/features/artificial-intelligence-climate-energy-emissions
📌 Mô hình ngôn ngữ lớn như ChatGPT gây ra tác động môi trường đáng kể do tiêu thụ năng lượng cao và phát thải carbon. Dự kiến nhu cầu AI toàn cầu có thể dẫn đến việc rút nước tăng lên 4,2 đến 6,6 tỷ mét khối vào năm 2027, vượt quá tổng lượng nước rút hàng năm của một nửa Vương quốc Anh. Để giảm tác động này, cần có sự minh bạch, sử dụng AI có trách nhiệm, chuyển đổi sang năng lượng tái tạo và cải thiện hiệu suất phần cứng, phần mềm.
📌 Nghiên cứu của Đại học Surrey đã phát triển một hệ thống AI có thể tối ưu hóa quá trình thu giữ carbon, giúp tăng hiệu quả thu giữ CO2 lên 16,7% và giảm 36,3% mức tiêu thụ năng lượng. Nghiên cứu này mở ra triển vọng mới cho việc áp dụng AI vào công nghệ thu giữ carbon, góp phần giảm phát thải khí nhà kính và chống biến đổi khí hậu.
📌 Trong bối cảnh môi trường đang đối mặt với nhiều thách thức, việc tích hợp các phương pháp bền vững vào quá trình phát triển và triển khai AI trở nên cần thiết. Một nghiên cứu chỉ ra rằng có thể giảm lượng tiêu thụ năng lượng lên đến 100 lần và khí thải CO2 đến 1.000 lần khi áp dụng các phương pháp tốt nhất. Cụ thể, việc áp dụng "Nghĩ lại, tái sử dụng và giảm bớt" không chỉ giúp làm giảm tác động môi trường mà còn đóng góp vào việc tối ưu hóa chi phí và thúc đẩy sự đổi mới. Các công ty và nhà phát triển cần nhận thức rõ về lượng năng lượng tiêu thụ và khí thải carbon của dự án AI, với mục tiêu giảm thiểu là ưu tiên hàng đầu, thể hiện trách nhiệm với xã hội và hành tinh.
📌 Co2Bit Technologies đang cải thiện thị trường tín dụng carbon tự nguyện, vốn đã tăng từ 270 tỷ USD lên 851 tỷ USD chỉ trong một năm. Với hệ thống AI đánh giá môi trường độc đáo, Co2Bit hướng tới việc mở rộng thị trường có tiềm năng đạt 22 nghìn tỷ USD. Qua việc bảo vệ hơn 100 triệu cây tại Amazon và hợp tác với nhiều quốc gia, công ty không chỉ đóng góp vào bảo tồn môi trường mà còn tạo dựng niềm tin với các sáng kiến xanh. Các tài sản blockchain Co2A và Co2B chuẩn bị được giao dịch, mở ra hướng đầu tư mới cho các nhà đầu tư quan tâm đến môi trường. Sự thành công của giai đoạn beta sẽ quyết định tiềm năng thúc đẩy sự bền vững và quản lý môi trường toàn cầu qua công nghệ.
📌 Nghiên cứu kết hợp giữa AI và hình ảnh vệ tinh đã mở ra cánh cửa mới trong việc giám sát các hoạt động trên biển, đặc biệt là đánh bắt cá. Mô hình AI đã phân tích 2 triệu gigabyte dữ liệu từ hình ảnh radar vệ tinh và quang học, cho phép xác định khoảng 75% tàu đánh cá hoạt động nằm ngoài hệ thống giám sát AIS. Sự phát triển này không chỉ giúp phát hiện các hoạt động bất hợp pháp mà còn cung cấp cái nhìn sâu sắc về cách tài nguyên đại dương được sử dụng, từ vị trí của tàu đánh cá đến cơ sở hạ tầng ngoài khơi như giàn khoan và tuabin gió. Với số lượng tuabin gió tăng gấp đôi, chủ yếu ở châu Âu và Trung Quốc, công nghệ này cũng hữu ích trong việc theo dõi sự mở rộng năng lượng tái tạo.
📌 Dự án của NASA sử dụng AI để hỗ trợ nông nghiệp ở Hawaii mở ra tiềm năng lớn trong việc cải thiện an ninh lương thực và quản lý nông nghiệp bền vững, đồng thời giúp đối phó với thách thức từ điều kiện địa hình và sự thiếu hụt lao động máy móc.
- Nghiên cứu của Đại học Buffalo chỉ ra AI tạo sinh ChatGPT có thể cải thiện đáng kể khả năng phản ứng của lực lượng cứu hộ trong thảm họa.
- ChatGPT được huấn luyện để nhận diện thông tin địa lý từ bài đăng trên mạng xã hội của nạn nhân thảm họa.
- Khi thử nghiệm trên 978 bài đăng tweet từ nạn nhân bão Harvey, ChatGPT đã nhận diện được từ ngữ liên quan đến vị trí với hiệu suất ưu việt hơn 76% so với các mô hình không được hướng dẫn bởi geoknowledge và 40% so với công cụ NER truyền thống.
- Geoknowledge giúp ChatGPT hiểu được ngữ cảnh địa phương khi mô tả địa điểm.
- Các nhà nghiên cứu tin rằng phương pháp của họ có thể được áp dụng cho các phiên bản GPT sau này.
Kết luận: Nghiên cứu tại Đại học Buffalo đã mở ra triển vọng mới trong việc ứng dụng AI tạo sinh để hỗ trợ lực lượng cứu hộ. Với việc huấn luyện ChatGPT nhận diện thông tin địa lý từ bài đăng mạng xã hội, hiệu quả được cải thiện đáng kể, với tỉ lệ thành công 76% cao hơn so với mô hình không dùng geoknowledge và 40% so với công cụ NER. Điều này không chỉ cải tiến quy trình cứu hộ mà còn mở ra hướng tiếp cận mới cho việc sử dụng công nghệ AI trong các lĩnh vực xã hội khác.