AI正在“吸幹”全球電力?

2024-07-08 10:17:50.0      來源:科普時報

AI製圖

輕鬆掃碼 科普一下

近日,一則“人工智慧已對全球電力系統造成嚴重破壞”的報道,引發公眾對AI能耗的擔憂。

AI到底有多耗電?

中國科學院計算技術研究所工程師劉延嘉接受科普時報記者採訪時表示,AI的耗電主要集中在模型訓練和推理兩方面。一般來説,參數量越大,大模型的算力消耗就越大,其消耗的電能就越多。以GPT-3大模型為例,其訓練耗電總量大約為1280兆千瓦時,也就是128萬度電,相當於6400個中國普通家庭一個月的用電量。

在推理階段的耗電量同樣不容小覷。劉延嘉説:“推理是大模型響應用戶需求的過程,雖然AI推理階段單次能耗比訓練階段低,但由於高頻調用,電力消耗也相當驚人。”在全球已推出的數百個AI大模型中,僅ChatGPT每天就要消耗50萬千瓦時電力來響應用戶超2億的應用需求。隨著全球用戶數量、使用頻率的增加,耗電量也將不斷累積。

據國際能源署發佈的《電力2024》報告預測,到2026年,全球數據中心每天的用電量將達到1.05萬億千瓦時,大約是整個日本全年的用電量。當下AI應用範圍越來越廣,其對全球電力系統的“壓榨”還將進一步凸顯。

如何應對AI耗電問題?

“最直接的解決方案是從供應端入手,不斷增加供電量,以解決AI耗電問題。”劉延嘉表示,風電、光電及儲能技術已經成為重要突破口,並取得了長足的發展。

在需求端,包括演算法優化、硬體改進和能源管理等方面都有節能潛力可以挖掘。演算法優化可以在不顯著降低AI性能的情況下,減少計算量和能耗。劉延嘉建議,包括晶片在內的硬體改進,是解決AI耗電問題的重要途徑,未來量子計算、光子計算等新型計算技術也可大幅提升計算效率,減少能耗。

此外,劉延嘉介紹,在AI數據中心能源管理上,積極轉向可再生能源供電、使用先進的冷卻技術和智慧電力管理系統,都能有效降低AI的能耗。

編輯:吳桐

分享到:
作者:陳傑