訓練模型太耗電,服務器能耗暴漲三倍, AI 最後拼的是電力

據第一財經報導, 根據Digital Information World 發布的最新報告,數據中心為訓練AI 模型產生的能耗將為常規雲工作的三倍。預計到2030 年,美國數據中心的電力需求將以每年約10% 的速度增長。算力是AI 世界發展的基礎,而算力的瓶頸歸根到底還是電力,隨著爭奪AI 軍備競賽日趨白熱化,對電力的爭奪變得越來越重要。數據顯示,OpenAI 訓練GPT-3 耗電為1.287 吉瓦時,大約相當於120 個美國家庭1 年的用電量。而這僅僅是訓練AI 模型的前期電力,僅佔模型實際使用時所消耗電力的40%。 2023 年1 月,OpenAI 僅一個月已耗用可能等同17.5 萬個丹麥家庭的全年用電量。谷歌AI 每年耗電量達2.3 太瓦時,相當於亞特蘭大所有家庭1 年用電量。

Total
0
Shares
Related Posts