IT之家 4 月 10 日消息,當地時間周二,Arm 公司 CEO 雷內?哈斯(Rene Haas)發出了嚴厲的警告,他表示人工智能收集的信息越多,他們就越聰明,但他們收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在內的 AI 模型需要大量電力,這可能導致到 2030 年,AI 數據中心將消耗美國 20% 至 25% 的電力需求,相比今天的 4% 大幅增加。
他特別強調,類似 ChatGPT 這樣的大語言模型耗電非常嚴重,這些模型需要“永不滿足”的電力才能有效運行。據IT之家此前報道,ChatGPT 每天需要處理超過 2 億次請求,其電量消耗高達每天 50 萬千瓦時。相比之下,美國普通家庭每天的平均用電量僅為 29 千瓦時,這意味著 ChatGPT 的日耗電量是普通家庭的 1.7 萬倍以上。
Arm 現在正著眼于降低人工智能技術的功耗,隨著電力需求的驚人增長,哈斯強調了在沒有更高效的能源解決方案的情況下推進 AI 研究的挑戰。
國際能源機構(IEA)在《2024 電力》報告中強調了這個問題,全球 AI 數據中心的耗電量將是 2022 年的十倍,并指出部分原因在于 ChatGPT 這樣的大語言模型所需的電力,遠高于谷歌等傳統搜索引擎。
荷蘭中央銀行數據科學家 Alex de Vries 在一份發表于可持續能源期刊《焦耳》上的論文中計算得出,如果谷歌將生成式人工智能技術應用于所有搜索,其每年將消耗約 290 億千瓦時電量,這相當于肯尼亞、危地馬拉和克羅地亞一年的總發電量。







