近年生成式AI掀起熱潮,從使用者眾多的ChatGPT,再到近期發表的影片生成模型Sora,許多大型軟體企業爭相採用AI驅動服務,伴隨而來的是快速增長的AI密集用水、用電需求,這些需要大量運算的人工智慧服務相較於傳統應用軟體的能源需求,往往更為巨量。
AI如同變魔術般,滑鼠按兩三下、下個簡單指令就能生成一段文字,甚至是圖像、影像,這些動作雖然跟往常在搜尋欄查找資料並無二致,然而,AI的用電量卻可能比想像中更多。
阿姆斯特丹自由大學(Vrije Universiteit Amsterdam,VU)商學院博士候選人德弗里斯(Alex De Vries)專門研究新興科技的能耗成本,去年他發表的分析估算,隨著人工智慧崛起,到了2027年,AI伺服器所消耗的用電量將等同於荷蘭全國的能源需求量。
德弗里斯根據NVIDIA的AI晶片銷售狀況[1]等參數推估,到了2027年,運算AI所需的硬體設備需求量,每年約有850~1340億度電的能源需求,就等同於世界上部分國家一年的總用電量。
★台灣第一個ESG與USR永續整合平台,加入ESG遠見共好圈★
人工智慧新創公司Hugging Face的研究員盧奇奧尼(Sasha Luccioni)指出,隨著AI成為一門好生意,公司機密層級也越來越高。過去幾年,其實OpenAI都會持續公布關於模型訓練的詳細資訊,包括使用的硬體設備與時間。不過,隨著ChatGPT、GPT-4等模型推陳出新,這些資訊再也沒有更新了。
為什麼AI高耗電又高用水?
不論是OpenAI的ChatGPT或是Google的Gemini,這類廣受歡迎的大型語言模型,往往需要一整個倉庫的資料中心來運算,同時也仰賴大量的水資源來幫助機房降溫。若是涉及圖像、影像的生成,AI的耗能將會更高。
AI的能源需求分成兩大部分,一個是訓練語言模型所消耗的電力,包含設定與回應行為;第二部分則是推論階段(inference phase),將訓練到一定程度的模型置入實際場景,並透過提示(prompts),讓AI生成初始回應。這兩階段都有高密集的能源需求,然而目前尚不清楚各階段的耗能占比。
「設置傳統伺服器的標準機櫃耗電量約4瓩(kW),約等同於一個家庭住宅的用電功率;然而設置一組AI伺服器機櫃的能源需求約為20倍、80瓩。」DataVita創辦人奎恩(Danny Quinn)對《英國國家廣播公司》說,一個資料中心內可能有上百或上千組的伺服器及機櫃。
加州大學河濱分校報告指出,與ChatGPT對話一次需消耗約500毫升的水,相當於一瓶寶特瓶。而ChatGPT每月有近15億用戶,用水量可想而知。微軟永續報告書中揭露,其用水量在2021至2022年增長至640萬立方公尺、增加了約34%,相當於2500個奧運規格泳池的大小。
延伸閱讀:NVIDIA輝達2025之前實現百分百再生能源使用
科技兩面刃,AI浪潮下的危機與轉機
隨著科技日新月異,未來AI無疑會如雨後春筍般增長,隨之而來是需謹慎看待的環境衝擊。儘管耗能需求超級高,AI對解決環境挑戰仍潛力無窮。例如,AI可以預測極端氣候,改善工業製程減少碳排放,而在Google和美國航空公司合作的計畫中,飛行員可透過AI找出最適合的飛行高度和路徑,減少50%會造成全球暖化的飛機雲。
盧奇奧尼表示,希望未來有更多公司為AI引進像能源之星(Energy Star)[2] 的評比,讓消費者可以像選購節能電器一樣比較各家AI產品的能源效率。
德弗里斯則認為應該回歸更根本的思考——我們真的需要AI來完成某些特定任務嗎?「AI有其侷限性,在很多應用上或許都不算最好的解決方案,我們將會浪費大量的時間和資源來記取這項教訓。」
延伸閱讀:NVIDIA輝達拚上全球市值第四!黃仁勳帶頭衝ESG奏效?
本文轉載自低碳生活部落格/文:陳玫伶(專欄觀點不代表本社立場)