生成式AI,聽起來挺酷,但你知道嗎?它可是地地道道的“吃電巨獸”:現在爆火的ChatGPT,每日耗電量高達50萬度!隨著人工智能的發展,其用電量急速上升問題,正引發全球警惕,以后會發生“電荒”嗎?能耗問題會不會成為AI發展的“絆腳石”?
日耗電50萬度! GPT成“吃電狂魔”
由美國OpenAI公司最新推出的視頻生成工具Sora,自發布以來,便成為人工智能界最火爆的“網紅”。該公司上一個全網刷屏的產品——ChatGPT,在推出僅兩個月后,就達到1億月活躍用戶數。
不過,蓬勃發展的AI背后,是算力;而算力背后則是能耗。人工智能飛速發展的背后,其能源消耗問題日益凸顯,成為全球關注的焦點。
據報道,全球數據中心的耗電量,已從十年前的100億瓦增加到如今的1000億瓦水平。ChatGPT聊天機器人每天耗電超過50萬度,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。據OpenAI公司稱,他們在ChatGPT上,每天花費高達70萬美元。
近日,特斯拉創始人馬斯克公開表示,未來兩年,人工智能行業將由“缺硅”變為“缺電”。
據國際能源署稱,全球數據中心目前約占用電量的1%至1.5%。到2025年,在全球數據中心用電量中,人工智能業務的占比,將從2%增至10%。
以谷歌為例,每年用于人工智能訓練的電量為23億度,相當于美國一個州首府所有家庭一年的用電量。即使在訓練完成后,這些人工智能仍需大量計算能力運行,并耗費大量能源。
若谷歌在每次搜索中,都使用AIGC(生成式人工智能技術),其年耗電量將增至約290億度。
最新研究表明,到2027年,生成式人工智能所消耗的能源,可滿足荷蘭這樣一個國家一年的需求,即約85-134太瓦時(TWh)。
一次訓練耗電2.4億度電 能加熱1000個游泳池水量
僅僅是GPT-4的GPU,一次訓練就會用去2.4億度電。AI為什么那么耗電?它們用掉的電都跑到哪里去了?
我們現在所說的人工智能(AI),主要是指生成式人工智能。它們需要大規模的數據中心來訓練和推理。
這些數據中心由大量服務器組成,服務器消耗的電能,絕大部分轉化成熱能,最后通過水冷系統釋放出來。可以說,AI的物理硬件,是個巨大的“電熱水器”。
據統計,全球數據中心的能耗,約占全球總電力消耗的1%左右,預計這一比例,還會隨著數據量的增長而增加。
能量無法創造也無法消滅,它只能從一種形式轉化成另一種形式。對計算機來說,最主要的能量轉化方式,就是從電能轉化成熱能。
大語言模型也是如此。它對電能和冷卻水的需求,正造成越來越嚴重的環境問題。波士頓咨詢集團曾發布報告稱,到2030年底,僅美國數據中心的用電量,就將是2022年的三倍。
在OpenAI訓練大語言模型GPT-4時,完成一次訓練需要約三個月時間,使用大約25000塊英偉達A100 GPU。僅僅是這些GPU(圖形處理器),一次訓練就要用2.4億度電。這些電能幾乎全部轉化成了熱能,可以將大約200萬立方米冰水——大概是1000個奧運會標準游泳池的水量——加熱到沸騰。
全球人工智能的蓬勃發展,可能會導致這一數字大幅上升。與此同時,大量的碳排放和數百萬加侖淡水的消耗也不容小覷。
回答50個問題,得“喝”500毫升水降溫
生成式AI,除了“吃電,還得喝水”——用水量也是個驚人數字。因為要訓練這些AI,就得有強大的算力中心,而算力中心要運轉,就得有散熱系統,這都得用到水。
全球科技巨頭,都在建設新的數據中心,爭的就是誰的算力更強,結果就是對水資源的需求越來越大。
研究顯示,訓練GPT-3所需的水量,能夠填滿一個核反應堆的冷卻塔。ChatGPT(在GPT-3推出之后)每與用戶交流25到50個問題,就得“喝下”一瓶500毫升的水來降溫。
谷歌發布的2023年環境報告顯示,公司前一年的用水量同比增加20%,達到56億加侖,其中絕大部分用于為數據中心散熱。除了谷歌,另一個巨頭Meta在美國亞利桑那州建了數據中心,僅2022年用水量就超過260萬立方米。
正在大力開發人工智能的微軟,也在最新的環境報告中透露,2022年公司用水量同比前一年激增34%,達到640萬立方米,比2500個奧林匹克標準游泳池的水量還多。
除了運營過程中耗水,制造人工智能所需芯片的過程中,也會消耗大量能源和水資源。
比如,硅片工藝需要“超純水”清洗,生產一個2克重的芯片,大約需要32公斤水。制造8寸晶圓,每小時耗水約250噸,制造12英寸晶圓,每小時耗水可達500噸。
科學家預計,到2027年,全球人工智能可能需要4.2億—66億立方米的清潔淡水,這比4-6個丹麥或一半英國的年取水總量還要多。
耗水問題已成為制約數據中心快速發展的因素之一。為節約寶貴的自來水資源,很多企業嘗試用各種方法為數據中心散熱,例如,微軟曾嘗試部署海下數據中心,Facebook數據中心選址北極圈附近,阿里云千島湖數據中心使用深層湖水制冷。
不過,上述方法總是會帶來新的問題,目前國內數據中心的用水,主要還是用自來水,近幾年政府更鼓勵數據中心企業使用中水(循環再利用的水)。
面對“能耗巨獸”,我們該如何應對
隨著AI的進步、模型的增大,如何解決伴生的高耗能問題?
專家表示,當下的重點在于開源,風能、光伏等可再生新能源,被視為數據中心重要的能量池,核能尤其被寄予厚望。
在2023年的達沃斯世界經濟論壇上,OpenAI的CEO山姆·阿爾特曼認為,核聚變可能是能源的發展方向,但要開發出真正可用的核聚變技術,可能還需要一些時間。
據國際能源署的報告,到2050年,可再生能源預計將滿足全球近90%的電力需求增長。
節流方面,可以通過優化數據中心的設計和管理,提高電源使用效率。國內大廠也紛紛給出解決方案。比如騰訊,組建了專門的綠色能源團隊,應用自然冷卻、液冷、余熱回收等新興節能技術,降低數據中心能耗。華為、京東、亞馬遜等也紛紛入局智慧能源領域。
如何讓散失的熱能不至于白白浪費?最容易實現的,是熱回收技術。即將數據中心回收的熱量,用于提供民用熱水,冬季則提供民用采暖。現在有些企業已著手于回收廢熱再利用,比如阿里巴巴千島湖數據中心等。
此外,通過優化算法來減少計算冗余,使用更高效的芯片,以及采用節能的數據中心設計,都是降低能耗的有效方法。
政府也在出臺相關政策,鼓勵企業研發更為節能環保的AI技術和基礎設施。
早在2021年,我國就已出臺公共機構碳達峰方案,新建大型、超大型數據中心,必須全部達到綠色數據中心要求。
北京印發的《關于進一步加強數據中心項目節能審查的若干規定》,也新增了關于引導數據中心充分利用再生水的內容。