據(jù)《紐約客》雜志報道,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應用戶的約2億個請求。相比之下,美國家庭平均每天使用約29千瓦時電力,也就是說,ChatGPT每天用電量是家庭用電量的1.7萬多倍。
如果生成式AI被進一步采用,耗電量可能會更多。荷蘭國家銀行數(shù)據(jù)科學家亞歷克斯.德弗里斯在一篇論文中估計,到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。
隨著人工智能技術發(fā)展,市場對芯片的需求激增,帶動電力需求的激增。相關數(shù)據(jù)顯示,十年前全球數(shù)據(jù)中心市場的耗電量為100億瓦,而如今1000億瓦的水平已十分常見。據(jù)美國Uptime Institute的預測,到2025年,人工智能業(yè)務在全球數(shù)據(jù)中心用電量中的占比將從2%猛增到10%。
生成式AI帶來的種種創(chuàng)新,都是以處理性能和功耗方面的高昂成本為代價。馬斯克曾預計,未來兩年內(nèi)將由“缺硅”變?yōu)椤叭彪姟?,而這可能阻礙人工智能的發(fā)展。在他看來,電力短缺可能會造成嚴重后果,就像最近缺芯阻礙科技和汽車行業(yè)一樣。
以人工智能為代表的生成式大模型的繁榮將為智算中心的建設帶來更快發(fā)展。而高算力往往也伴隨著高能耗,據(jù)統(tǒng)計,2022年全國數(shù)據(jù)中心總耗電量約2700億千瓦時,占全社會用電量的3.1%,超過兩座三峽水電站年發(fā)電量。
據(jù)2023年9月8日報道,浪潮信息服務器產(chǎn)品線總經(jīng)理趙帥表示,如今數(shù)據(jù)中心節(jié)能降碳面臨“多重挑戰(zhàn)”:從能耗構(gòu)成看,數(shù)據(jù)中心總能耗包括IT設備能耗和制冷、配電等系統(tǒng)的能耗,其中,制冷系統(tǒng)用電量已與IT設備相當,占總用電量高達43%。因此,優(yōu)化制冷系統(tǒng)成為數(shù)據(jù)中心提高能源效率的重要環(huán)節(jié)。
其次,算力供給的核心是IT設備,但就其容量而言,IT設備的利用率通常十分低。例如,服務器的利用率往往只有5%到15%,處理器為10%到20%,存儲設備為20%到40%,網(wǎng)絡設備的利用率為60%到80%。然而,當設備閑置時,其仍會消耗在最大利用率下消耗的大部分功率,一臺標準服務器即使不工作也要消耗30%到40%的最大功率。如何最大程度減少IT設備空閑,讓閑置的算力跑起來至關重要。
除了耗電外,大模型還很耗水。
AI模型旺盛的算力需求要求與之匹配的散熱能力,這帶來了龐大的耗水量。面對水資源的加碼消耗,微軟表示計劃于2030年實現(xiàn)正水排放。
據(jù)媒體報道,微軟支持的OpenAI技術需要耗費大量水用于冷卻超級計算機,幫助其AI學習如何模仿人類書寫。除了建造冷卻塔,服務器運行需要大量電力,而火電、天然氣和核能發(fā)電也會消耗大量水。
微軟在其環(huán)境報告中透露,2022年,公司用水量同比去年激增了34%,較前幾年大幅上漲,相當于超過2500個奧林匹克規(guī)格的游泳池水量,外部研究人員認為這與微軟的人工智能研究有關。谷歌發(fā)布的2023年環(huán)境報告同樣顯示,其2022年消耗的水量高達212億升,其中有約196億升的水用于數(shù)據(jù)中心。
微軟去年曾在聲明中表示,它正在投資關于測量人工智能的能源和碳足跡的相關研究,并“研究如何使大型系統(tǒng)在訓練和應用中更加高效”。此外,該聲明還表示:“我們將繼續(xù)監(jiān)控我們的排放量,加快進度,同時多使用清潔能源為數(shù)據(jù)中心供電,購買可再生能源,并做出其他努力,以實現(xiàn)我們的可持續(xù)發(fā)展目標,即到2030年實現(xiàn)負碳排放、正水排放和零浪費。”
(稿件來源:每經(jīng)網(wǎng))