#ChatGPT日耗電超50萬度#上熱搜,AI人工智能以及大模型高耗能這個事兒又開說。
據(jù)外媒報道,爆火的聊天機器人ChatGPT“每天可能要消耗超過50萬千瓦時的電力,以響應用戶約2億個請求”。什么概念呢?就是ChatGPT每天的用電量差不多等同于美國家庭用電量的1.7萬倍。
當然,這已經不是第一次提到AI人工智能以及大模型“吃電”這個事情了。AI和大模型的基礎都是算力,算力的每一次提升都意味著呈幾何數(shù)的能耗提升,不僅是ChatGPT以及其代表的OpenAI,微軟、蘋果、谷歌、百度、華為、科大訊飛、阿里、騰訊、京東等等企業(yè)都無法回避這個問題。
美國信息技術與創(chuàng)新基金會(ITIF)發(fā)布的報告《重新審視對人工智能能耗的擔憂》中就指出,不同的AI模型也有不同的能耗成本,在特定模型中,參數(shù)數(shù)量越多,使用AI模型所需的能耗通常越高。同時,AI能耗受到經濟因素限制,性能改進速度將隨時間下降。
報告還提到,已有一些研究試圖量化AI系統(tǒng)當前和未來的
能源需求和碳排放,不過一些初步估算陷入了與早期估算數(shù)字技術能源使用相同的陷阱,產生了誤導性估算。
對AI人工智能以及大模型能耗和碳排放的測算是一項復雜且龐大的工程,并受到很多因素的影響,不過可以確認的一點是,其能耗大是事實。
斯坦福大學人工智能技術研究室(HAI)公布的《2023年人工智能指數(shù)報告》中明確指出,GPT-3是當前大模型中有據(jù)可依的第一大“電老虎”,光是訓練GPT-3,就消耗了128.7萬千瓦時電量,產生了550噸碳排放,相當于數(shù)百輛汽車一整年的排放量。
高耗能、高排放是行業(yè)特性,但是用什么能源可以選擇,還可以在制冷系統(tǒng)上下功夫。
綠電+儲能是目前科技公司以及AI公司的常規(guī)選擇,或者也可以說是必然選擇。6部門聯(lián)合發(fā)布的《算力基礎設施高質量發(fā)展行動計劃》就提出“算力+能源”的組合,要求實現(xiàn)源網荷互動、多能協(xié)同互補及用能需求智能調控。
計劃指出,隨著人工智能的普及應用以及算法模型參數(shù)量和復雜度不斷提升,數(shù)據(jù)中心數(shù)據(jù)吞吐量、計算量不斷增長,用能需求也隨之增長。未來,推動“算力+能源”融合發(fā)展重在“融合”,推動各類能源互聯(lián)互通、互濟互動,支撐新能源發(fā)電、新型儲能、多元化負荷大規(guī)模友好接入,提升分布式能源和微電網接入互動能力。
而除了信息設備,制冷系統(tǒng)的能耗在數(shù)據(jù)中心里算得上數(shù)一數(shù)二的了。目前,傳統(tǒng)風冷技術面對AI大模型這種高算力的制冷需求顯然已經不夠看了,所以液冷技術開始盛行,即通過特殊液體循環(huán)散熱方式,實現(xiàn)更精準、更高效節(jié)能的散熱。去年,我國規(guī)模最大的液冷數(shù)據(jù)中心全鏈條產業(yè)創(chuàng)新基地落戶青島,占整個數(shù)據(jù)能效10%以內的系統(tǒng),實現(xiàn)30%以上的能效節(jié)約。
當然,也不能光看AI人工智能和大模型“吃電”的弊端,作為當前無可指摘的尖端技術,其助力提質增效以及節(jié)能減排的作用是巨大的,并且是
輻射所有工業(yè)生產和日常生活的,比如現(xiàn)下時興的綠色工廠打造,AI和新能源的地位屬于“左膀右臂”,《工業(yè)綠色發(fā)展白皮書》中就提到,智能制造示范工廠的生產效率提升了34.8%,碳排放則降低21.2%。
所以未來,AI也好,大模型也好,與清潔能源、可再生能源的融合發(fā)展是必經之路,雙向成就,協(xié)同助力工業(yè)綠色轉型,加快塑造低碳供應鏈閉環(huán)??梢灶A見,兩者之間的聯(lián)系會愈加緊密,推動經濟高質量向前。
昵稱 驗證碼 請輸入正確驗證碼
所有評論僅代表網友意見,與本站立場無關