版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
數(shù)字經(jīng)濟時代,算力作為新的生產(chǎn)力,廣泛融到社會生產(chǎn)生近年來,國家高度重視算力中心產(chǎn)業(yè)的發(fā)展,多措并舉夯實數(shù)字經(jīng)濟“算力底座”,相繼發(fā)布多項政策文件,《新型數(shù)據(jù)中心發(fā)展三年行動計劃2123年》要求用3理、技術(shù)先進、綠色低碳、算力規(guī)模與數(shù)字經(jīng)濟增長相適應的新型數(shù)據(jù)中心發(fā)展格局?!丁笆奈濉睌?shù)字經(jīng)濟發(fā)展規(guī)劃》指出按照綠色、低碳、集約、高效的原則,持續(xù)推進綠色數(shù)字中心建設(shè),加快推進數(shù)據(jù)中心節(jié)能改造,持續(xù)提升數(shù)據(jù)中心可再生能源利用水平?!端懔A(chǔ)設(shè)施高質(zhì)量發(fā)展行動計劃》明確提出堅持綠色低碳發(fā)展,全面提升算力設(shè)施能源利用效率和算力碳效水平。結(jié)“雙碳”一、算力中心冷板式液冷發(fā)展必然性 (一)政策背景:綠色發(fā)展備受關(guān)注,能耗要求日趨嚴 (二)發(fā)展環(huán)境:單機功率密度提升,散熱問題愈發(fā)顯 (三)標準走勢:標準制定不斷完善,行業(yè)發(fā)展持續(xù)規(guī) (四)產(chǎn)業(yè)現(xiàn)狀:系統(tǒng)節(jié)能潛力顯著,技術(shù)迭代創(chuàng)新發(fā) 二、算力中心冷板式液冷技術(shù)分析 (一)冷板式液冷解決方 (二)冷板式液冷關(guān)鍵技術(shù)要 (三)冷板式液冷技術(shù)優(yōu) 三、算力中心冷板式液冷典型應用案例 (一)基于英特爾?架構(gòu)的超聚變冷板式液冷解決方 (二)基于英特爾?架構(gòu)的京東云綠色算力中心高密度算力方 四、趨勢與展望 圖1冷板式液冷整體鏈路 圖2一次側(cè)冷卻水余熱回收示意 圖3一次側(cè)冷凍水并聯(lián)余熱回收示意 圖4一次側(cè)冷凍水串聯(lián)余熱回收示意 圖5二次側(cè)并聯(lián)余熱回收示意 圖6冷卻液分類 圖72019-2023年我國算力中心耗電量(億千瓦時 圖8某大型冷板式液冷算力中心項目效果 圖9液冷服務器部署示意 圖10液冷服務器實際部署 算力中心冷板式液冷發(fā)展研究報告(2024算力中心冷板式液冷發(fā)展研究報告(2024年“新基建”等利好政策的加持下,產(chǎn)業(yè)始終保持著良好增長態(tài)勢。隨著“東數(shù)西算工程的縱深推進以及《數(shù)字中國建設(shè)整體布局規(guī)劃》中數(shù)字中國建設(shè)目標的不斷升級,我國算力中心產(chǎn)業(yè)發(fā)展步入新階段,催生出新一輪算力中心建設(shè)高潮。尤其是“雙碳目標發(fā)布后,為進一步推動算力中心整體低碳化發(fā)展,促進算力中心機房的快速、高效散熱,滿足國家對算力中心綠色、節(jié)能等建設(shè)需求,液冷技術(shù)成為未來(一)政策背景:綠色發(fā)展備受關(guān)注,能耗要求日趨算力中心行業(yè)的高耗能和碳排放問題引起諸多關(guān)注。近年來,我國算力中心在實現(xiàn)規(guī)模化、集約化的同時,算力中心耗電量也在不斷攀升,設(shè)備部署呈現(xiàn)出“高密度、高耗能、異構(gòu)化”等發(fā)展特點。在“雙碳”戰(zhàn)略目標和全球能源治理改革的宏觀形式下,加快推動算力01年0推動重點領(lǐng)域節(jié)能降碳的若干意見》首次提到將數(shù)據(jù)中心行業(yè)納入重點推進節(jié)能降碳領(lǐng)域。此外,為助力綠色低碳轉(zhuǎn)型,國家和各地政府多次出倡導節(jié)能減排的相關(guān)政策文件,在能耗總量限制算力中心綠色低碳發(fā)展持續(xù)深化,主管部門對電能利用效率(PUE)提出明確要求。PUE是算力中心最常見的評價性能指標,也是行業(yè)評價算力中心綠色性能的主要衡量指標,PUE值越接近于1,則PUE要求持續(xù)提升。20217月,工信部印發(fā)《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年2023年底,新建大型及以PUE1.3以下。20221月,國家發(fā)改委同意啟動建、西部樞紐節(jié)點數(shù)據(jù)中心PUE分別控制在1.25、1.2以下。2023年4月,財政部、生態(tài)環(huán)境部、工信部聯(lián)印發(fā)《綠色數(shù)據(jù)中心政府采購需求標準(試行20236月起數(shù)據(jù)中心電能比不高于1.4,2025年起數(shù)據(jù)中心電能比不高于1.3。北京、上海、深圳等其他地方政府也相繼對算力中心PUE提出了一定的限制要求。與此同時(二)發(fā)展環(huán)境:單機功率密度提升,散熱問題愈發(fā)量呈爆發(fā)式增長,人工智能、大數(shù)據(jù)、5G、IoT、AIGC促進我國算力中心建設(shè)規(guī)模高速增長。截至2023年,我國提供算力810230EFLOPS1。中心的單機架功率密度已接近8kW,少數(shù)超大型算力中心的單機架功率密度已達20kW。當下,我國大型算力中心的建設(shè)加速及以ChatGPT為代表的新人工智能時代的到來,人工智能的應用需求日益案。IT設(shè)備產(chǎn)生的熱量不斷增加,而算力中心的IT設(shè)備的正常運行。當前,液冷技術(shù)通過冷卻色低碳發(fā)展、降低算力中心PUE。(三)標準走勢:標準制定不斷完善,行業(yè)發(fā)展持續(xù)信部《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年5G等新型基礎(chǔ)設(shè)算力中心冷板式液冷技術(shù)標準制定步入“新常態(tài)”,行業(yè)朝向規(guī)范化發(fā)展。算力中心液冷技術(shù)作為一項新的“革命技術(shù),當前我國針對液冷技術(shù)的研究仍處于起步階段,其液冷服務器的設(shè)計、運維、安防等方面的行業(yè)標準較為空缺,業(yè)界尚未形成統(tǒng)一的技術(shù)標準,增高了產(chǎn)業(yè)發(fā)展壁壘。得益于政策的支持與引導,液冷產(chǎn)業(yè)標準規(guī)范化迎來了快速發(fā)展,算力中心冷板式、浸沒式、噴淋式液冷出。特別是冷板式液冷技術(shù)標準制定逐步朝向常態(tài)化、規(guī)范化邁進。中國信息通信研究院云計算與大數(shù)據(jù)研究所依托ODCC(開放數(shù)據(jù)中心委員會)“冰河”項目組,與業(yè)界聯(lián)起草發(fā)布的《數(shù)據(jù)中算力中心冷板式液冷服務器系統(tǒng)的服務器、CDU和其他相關(guān)技術(shù)要(四)產(chǎn)業(yè)現(xiàn)狀:系統(tǒng)節(jié)能潛力顯著,技術(shù)迭代創(chuàng)新冷市場主要以歐美公司為主,其中美國公司占比超過60%,是冷板IT設(shè)備傳導到冷卻介質(zhì)中;在控制系統(tǒng)方通過先進的集中供電、總線盲插和原生液冷技術(shù),實現(xiàn)節(jié)點、機柜、機房三級可靠性設(shè)計,PUE1.06TUV南德制冷PUETUV萊茵液冷防泄漏認證,已商用部署超過5萬節(jié)點,成功應用于互聯(lián)網(wǎng)、高校、政企、金融等領(lǐng)域,成為商等方式,提升IT設(shè)備散熱效率。冷板式液冷系統(tǒng)可以分為一次側(cè)(室外)循環(huán)和二次側(cè)循環(huán)1塔和干冷器等設(shè)備實現(xiàn),可提供30℃以上的冷卻水。冷板式液冷一IT設(shè)備連接,然后再通過循環(huán)管路返回冷量分配單元的設(shè)計。來PUE值。冷板材質(zhì)一般由高導熱系數(shù)的材料(如銅PUE值。由于冷板在工作過程中不直接接觸發(fā)熱元冷量分配單元(CoolantDistributionUnit,CDU)機與室外機發(fā)生間壁式換熱,工質(zhì)不做混。高溫冷卻液攜帶的熱量2℃的水平,從而防止冷凝現(xiàn)象發(fā)生。止不同路徑的芯片散熱冷板出現(xiàn)欠流或者過流情況,減少因節(jié)點溫作為綜節(jié)能措施及清潔能源得到了業(yè)界的廣泛關(guān)注。國家發(fā)改委市經(jīng)信局印發(fā)的《北京市數(shù)據(jù)中心統(tǒng)籌發(fā)展實施方案(2021-20232中余熱回收后的冷凍水和自然冷卻后的冷凍水進行混后,共同為34液冷的二次側(cè)取熱,CDU與熱回收的換熱器進行并聯(lián)。運行熱回收工5非水基冷卻液主要分為碳氫及有機硅類以及碳氟化合物類,使用時需在浸潤材料兼容性上進行嚴格審查和測試。碳氫及有機硅類冷卻液常溫下呈黏稠狀因此這一類被業(yè)內(nèi)統(tǒng)稱為“油類冷卻液常見的油類冷卻液可以分為天然礦物油、成油、有機硅油等,普遍具有沸點高不易揮發(fā)、不腐蝕金屬、環(huán)境友好、毒性低等共性且成本較低,但由于具有閃點使用中有可燃助燃風險。油類冷卻液因其粘度、粘性和易吸濕水解等問題一般不作為冷板式液冷的冷卻液。碳氟類冷卻液是將碳氫化物中所含的一部分或全部氫換為氟而得到的一類有機化根據(jù)碳氟化物的組成成分和結(jié)構(gòu)不同可為氯氟烴(CFC)、氫代氯氟烴C)、氫氟烴C)、全氟碳化物(、氫氟醚()等,普遍具有良好的電絕緣性和綜傳熱性能,可以實現(xiàn)無閃點不可燃,且惰性較強不易與其它物質(zhì)反應是良好的6IT硬件產(chǎn)品迭代升級,同時導致承載這些應用負載的服冷板式液冷技術(shù)能夠有效降低算力中心PUE,相比于浸沒式液操作性更強,且對于當前的算力中心整體架構(gòu)及后續(xù)維護影響不大,運維模式、機房承重與傳統(tǒng)風冷場景基本一致,是目前成熟度較高、應用更為廣泛的液冷散熱方案。算力中心機柜液冷化改造的主要工作在于對原有機柜及服務器的冷板式改造,改造內(nèi)容包括配電、布U堵塞等監(jiān)控系統(tǒng)。整體機房液冷化改造的主要工作在于部署高密度液冷機柜、鋪設(shè)室內(nèi)外液冷管道、安裝冷卻液體流量分配單元(CDU350WGPU700W,AI集群算力密度普遍達到50kW/柜3。目前,自然風冷的算力中心單柜密度一般只支持8-器節(jié)點的緊密結(jié),可以節(jié)省更多的空間,使得算力中心可以在有8-10kW,而128CPU66kW供電。采用這種高密度節(jié)的計算節(jié)點等計算密集型應用場景中,適采用冷板式液冷技術(shù)。3500倍,可有效解決日漸升高的高密度服務器的散冷卻系統(tǒng)的設(shè)備運行能耗。某典型節(jié)點采用CPU、內(nèi)存冷板覆蓋,PUE值得到改善,而且能效水平得到了明顯的提升。在德國,IBMSuperMUC超算307286016個計算內(nèi)HPC(High-performancecomputing)系統(tǒng)標桿。國內(nèi),中科院使用冷板式液冷服務器建設(shè)了地球系統(tǒng)數(shù)值模擬裝置原型系統(tǒng)”,不但有效降低了E分流器裝有光電式漏液傳感器,分別在進水和出水處,通過(RingMainUint)監(jiān)控告警上報網(wǎng)管平;風液換熱器(液冷門)通過浮子監(jiān)控冷硬水位,通過RMU監(jiān)控告警上報網(wǎng)管平。此外,7-30天預測風險硬盤,實現(xiàn)高達93%準確率的診斷率,實現(xiàn)預診愈一體化,降50%4。量隨算力中心數(shù)量的增多逐年攀升。2021年全國算力中心的耗電總量為1116億千瓦時,2022年我國算力中心能耗總量1300同比增長16%2030年,能耗總量將達到約3800
72019-2023年我國算力中心耗電量(億千瓦時IT負荷,其PUE值。4來源:ODCC制從而大大降低算力中心的冷卻能耗。此外,冷板式液冷技術(shù)采用55-60℃,可實現(xiàn)全年自然冷卻,并且,由于其回水溫度可達55℃以上,熱品質(zhì)較高,可采用余熱回收技術(shù)5%。焊接和沖洗,效率可50%,大大加快了部署和啟用的速度。另外,U位自動識別、第三方的冷板進出水與機柜manifold+48VBusbar設(shè)計,通過機柜Busbar銅排為服務器節(jié)點供電,交換網(wǎng)cable背板設(shè)計,服務器節(jié)點業(yè)務、管理網(wǎng)絡接口均通過cablecable連接器方式,實通過將部分或全部服務器的散熱方式從傳統(tǒng)的風冷技術(shù)轉(zhuǎn)變?yōu)镋值,從而減少總能耗。此舉不僅有助于滿足能耗要求,還能提高服務器的散熱效率,提高計算能力,同時降低風扇噪音和空氣流動所帶來的問題,提升服務器的穩(wěn)定性和可靠性。然而,風-液改造也需要克服一系列挑戰(zhàn),包括液冷系統(tǒng)設(shè)計和維護成本,適應現(xiàn)有基礎(chǔ)設(shè)施改造,以及應對潛在液體泄漏等風險。因此,在實施風-液改造時,算力中心運營商需要全面考慮技術(shù)、經(jīng)濟和安全等方面的因素,以確保算力中無需進行大規(guī)模的硬件改動。例如,美國服務器制造商Supermicro依托以上優(yōu)勢,冷板式液冷技術(shù)在實際應用中更為便捷和經(jīng)濟,成為老舊機房風-液改造升級的首選技術(shù)。以阿里巴巴為例,該集團在“杭州五區(qū)的老舊機房改造升級項目中采用了冷板式液冷技術(shù)對舊有的空氣冷卻系統(tǒng)進行改造,以適應新的高密度計算需求。通過冷板式液冷技術(shù)的靈活可操作性,阿里巴巴實現(xiàn)了算力中心的高效運行。改造后的算力中心能夠?qū)崿F(xiàn)更高的計算能力,計算節(jié)點密度510kW50kW。30%,能源利用效率大幅提高。10年可靠性積累,170余項可靠性測試,已經(jīng)成功在國內(nèi)外交付商用液冷服務器50000+,商用走電下走水”架構(gòu),原生液冷設(shè)計實現(xiàn)天然可靠性保障,支持100%液冷散熱,PUE1.10以下,優(yōu)于國家對大型算力中心樞紐節(jié)點要144CPU,同時機房免冷機部署,空間利用率再提升20%;業(yè)界首創(chuàng)液、網(wǎng)、電三總線盲插,機柜內(nèi)0智能運維軟件配合英特爾智慧節(jié)能方案,實現(xiàn)芯片級節(jié)能減碳。英特爾智慧節(jié)能方案依托英特爾?人工智能方案和服務器平技術(shù),采用智能遙測(nelgnteemty)、基于hros以及英特爾至可擴展平的能效控制、基于容器運行時接口的資源管理器(CRI-RM)動態(tài)資源管理策略等,實現(xiàn)對英特爾??可擴展處理器的各種運行指標的智能遙測,并在提供可視化監(jiān)視支持的同時,將遙測數(shù)據(jù)輸入到閉環(huán)控制邏輯之中,在操作系統(tǒng)層面、處理器能效級別、處理器能級狀態(tài)進行細粒度控制,進而針對不同場景實現(xiàn)能效優(yōu)化。第四代英特爾?至強可擴展處理器采用U內(nèi)置加速器的創(chuàng)新方式,大幅推動算力與能效雙維度增長,具備可持續(xù)發(fā)展特性,內(nèi)置的能耗優(yōu)化模式(piizderd可以很方便地在(aicnttutse05。8I/OPCIe模組、風扇模組、電源轉(zhuǎn)換模組、后I/O模組等構(gòu)成。54V總線電壓提供更高電源效率。京東云綠色算力中心高密54V高功率支持以冷板液冷整體解決方案實現(xiàn)液冷計算節(jié)點的循環(huán)冷卻。京東云還部署了從算力中心級到微處理器級的冷板液冷整體解決方案,在冷卻液分配單元)、工作液、歧管、服務器等方面進行了針制造過程中使用93%的可再生能源,大大降低產(chǎn)品本身的碳足跡;通過內(nèi)置的OptimizedPowerMode,對于大部分工作負載能帶來最高20%以更高供電效率,實現(xiàn)節(jié)能減排。3.8%,銅排損770W;54V12V97.7%;5年生命周期內(nèi),5001500萬元。2000噸。87噸的二氧化碳排放。910行技術(shù)升級改造或全面的技術(shù)替代,這為冷板式液冷改造提供了有算力中心冷板式液冷發(fā)展研究報告(算力中心冷板式液冷發(fā)展研究報告(2023年數(shù)字經(jīng)濟時代,算力作為新的生產(chǎn)力,廣泛融到社會生產(chǎn)生近年來,國家高度重視算力中心產(chǎn)業(yè)的發(fā)展,多措并舉夯實數(shù)字經(jīng)濟“算力底座”,相繼發(fā)布多項政策文件,《新型數(shù)據(jù)中心發(fā)展三年行動計劃2123年》要求用3理、技術(shù)先進、綠色低碳、算力規(guī)模與數(shù)字經(jīng)濟增長相適應的新型數(shù)據(jù)中心發(fā)展格局?!丁笆奈濉睌?shù)字經(jīng)濟發(fā)展規(guī)劃》指出按照綠色、低碳、集約、高效的原則,持續(xù)推進綠色數(shù)字中心建設(shè),加快推進數(shù)據(jù)中心節(jié)能改造,持續(xù)提升數(shù)據(jù)中心可再生能源利用水平?!端懔A(chǔ)設(shè)施高質(zhì)量發(fā)展行動計劃》明確提出堅持綠色低碳發(fā)展,全面提升算力設(shè)施能源利用效率和算力碳效水平。結(jié)“雙碳”一、算力中心冷板式液冷發(fā)展必然性 (一)政策背景:綠色發(fā)展備受關(guān)注,能耗要求日趨嚴 (二)發(fā)展環(huán)境:單機功率密度提升,散熱問題愈發(fā)顯 (三)標準走勢:標準制定不斷完善,行業(yè)發(fā)展持續(xù)規(guī) (四)產(chǎn)業(yè)現(xiàn)狀:系統(tǒng)節(jié)能潛力顯著,技術(shù)迭代創(chuàng)新發(fā) 二、算力中心冷板式液冷技術(shù)分析 (一)冷板式液冷解決方 (二)冷板式液冷關(guān)鍵技術(shù)要 (三)冷板式液冷技術(shù)優(yōu) 三、算力中心冷板式液冷典型應用案例 (一)基于英特爾?架構(gòu)的超聚變冷板式液冷解決方 (二)基于英特爾?架構(gòu)的京東云綠色算力中心高密度算力方 四、趨勢與展望 圖1冷板式液冷整體鏈路 圖2一次側(cè)冷卻水余熱回收示意 圖3一次側(cè)冷凍水并聯(lián)余熱回收示意 圖4一次側(cè)冷凍水串聯(lián)余熱回收示意 圖5二次側(cè)并聯(lián)余熱回收示意 圖6冷卻液分類 圖72019-2023年我國算力中心耗電量(億千瓦時 圖8某大型冷板式液冷算力中心項目效果 圖9液冷服務器部署示意 圖10液冷服務器實際部署 算力中心冷板式液冷發(fā)展研究報告(2024算力中心冷板式液冷發(fā)展研究報告(2024年“新基建”等利好政策的加持下,產(chǎn)業(yè)始終保持著良好增長態(tài)勢。隨著“東數(shù)西算工程的縱深推進以及《數(shù)字中國建設(shè)整體布局規(guī)劃》中數(shù)字中國建設(shè)目標的不斷升級,我國算力中心產(chǎn)業(yè)發(fā)展步入新階段,催生出新一輪算力中心建設(shè)高潮。尤其是“雙碳目標發(fā)布后,為進一步推動算力中心整體低碳化發(fā)展,促進算力中心機房的快速、高效散熱,滿足國家對算力中心綠色、節(jié)能等建設(shè)需求,液冷技術(shù)成為未來(一)政策背景:綠色發(fā)展備受關(guān)注,能耗要求日趨算力中心行業(yè)的高耗能和碳排放問題引起諸多關(guān)注。近年來,我國算力中心在實現(xiàn)規(guī)?;?、集約化的同時,算力中心耗電量也在不斷攀升,設(shè)備部署呈現(xiàn)出“高密度、高耗能、異構(gòu)化”等發(fā)展特點。在“雙碳”戰(zhàn)略目標和全球能源治理改革的宏觀形式下,加快推動算力01年0推動重點領(lǐng)域節(jié)能降碳的若干意見》首次提到將數(shù)據(jù)中心行業(yè)納入重點推進節(jié)能降碳領(lǐng)域。此外,為助力綠色低碳轉(zhuǎn)型,國家和各地政府多次出倡導節(jié)能減排的相關(guān)政策文件,在能耗總量限制算力中心綠色低碳發(fā)展持續(xù)深化,主管部門對電能利用效率(PUE)提出明確要求。PUE是算力中心最常見的評價性能指標,也是行業(yè)評價算力中心綠色性能的主要衡量指標,PUE值越接近于1,則PUE要求持續(xù)提升。20217月,工信部印發(fā)《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年2023年底,新建大型及以PUE1.3以下。20221月,國家發(fā)改委同意啟動建、西部樞紐節(jié)點數(shù)據(jù)中心PUE分別控制在1.25、1.2以下。2023年4月,財政部、生態(tài)環(huán)境部、工信部聯(lián)印發(fā)《綠色數(shù)據(jù)中心政府采購需求標準(試行20236月起數(shù)據(jù)中心電能比不高于1.4,2025年起數(shù)據(jù)中心電能比不高于1.3。北京、上海、深圳等其他地方政府也相繼對算力中心PUE提出了一定的限制要求。與此同時(二)發(fā)展環(huán)境:單機功率密度提升,散熱問題愈發(fā)量呈爆發(fā)式增長,人工智能、大數(shù)據(jù)、5G、IoT、AIGC促進我國算力中心建設(shè)規(guī)模高速增長。截至2023年,我國提供算力810230EFLOPS1。中心的單機架功率密度已接近8kW,少數(shù)超大型算力中心的單機架功率密度已達20kW。當下,我國大型算力中心的建設(shè)加速及以ChatGPT為代表的新人工智能時代的到來,人工智能的應用需求日益案。IT設(shè)備產(chǎn)生的熱量不斷增加,而算力中心的IT設(shè)備的正常運行。當前,液冷技術(shù)通過冷卻色低碳發(fā)展、降低算力中心PUE。(三)標準走勢:標準制定不斷完善,行業(yè)發(fā)展持續(xù)信部《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年5G等新型基礎(chǔ)設(shè)算力中心冷板式液冷技術(shù)標準制定步入“新常態(tài)”,行業(yè)朝向規(guī)范化發(fā)展。算力中心液冷技術(shù)作為一項新的“革命技術(shù),當前我國針對液冷技術(shù)的研究仍處于起步階段,其液冷服務器的設(shè)計、運維、安防等方面的行業(yè)標準較為空缺,業(yè)界尚未形成統(tǒng)一的技術(shù)標準,增高了產(chǎn)業(yè)發(fā)展壁壘。得益于政策的支持與引導,液冷產(chǎn)業(yè)標準規(guī)范化迎來了快速發(fā)展,算力中心冷板式、浸沒式、噴淋式液冷出。特別是冷板式液冷技術(shù)標準制定逐步朝向常態(tài)化、規(guī)范化邁進。中國信息通信研究院云計算與大數(shù)據(jù)研究所依托ODCC(開放數(shù)據(jù)中心委員會)“冰河”項目組,與業(yè)界聯(lián)起草發(fā)布的《數(shù)據(jù)中算力中心冷板式液冷服務器系統(tǒng)的服務器、CDU和其他相關(guān)技術(shù)要(四)產(chǎn)業(yè)現(xiàn)狀:系統(tǒng)節(jié)能潛力顯著,技術(shù)迭代創(chuàng)新冷市場主要以歐美公司為主,其中美國公司占比超過60%,是冷板IT設(shè)備傳導到冷卻介質(zhì)中;在控制系統(tǒng)方通過先進的集中供電、總線盲插和原生液冷技術(shù),實現(xiàn)節(jié)點、機柜、機房三級可靠性設(shè)計,PUE1.06TUV南德制冷PUETUV萊茵液冷防泄漏認證,已商用部署超過5萬節(jié)點,成功應用于互聯(lián)網(wǎng)、高校、政企、金融等領(lǐng)域,成為商等方式,提升IT設(shè)備散熱效率。冷板式液冷系統(tǒng)可以分為一次側(cè)(室外)循環(huán)和二次側(cè)循環(huán)1塔和干冷器等設(shè)備實現(xiàn),可提供30℃以上的冷卻水。冷板式液冷一IT設(shè)備連接,然后再通過循環(huán)管路返回冷量分配單元的設(shè)計。來PUE值。冷板材質(zhì)一般由高導熱系數(shù)的材料(如銅PUE值。由于冷板在工作過程中不直接接觸發(fā)熱元冷量分配單元(CoolantDistributionUnit,CDU)機與室外機發(fā)生間壁式換熱,工質(zhì)不做混。高溫冷卻液攜帶的熱量2℃的水平,從而防止冷凝現(xiàn)象發(fā)生。止不同路徑的芯片散熱冷板出現(xiàn)欠流或者過流情況,減少因節(jié)點溫作為綜節(jié)能措施及清潔能源得到了業(yè)界的廣泛關(guān)注。國家發(fā)改委市經(jīng)信局印發(fā)的《北京市數(shù)據(jù)中心統(tǒng)籌發(fā)展實施方案(2021-20232中余熱回收后的冷凍水和自然冷卻后的冷凍水進行混后,共同為34液冷的二次側(cè)取熱,CDU與熱回收的換熱器進行并聯(lián)。運行熱回收工5非水基冷卻液主要分為碳氫及有機硅類以及碳氟化合物類,使用時需在浸潤材料兼容性上進行嚴格審查和測試。碳氫及有機硅類冷卻液常溫下呈黏稠狀因此這一類被業(yè)內(nèi)統(tǒng)稱為“油類冷卻液常見的油類冷卻液可以分為天然礦物油、成油、有機硅油等,普遍具有沸點高不易揮發(fā)、不腐蝕金屬、環(huán)境友好、毒性低等共性且成本較低,但由于具有閃點使用中有可燃助燃風險。油類冷卻液因其粘度、粘性和易吸濕水解等問題一般不作為冷板式液冷的冷卻液。碳氟類冷卻液是將碳氫化物中所含的一部分或全部氫換為氟而得到的一類有機化根據(jù)碳氟化物的組成成分和結(jié)構(gòu)不同可為氯氟烴(CFC)、氫代氯氟烴C)、氫氟烴C)、全氟碳化物(、氫氟醚()等,普遍具有良好的電絕緣性和綜傳熱性能,可以實現(xiàn)無閃點不可燃,且惰性較強不易與其它物質(zhì)反應是良好的6IT硬件產(chǎn)品迭代升級,同時導致承載這些應用負載的服冷板式液冷技術(shù)能夠有效降低算力中心PUE,相比于浸沒式液操作性更強,且對于當前的算力中心整體架構(gòu)及后續(xù)維護影響不大,運維模式、機房承重與傳統(tǒng)風冷場景基本一致,是目前成熟度較高、應用更為廣泛的液冷散熱方案。算力中心機柜液冷化改造的主要工作在于對原有機柜及服務器的冷板式改造,改造內(nèi)容包括配電、布U堵塞等監(jiān)控系統(tǒng)。整體機房液冷化改造的主要工作在于部署高密度液冷機柜、鋪設(shè)室內(nèi)外液冷管道、安裝冷卻液體流量分配單元(CDU350WGPU700W,AI集群算力密度普遍達到50kW/柜3。目前,自然風冷的算力中心單柜密度一般只支持8-器節(jié)點的緊密結(jié),可以節(jié)省更多的空間,使得算力中心可以在有8-10kW,而128CPU66kW供電。采用這種高密度節(jié)的計算節(jié)點等計算密集型應用場景中,適采用冷板式液冷技術(shù)。3500倍,可有效解決日漸升高的高密度服務器的散冷卻系統(tǒng)的設(shè)備運行能耗。某典型節(jié)點采用CPU、內(nèi)存冷板覆蓋,PUE值得到改善,而且能效水平得到了明顯的提升。在德國,IBMSuperMUC超算307286016個計算內(nèi)HPC(High-performancecomputing)系統(tǒng)標桿。國內(nèi),中科院使用冷板式液冷服務器建設(shè)了地球系統(tǒng)數(shù)值模擬裝置原型系統(tǒng)”,不但有效降低了E分流器裝有光電式漏液傳感器,分別在進水和出水處,通過(RingMainUint)監(jiān)控告警上報網(wǎng)管平;風液換熱器(液冷門)通過浮子監(jiān)控冷硬水位,通過RMU監(jiān)控告警上報網(wǎng)管平。此外,7-30天預測風險硬盤,實現(xiàn)高達93%準確率的診斷率,實現(xiàn)預診愈一體化,降50%4。量隨算力中心數(shù)量的增多逐年攀升。2021年全國算力中心的耗電總量為1116億千瓦時,2022年我國算力中心能耗總量1300同比增長16%2030年,能耗總量將達到約3800
72019-2023年我國算力中心耗電量(億千瓦時IT負荷,其PUE值。4來源:ODCC制從而大大降低算力中心的冷卻能耗。此外,冷板式液冷技術(shù)采用55-60℃,可實現(xiàn)全年自然冷卻,并且,由于其回水溫度可達55℃以上,熱品質(zhì)較高,可采用余熱回收技術(shù)5%。焊接和沖洗,效率可50%,大大加快了部署和啟用的速度。另外,U位自動識別、第三方的冷板進出水與機柜manifold+48VBusbar設(shè)計,通過機柜Busbar銅排為服務器節(jié)點供電,交換網(wǎng)cable背板設(shè)計,服務器節(jié)點業(yè)務、管理網(wǎng)絡接口均通過cablecable連接器方式,實通過將部分或全部服務器的散熱方式從傳統(tǒng)的風冷技術(shù)轉(zhuǎn)變?yōu)镋值,從而減少總能耗。此舉不僅有助于滿足能耗要求,還能提高服務器的散熱效率,提高計算能力,同時降低風扇噪音和空氣流動所帶來的問題,提升服務器的穩(wěn)定性和可靠性。然而,風-液改造也需要克服一系列挑戰(zhàn),包括液冷系統(tǒng)設(shè)計和維護成本,適應現(xiàn)有基礎(chǔ)設(shè)施改造,以及應對潛在液體泄漏等風險。因此,在實施風-液改造時,算力中心運營商需要全面考慮技術(shù)、經(jīng)濟和安全等方面的因素,以確保算力中無需進行大規(guī)模的硬件改動。例如,美國服務器制造商
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 工藝染織品制作工變更管理能力考核試卷含答案
- 磚瓦干燥工持續(xù)改進知識考核試卷含答案
- 數(shù)字化解決方案設(shè)計師變革管理測試考核試卷含答案
- 海南兒童美術(shù)培訓教案
- 排污單位自行監(jiān)測實驗室管理技術(shù)規(guī)范-編制說明
- 酒店員工離職與交接制度
- 超市員工培訓及提升制度
- 城市防洪知識培訓
- 活動匯報技巧培訓
- 2024-2025學年江蘇省鹽城市五校聯(lián)盟高一下學期第一次聯(lián)考歷史試題 (解析版)
- 工程建設(shè)項目合同最終結(jié)算協(xié)議書2025年
- 食堂檔口承包合同協(xié)議書
- 腦橋中央髓鞘溶解癥護理查房
- 云南公務接待管理辦法
- 農(nóng)行監(jiān)控錄像管理辦法
- 急性呼吸衰竭的診斷與治療
- 職業(yè)技能認定考評員培訓
- DB11∕T 1448-2024 城市軌道交通工程資料管理規(guī)程
- JG/T 163-2013鋼筋機械連接用套筒
- 職業(yè)技術(shù)學院數(shù)字媒體技術(shù)應用專業(yè)人才培養(yǎng)方案(2024級)
- 裝修施工獎罰管理制度
評論
0/150
提交評論