版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
智算中心如何撐起大模型時(shí)代的藍(lán)圖?ChinaAIDCinfrastructureIndustry中國(guó)のAIDCインフラ産業(yè)系頭豹研究院獨(dú)有的高度機(jī)密性文件(在報(bào)告中另行標(biāo)明出處者除外)。未經(jīng)頭豹研究院事先書(shū)面許可,任何人不得以任何方式擅自復(fù)制約定的行為發(fā)生,頭豹研究院保留采取法律措施,追究相關(guān)人員責(zé)任的權(quán)利。頭豹研究院開(kāi)展的所有商業(yè)活動(dòng)均使用“頭”的商號(hào)、商標(biāo),頭豹研究院無(wú)任何前述名稱之外的其他分支機(jī)構(gòu),也未授權(quán)或聘用其他任何第三方代表頭豹研究院揭示大模型從訓(xùn)練到推理的全生命周期技術(shù)范式揭示大模型從訓(xùn)練到推理的全生命周期技術(shù)范式,包括其資源高度密集的訓(xùn)練方法、追求極致效率的推理優(yōu)化策略,以及模型廠商一方面,深入探究支撐模型運(yùn)行的AIDC基礎(chǔ)據(jù)中心在供電、散熱及能效(PUE)等方面1)大模型的訓(xùn)練與推理在技術(shù)流程、資源消耗3)從全球和中國(guó)的算力結(jié)構(gòu)來(lái)看,“智算”規(guī)模超——?市場(chǎng)關(guān)注點(diǎn)從模型性能向業(yè)務(wù)適配性轉(zhuǎn)移:大模型市場(chǎng)已從早期追求性能與價(jià)格的同質(zhì)化競(jìng)爭(zhēng),演變?yōu)橐詷I(yè)務(wù)場(chǎng)景適配為核心的價(jià)值驅(qū)動(dòng)階段。市場(chǎng)關(guān)注點(diǎn)不再是模型的絕對(duì)能力,而是能否在特定場(chǎng)景以最優(yōu)性價(jià)比創(chuàng)造實(shí)際業(yè)務(wù)價(jià)值。這一趨勢(shì)體現(xiàn)為分層化的應(yīng)用策略:金融、醫(yī)療等高價(jià)值實(shí)時(shí)交互場(chǎng)景傾向于采檔分析等業(yè)務(wù)處理層普遍采用7B級(jí)精煉模型以平衡成本與效率;而在邊緣設(shè)備端則部署1.5B級(jí)微型模型,以滿足極致?從內(nèi)卷轉(zhuǎn)向差異化競(jìng)爭(zhēng):大模型市場(chǎng)正告別初期追逐技術(shù)參數(shù)和低價(jià)的同質(zhì)化競(jìng)爭(zhēng),全面轉(zhuǎn)向以自身優(yōu)勢(shì)為核心的差?智算成為核心引擎,中美主導(dǎo)兩極格局:全球算力建設(shè)正從總量擴(kuò)張轉(zhuǎn)向結(jié)構(gòu)躍遷,2023年全球智算力規(guī)模達(dá)到875EFLOPS,首次超過(guò)基礎(chǔ)算力,成為增長(zhǎng)的主導(dǎo)引擎。在區(qū)國(guó)算力占全球41%,中國(guó)占31%,合計(jì)超過(guò)七成。盡管總量居次,但中國(guó)的智算模的39%,反映出其在資源受限背景下優(yōu)先發(fā)展AI基礎(chǔ)設(shè)施的國(guó)家戰(zhàn)略。?功耗激增倒逼制冷技術(shù)向液冷革新:新一代AI芯片與服務(wù)器的功耗正急劇攀升,單服務(wù)器總功耗已突破14kW,給智算中心帶來(lái)了嚴(yán)峻的電力和散熱挑戰(zhàn)。這導(dǎo)致全球及統(tǒng)風(fēng)冷技術(shù)難以支撐高密度算力部署。因此,數(shù)據(jù)中心制冷技術(shù)正加速?gòu)膫鹘y(tǒng)風(fēng)冷向液冷躍遷,后者已成為滿足下一代智算中心能效控制目標(biāo)的核心技術(shù)路徑。23?2025LeadLeoCONTENTSu大模型產(chǎn)業(yè)模型訓(xùn)練層--------06?大模型訓(xùn)練全流程框架?大模型預(yù)訓(xùn)練階段的方法總覽?決定大模型預(yù)訓(xùn)練階段成效的關(guān)鍵工具?預(yù)訓(xùn)練階段的核心價(jià)值?后訓(xùn)練階段流程?后訓(xùn)練階段流程核心技術(shù)匯總?后訓(xùn)練階段的核心價(jià)值u大模型產(chǎn)業(yè)模型推理層--------15?大模型推理階段流程框架?大模型推理階段主流參數(shù)?大模型推理PD分離技術(shù)u大模型產(chǎn)業(yè)基礎(chǔ)大模型市場(chǎng)洞察--------20?基座大模型調(diào)用量規(guī)模?基礎(chǔ)大模型廠商競(jìng)爭(zhēng)差異化路線初顯--------23?大模型正從追逐頂尖性能向不同場(chǎng)景適配轉(zhuǎn)移CONTENTSu大模型產(chǎn)業(yè)AI基礎(chǔ)設(shè)施層深度研究--------28?新服務(wù)器功耗增加?成本影響因素分析?智算中心的成本與能耗?制冷技術(shù)PUE發(fā)展趨勢(shì)?數(shù)據(jù)中心電力需求?全球及中國(guó)數(shù)據(jù)中心平均年P(guān)UEuAIDC全球版圖深度研究?全球算力及智算建設(shè)規(guī)模4?2025LeadLeoCONTENTS?美國(guó)算力建設(shè)現(xiàn)狀?歐洲算力建設(shè)現(xiàn)狀?亞太算力建設(shè)現(xiàn)狀u頭豹業(yè)務(wù)合作介紹--------53u方法論及法律聲明--------545?2025LeadLeo第二章節(jié):大模型訓(xùn)練層大模型訓(xùn)練的全流程框架,是一個(gè)先通過(guò)預(yù)訓(xùn)練和監(jiān)督微調(diào)構(gòu)建模型的基礎(chǔ)能力,再通過(guò)人類反饋強(qiáng)化學(xué)習(xí)完性工程。大模型預(yù)訓(xùn)練階段的核心方法是通過(guò)自回歸語(yǔ)言建模學(xué)習(xí)海量文本的統(tǒng)計(jì)規(guī)律并引入任務(wù)提預(yù)訓(xùn)練大模型的價(jià)值在于利用海量、多樣化語(yǔ)料提取深度通用知識(shí)與語(yǔ)義表示,從而大幅提升微調(diào)效率與模型泛化能后訓(xùn)練流程包括監(jiān)督微調(diào)、獎(jiǎng)勵(lì)模型訓(xùn)練與PP大模型訓(xùn)練階段消耗的資源主要集中在預(yù)訓(xùn)練階段,需要數(shù)千至上萬(wàn)塊GPU并行運(yùn)算、處理千億級(jí)至萬(wàn)億級(jí)Token數(shù)據(jù)、耗時(shí)數(shù)周至數(shù)6?2025LeadLeo大模型訓(xùn)練的全流程框架,是一個(gè)先通過(guò)預(yù)訓(xùn)練和監(jiān)督微調(diào)構(gòu)建模型的基礎(chǔ)能力,再通過(guò)人類反饋+oo大模型的訓(xùn)練始于海量數(shù)據(jù)處廣泛的文本中學(xué)習(xí)世界知識(shí)與初步成為一個(gè)具備對(duì)話能力的練出一個(gè)能評(píng)估回答優(yōu)劣的獎(jiǎng)將作為“裁判”在強(qiáng)化學(xué)習(xí)中持一個(gè)兼具強(qiáng)大能力與可靠?jī)r(jià)值7來(lái)源:專家訪談,頭豹研究院7大模型預(yù)訓(xùn)練階段的核心方法是通過(guò)自回歸語(yǔ)言建模學(xué)習(xí)海量文本的統(tǒng)計(jì)規(guī)律并引入任務(wù)提示以獲-k,…,ui-1;Θ) AR模型……Trm…TrmTrmTrm…Trm…TrmTrmTrm………再見(jiàn),goodbye,銷售,”,并訓(xùn)練其準(zhǔn)確預(yù)測(cè)后續(xù)的正o預(yù)訓(xùn)練階段模型通過(guò)自回歸語(yǔ)言建模從海量文本中學(xué)習(xí)統(tǒng)計(jì)規(guī)律。模型將每個(gè)詞映射為連續(xù)向量,經(jīng)過(guò)多層Transformer自注意力模塊,依次預(yù)測(cè)下一個(gè)詞,訓(xùn)練時(shí)最大化所有位置的預(yù)測(cè)準(zhǔn)確度,使模型既能捕捉短期詞匯搭配,也能掌握長(zhǎng)程語(yǔ)義結(jié)構(gòu),為各類下游任務(wù)提供通用o為了讓模型在推理時(shí)無(wú)需額外微調(diào)即可完成新任務(wù),預(yù)訓(xùn)練數(shù)據(jù)采用“任務(wù)說(shuō)明+示例”格式化輸入。輸入多條示例加說(shuō)明可實(shí)現(xiàn)少樣本學(xué)習(xí);輸入單條示例加說(shuō)明可實(shí)現(xiàn)單樣本學(xué)習(xí);僅輸入任務(wù)說(shuō)明可實(shí)現(xiàn)零樣本學(xué)習(xí)。通過(guò)這種方式,模型學(xué)會(huì)根據(jù)提示在翻譯、問(wèn)答、分類等多種場(chǎng)景中8來(lái)源:專家訪談,頭豹研究院8決定大模型預(yù)訓(xùn)練階段成效的關(guān)鍵技術(shù)維度4學(xué)習(xí)率策略批量訓(xùn)練的大小設(shè)置學(xué)習(xí)率策略正則化與梯度裁剪正則化與梯度裁剪全局梯度范數(shù)裁剪(clip_norm=1.0)可有效抑制偶發(fā)AdamW作為預(yù)訓(xùn)練的主流優(yōu)化器,通過(guò)將權(quán)重衰減從梯度更新中解耦,實(shí)現(xiàn)了更穩(wěn)定的正則化。其常用在SlimPajama-627B數(shù)據(jù)集的驗(yàn)證中,研究團(tuán)隊(duì)提升,否則易出現(xiàn)NaN或梯度爆炸oo在大規(guī)模語(yǔ)言模型的預(yù)訓(xùn)練中,合理設(shè)置批量訓(xùn)練大小、精心設(shè)計(jì)學(xué)習(xí)率預(yù)熱與衰減策略、選用經(jīng)過(guò)驗(yàn)AdamW)并配合恰當(dāng)?shù)恼齽t化與梯度裁剪,是確保訓(xùn)練穩(wěn)定性、收斂速度與最終模型o在此基礎(chǔ)上,各大技術(shù)團(tuán)隊(duì)還廣泛應(yīng)用混合精度訓(xùn)練、激活檢查點(diǎn)、流水線并行與張量并行架構(gòu)、課程學(xué)習(xí)策略以及多樣化術(shù)旨在進(jìn)一步降低計(jì)算開(kāi)銷、縮短訓(xùn)練周期并增強(qiáng)模型在大規(guī)模語(yǔ)料上的泛化能力。9來(lái)源:專家訪談,頭豹研究院9預(yù)訓(xùn)練大模型的價(jià)值在于利用海量、多樣化語(yǔ)料提取深度通用知識(shí)與語(yǔ)義表示,從而大幅提升微調(diào)提高樣本效率提升泛化能力414降低開(kāi)發(fā)成本短時(shí)間內(nèi)建立高性能模型,避免了從頭支持快速迭代有模型基礎(chǔ)上不斷融入新數(shù)據(jù),讓模型al預(yù)訓(xùn)練模型更易取得優(yōu)異效果al預(yù)訓(xùn)練模型更易取得優(yōu)異效果oo預(yù)訓(xùn)練模型通過(guò)大規(guī)模、多領(lǐng)域語(yǔ)料的自監(jiān)督學(xué)習(xí),提煉出深度語(yǔ)義表示與豐富通用知識(shí)。基于此基礎(chǔ),微調(diào)僅需少量任務(wù)數(shù)據(jù)即可快速適配專業(yè)場(chǎng)景,大幅提升樣本利用率與收斂速度,增強(qiáng)模型穩(wěn)健性。配合持續(xù)預(yù)訓(xùn)練策略,還能動(dòng)態(tài)融入新興數(shù)據(jù),保持對(duì)領(lǐng)域演化和新知識(shí)o從零訓(xùn)練不僅需投入萬(wàn)級(jí)GPU小時(shí)和月級(jí)迭代周期,還存在知識(shí)遷移門檻高、通識(shí)知識(shí)匱乏和性能瓶頸等難題。相比之下,預(yù)訓(xùn)練-微顯著降低硬件與開(kāi)發(fā)成本,使中小團(tuán)隊(duì)也能實(shí)來(lái)源:專家訪談,頭豹研究院后訓(xùn)練流程包括監(jiān)督微調(diào)、獎(jiǎng)勵(lì)模型訓(xùn)練與PPO強(qiáng)化學(xué)習(xí),目的是通過(guò)融合人工偏好反饋與強(qiáng)化學(xué)寫一段關(guān)于..的故事從Prompt數(shù)據(jù)庫(kù)中示例:“很久以前”分?jǐn)?shù):A分?jǐn)?shù):B寫一段關(guān)于..的故事從Prompt數(shù)據(jù)庫(kù)中示例:“很久以前”分?jǐn)?shù):A分?jǐn)?shù):B+從Prompt數(shù)據(jù)庫(kù)中取樣,并得到數(shù)個(gè)向6歲智力的模型向6歲智力的模型解釋強(qiáng)化學(xué)習(xí)向6歲智力的模型向6歲智力的模型解釋強(qiáng)化學(xué)習(xí)對(duì)行為給出獎(jiǎng)勵(lì)與對(duì)行為給出獎(jiǎng)勵(lì)與懲罰從人類訓(xùn)練師D>C>A>BD>C>A>Boo基礎(chǔ)預(yù)訓(xùn)練模型雖然具備強(qiáng)大的語(yǔ)言理解和生成能力,卻難以在實(shí)際對(duì)話場(chǎng)景中同時(shí)兼顧流暢度、準(zhǔn)確性與安全性,對(duì)人類意圖的把握也后訓(xùn)練階段便應(yīng)運(yùn)而生——它將監(jiān)督學(xué)習(xí)、獎(jiǎng)勵(lì)模型和強(qiáng)化學(xué)習(xí)有機(jī)結(jié)合,構(gòu)建起一個(gè)從數(shù)據(jù)采集到策略迭代o在具體操作上,后訓(xùn)練首先通過(guò)示例驅(qū)動(dòng)的監(jiān)督微調(diào),利用嚴(yán)格篩選并標(biāo)注的高質(zhì)量對(duì)話樣本校正模型的輸出分布,為模型奠定符合人類偏好的初始策略;接著基于這些標(biāo)注數(shù)據(jù)訓(xùn)練獎(jiǎng)勵(lì)模型,將主觀偏好轉(zhuǎn)化為可微分的評(píng)分信號(hào),為后續(xù)評(píng)估和優(yōu)化提供科學(xué)依據(jù);最后借助近端策略優(yōu)化等強(qiáng)化學(xué)習(xí)算法,以獎(jiǎng)勵(lì)模型的反饋為指導(dǎo),不斷迭代更新模型參數(shù),來(lái)源:專家訪談,頭豹研究院大模型后訓(xùn)練階段的核心技術(shù)匯總 推理時(shí)的思維能力人工標(biāo)注大模型后訓(xùn)練核心技術(shù)監(jiān)督微調(diào)(SFT)獎(jiǎng)勵(lì)模型訓(xùn)練近端策略優(yōu)化離線軌跡——終端獎(jiǎng)勵(lì){0,1}值函數(shù)訓(xùn)練o后訓(xùn)練流程首先通過(guò)監(jiān)督微調(diào)利用人類標(biāo)注快速校正預(yù)訓(xùn)練模型偏差,構(gòu)建符合用戶期望的初始策略;隨后獎(jiǎng)勵(lì)模型將偏好信息轉(zhuǎn)化為可微分評(píng)分,為優(yōu)化提供清晰的量化目標(biāo);算法協(xié)同發(fā)力——近端策略優(yōu)化與信賴域優(yōu)化通過(guò)約束兼顧性能與穩(wěn)定,偏好對(duì)優(yōu)化簡(jiǎn)化流程并降低方差,專家示范對(duì)離線軌跡價(jià)值訓(xùn)練提高樣本利用率,長(zhǎng)鏈思維示例相對(duì)優(yōu)化策略崩潰,DPO提升訓(xùn)練效這套流程顯著提升了模型的生來(lái)源:專家訪談,頭豹研究院大模型后訓(xùn)練階段的價(jià)值是通過(guò)引入人類偏好反饋與安全約束,并結(jié)合多元化策略優(yōu)化,構(gòu)建閉環(huán)提升生成質(zhì)量在引入監(jiān)督微調(diào)與RLHF后,InstructGPT相較于GPT-3在遵循用戶指令、保持事實(shí)準(zhǔn)確性以及減少生成幻覺(jué)方面表現(xiàn)大增強(qiáng)推理連貫性540B在GSM8K數(shù)學(xué)推理基準(zhǔn)上的準(zhǔn)確率由標(biāo)準(zhǔn)提示下的33%飆升至57%強(qiáng)化安全性與對(duì)齊度害或不當(dāng)內(nèi)容,使模型行為更符合人類確率實(shí)現(xiàn)翻倍增長(zhǎng),同時(shí)有效抑制有害提高訓(xùn)練效率與穩(wěn)健性訓(xùn)練成本與穩(wěn)定性,在小樣本或離線數(shù)據(jù)o后訓(xùn)練階段是指在大規(guī)模預(yù)訓(xùn)練模型之上,依次開(kāi)建與多路徑策略優(yōu)化等流實(shí)現(xiàn)對(duì)預(yù)訓(xùn)練模型在生成質(zhì)量、行為規(guī)范和推理能o后訓(xùn)練為大模型帶來(lái)以下顯著價(jià)值:首先,通過(guò)直接利用已有標(biāo)注或離線數(shù)據(jù),能夠以較低成本快速助獎(jiǎng)勵(lì)模型和策略約束,有效強(qiáng)化模型輸出的安全性與對(duì)齊度,顯著減少有元化的優(yōu)化算法(如PPO、協(xié)同作用,大幅提高復(fù)雜邏輯與多步推理任務(wù)的效來(lái)源:專家訪談,頭豹研究院大模型訓(xùn)練階段消耗的資源主要集中在預(yù)訓(xùn)練階段,需要數(shù)千至上萬(wàn)塊GPU并行運(yùn)算、處理千億級(jí)大模型訓(xùn)練的資源配置與時(shí)間要求90-99%的算力消耗預(yù)訓(xùn)練耗時(shí)34耗時(shí)34天耗時(shí)8天oo大模型訓(xùn)練需要海量算力、存儲(chǔ)和數(shù)據(jù)資源,其中預(yù)訓(xùn)練階段往往消耗了總算力的90-99%及絕大部分時(shí)間:要下載并處理數(shù)TB級(jí)文本語(yǔ)料,調(diào)度數(shù)千乃至上萬(wàn)塊GPU持續(xù)數(shù)周至數(shù)月完成基礎(chǔ)參數(shù)學(xué)習(xí);而微調(diào)階段因僅需在已有模型上進(jìn)行少量梯度更新與標(biāo)注評(píng)估,其算力消耗僅占1-10%,典型周期也6,000塊A100GPU上投入續(xù)微調(diào)階段又耗時(shí)8天,總計(jì)42天;LLaMA系列則訓(xùn)練1-1.4萬(wàn)億Token,LLaMA-2則在42天內(nèi)完成2萬(wàn)億Token的預(yù)訓(xùn)練,LLaMA-3動(dòng)用約16,384塊H100GPU在54天內(nèi)訓(xùn)練來(lái)源:專家訪談,頭豹研究院第三章節(jié):大模型推理層大模型推理后處理技術(shù)是通過(guò)溫度采樣、Top-k/Top-p裁剪與貪心選擇對(duì)輸出概率分布進(jìn)行調(diào)控,為了在生成大模型推理分為并行Prefill與增量Decode兩階段,分別依托模型并行與批量吞吐、以及KV緩存與注意力優(yōu)化,實(shí)現(xiàn)了高效低延遲的推理PD分離是將一次性上下文預(yù)填充與逐token串行解碼解耦的策略,實(shí)現(xiàn)了GPU算力的精準(zhǔn)調(diào)度與高效利用,顯著降低了響應(yīng)延遲并提?2025LeadLeo我我是是我是工程我是工工大模型解碼流程大模型解碼流程大模型工大模型解碼流程大模型解碼流程大模型解碼流程程解碼流程大模型vvvv離散的token,再通過(guò)嵌入層將每個(gè)token映射為連續(xù)的向Transformer塊組成的網(wǎng)絡(luò),并采樣生成,過(guò)程中利用KVvalue,大幅加速自回歸推理;生成的token經(jīng)后處理合并成來(lái)源:專家訪談,頭豹研究院大模型推理后處理技術(shù)是通過(guò)溫度采樣、Top-k/Top-p裁剪與貪心選擇對(duì)輸出概率推理環(huán)節(jié)的后處理主流參數(shù)溫度Temperature:控制生成文本隨機(jī)性的參數(shù)更傾向于選擇最可能的單詞,較高的溫度值,如1.0,會(huì)產(chǎn)生更隨機(jī)的輸出, 溫度Temparature低溫度設(shè)定0.50.5跑吃跑吃叫貴好開(kāi)狗貓車好的好的毛oo大模型推理后處理方式包括溫度采貪心策略。溫度采樣通過(guò)對(duì)logits進(jìn)行縮放來(lái)調(diào)節(jié)生成隨機(jī)性——溫度越高,模型越傾向于選擇低概率詞以提升多樣性;Top-k采樣則僅裁剪長(zhǎng)尾噪聲;Top-p核采樣動(dòng)態(tài)兼顧覆蓋度與效率;貪心策略始終選取最大概率詞,確保輸出一致但可在生成多樣性、連貫性與風(fēng)險(xiǎn)控等超參數(shù),而非統(tǒng)一采用一種采樣策略,是因?yàn)椴煌瑧?yīng)用場(chǎng)景對(duì)文本生成的多樣性與穩(wěn)定性需求迥異。創(chuàng)意寫作往往需要更高的探索度,而問(wèn)答或摘要?jiǎng)t側(cè)重準(zhǔn)確與一致;同時(shí),未經(jīng)裁剪的原始概率分布可過(guò)可調(diào)參數(shù),能夠靈活截?cái)嗷蚍糯蟾怕饰膊?,使模型在多樣性與可靠性之間獲得最佳折中,滿足各類下來(lái)源:專家訪談,頭豹研究院大模型推理分為并行Prefill與增量Decode兩階段,分別依托模型并行與批量吞吐、以及KV緩存與注大模型推理核心階段——Prefill預(yù)填充與Deco特征處理方式計(jì)算強(qiáng)度資源瓶頸GPU利用率工作特點(diǎn)時(shí)間影響因素Prefill階段并行處理所有輸入Token高,涉及矩陣-矩陣乘法主要受限于GPU計(jì)算能力(計(jì)算由于并行性,可以實(shí)現(xiàn)高利用率閱讀者(一次理解整篇文章)類似"速讀",一次性理解問(wèn)題長(zhǎng)度Decode階段逐個(gè)(自回歸)生成輸出token較低(每個(gè)token),涉及矩陣-向量乘法主要受限于內(nèi)存帶寬和延遲(內(nèi)由于串行性,可能存在利用率不足作家(一次寫一類似"寫作",逐步構(gòu)建回答長(zhǎng)度特點(diǎn):Prefill階段由于能夠并行處理所有輸入token,主要受限于GPU的計(jì)算能力,優(yōu)化重點(diǎn)在于最大化利用GPU的并行計(jì)算核心和高效處理批量請(qǐng)求。Decode階段面臨的是自回歸生成的串行限制,無(wú)法樣充分利用GPU的并行計(jì)算能力,其性能主要受限于內(nèi)存帶寬注意力等降低內(nèi)存消耗并加快計(jì)算速度。批次進(jìn)行處理,從而提高GPU的利用率和吞吐量oo大模型推理階段Prefill和處理所有輸入token,通過(guò)多層Transformer計(jì)算并構(gòu)階段則采用自回歸方式逐token生成輸出,每次僅做增量推理并依托前序緩存,o根據(jù)兩階段的資源與計(jì)算特性,需分別制定優(yōu)化策略:對(duì)Prefill階段,應(yīng)強(qiáng)化GPU計(jì)算吞吐——通過(guò)批量合并多個(gè)請(qǐng)求提升并行度,并運(yùn)用模型并行將Transformer層切分至多塊GPU;對(duì)Decode階段,則側(cè)重內(nèi)存與延遲優(yōu)化——利用KV緩存避免重復(fù)計(jì)算,查詢注意力等技術(shù)以降低內(nèi)存帶寬占用和加速串行來(lái)源:專家訪談,頭豹研究院大模型推理核心技術(shù)——Prefill與Decoa近似Decode階段ua近似Decode階段u近似Prefill階段),硬件資源利用率提升迥異的階段都得到更充分、獨(dú)立優(yōu)化路徑得以實(shí)現(xiàn)oo傳統(tǒng)推理流程將Prefill階段導(dǎo)致Decode無(wú)法發(fā)揮GPU的并行計(jì)算能力,其耗時(shí)占總推理時(shí)間超過(guò)99%,既造成響應(yīng)延遲極高,也讓海量算力資源在生成過(guò)o而PD分離策略將Prefill與Decode解耦后,能夠?yàn)閮呻A段分別應(yīng)用最優(yōu)調(diào)度:大化GPU并行吞吐,顯著專用流水線,大幅提升后一分離不僅顯著提升整體推理性能和資源利用率,還為獨(dú)立的分階段優(yōu)化與系統(tǒng)級(jí)智能調(diào)度奠定了堅(jiān)來(lái)源:專家訪談,頭豹研究院第四章節(jié):大模型產(chǎn)業(yè)基礎(chǔ)大模型市場(chǎng)洞察大模型基礎(chǔ)模型層是基礎(chǔ)預(yù)訓(xùn)練模型與開(kāi)發(fā)平臺(tái)的有機(jī)集合,價(jià)值在于通過(guò)統(tǒng)一的算力接口與靈活的微調(diào)工具大模型基礎(chǔ)模型層是基礎(chǔ)預(yù)訓(xùn)練模型與開(kāi)發(fā)平臺(tái)的有機(jī)集合,價(jià)值在于通過(guò)統(tǒng)一的算力接口與靈活的微調(diào)工具中國(guó)大模型產(chǎn)業(yè)已進(jìn)入全球競(jìng)爭(zhēng)的第一梯隊(duì),其核心優(yōu)尖性能的同時(shí),以成本效益等非對(duì)稱優(yōu)勢(shì)開(kāi)大模型廠商正告別技術(shù)參數(shù)與價(jià)格的同質(zhì)化內(nèi)卷,全面轉(zhuǎn)向一個(gè)依托各自核心稟賦、展開(kāi)差異大模型市場(chǎng)的關(guān)注焦點(diǎn)正發(fā)生遷移,已從對(duì)模型極限性能的單一追求,全面轉(zhuǎn)向以業(yè)務(wù)場(chǎng)景契合度與商業(yè)價(jià)?2025LeadLeo基礎(chǔ)大模型層全景圖譜 Deepseek-v3Doubao-1.5-pro通義千問(wèn)-MaxERNIE4.0TurboDALL-E3Doubao-1.5-Vision-pro通義千問(wèn)-VLGLM-4V-Plus豆包語(yǔ)音大模型訊飛語(yǔ)音大模型通義千問(wèn)-Audio豆包語(yǔ)音大模型訊飛語(yǔ)音大模型通義千問(wèn)-Audio-TurboGLM-4V-Voice2.5proGPT-4oSenseNova-V6-ProERNIE4.5Deepseek-v3Qwen2.5-MaxNLlama3通義萬(wàn)相2.1MiniMax-T2VVidu1.0可靈1.6GPT-4oDoubao-1.5-proGPT-4oDoubao-1.5-proERNIE4.5Hunyuan-Turbo通義千問(wèn)-Maxoo無(wú)論是中國(guó)還是海外的頭部廠商,其技術(shù)演進(jìn)路線均明確指向原生多模態(tài),即從處理單一信息類型向融合處理文本、視覺(jué)、聽(tīng)覺(jué)的統(tǒng)一智能Gemini為代表的模型已成為業(yè)界共同追逐的技o(jì)市場(chǎng)正沿著兩條不同的商業(yè)化道路分野,一是為核心的“平臺(tái)生態(tài)化”高粘性的商業(yè)閉環(huán);二Deepseek為代表的“開(kāi)過(guò)開(kāi)放技術(shù)、構(gòu)建廣泛的開(kāi)發(fā)者社區(qū)來(lái)贏得市場(chǎng),這兩種路徑的博弈與共存定義了當(dāng)前的市來(lái)源:專家訪談,頭豹研究院隨著大模型進(jìn)入指數(shù)級(jí)增長(zhǎng)的產(chǎn)業(yè)應(yīng)用期,市場(chǎng)調(diào)用量正迅速向具備云基礎(chǔ)設(shè)施與海量應(yīng)用場(chǎng)景雙火山引擎阿里云百度智能云其它2025.06E2025.07E2025.08E2025.09E2025.06E2025.07E2025.08E2025.09Eoo從2024年至今,大模型的調(diào)用量的指數(shù)級(jí)增長(zhǎng),公有云大模型調(diào)用量正經(jīng)歷爆發(fā)式的指數(shù)增長(zhǎng),從2024年1月份的8,000億Tokens增長(zhǎng)至2025年4月份的71.8萬(wàn)億標(biāo)志著市場(chǎng)已從前期的技術(shù)驗(yàn)證與小范圍試點(diǎn),全面邁向大規(guī)模產(chǎn)業(yè)應(yīng)用的o其次,市場(chǎng)競(jìng)爭(zhēng)格局已寡頭形態(tài):火山引擎憑借其龐大應(yīng)用生態(tài)的驅(qū)里云與百度智能云則構(gòu)成穩(wěn)固的第二梯隊(duì),共同分割了近四成市場(chǎng)。這種高度集中的調(diào)用量表明,強(qiáng)大的云基礎(chǔ)設(shè)施與海量的自有應(yīng)用場(chǎng)景,已成為大模型商業(yè)化落地的關(guān)鍵競(jìng)爭(zhēng)壁壘。來(lái)源:專家訪談,頭豹研究院來(lái)源:專家訪談,頭豹研究院大模型廠商正告別技術(shù)參數(shù)與價(jià)格的同質(zhì)化內(nèi)卷,全面轉(zhuǎn)向一個(gè)依托各自核心稟賦、展開(kāi)差異化戰(zhàn)基礎(chǔ)大模型廠商競(jìng)爭(zhēng)差異化路線初顯戰(zhàn)略核心是“云智一體”,強(qiáng)調(diào)全棧自研與產(chǎn)業(yè)深度融合。依托從昆侖芯、飛槳深度學(xué)習(xí)框架到文心大模型的全棧技術(shù),百度主打端到端的解決方案。其路徑是通過(guò)“B端標(biāo)桿案例”輻射千行百業(yè),實(shí)現(xiàn)模型技術(shù)與產(chǎn)業(yè)價(jià)值的緊密掛鉤。C)阿里云定位為“AI基礎(chǔ)設(shè)施的提供者”,力推“模型即服為核心,通過(guò)其公有云平臺(tái),向開(kāi)發(fā)者和企業(yè)o隨著時(shí)間推移,大模型廠商從初期卷模型參數(shù)、卷價(jià)格的同質(zhì)化競(jìng)爭(zhēng),正逐步演變?yōu)橐劳凶陨砗诵姆A賦,尋求差異化發(fā)展的清晰格局。例如,百度智能云堅(jiān)持“云智一體”的全棧路線,致力于產(chǎn)業(yè)深度融合;阿里(MaaS)”的AI基建與開(kāi)源生態(tài);騰訊云選擇“場(chǎng)景驅(qū)動(dòng)、生態(tài)嵌入”的務(wù)實(shí)路徑;科大訊飛則深耕“行業(yè)垂直整山引擎以“應(yīng)用反哺技Deepseek則憑借“極新,在全球技術(shù)社區(qū)采取“生態(tài)嵌入式”的務(wù)實(shí)路徑,以場(chǎng)景驅(qū)動(dòng)模型發(fā)展。騰訊將混元大模型的能力無(wú)縫融入其龐大的社交(微信/QQ)、內(nèi)容(視頻/新聞)、游戲及企業(yè)服務(wù)(騰訊會(huì)議/企業(yè)微信)生態(tài)中,利用海量、高價(jià)值的自有場(chǎng)景帶動(dòng)大模型應(yīng)用發(fā)展。以行業(yè)大模型鞏固根據(jù)地市場(chǎng),基于在教育、醫(yī)療、司法、政務(wù)等領(lǐng)域的長(zhǎng)期數(shù)據(jù)和渠道積累,訊飛星火大模型的核心是賦能并深化其已有的B端和G端業(yè)務(wù)。通過(guò)“軟硬一體化”的產(chǎn)品,將AI能力直接轉(zhuǎn)化為C端用戶價(jià)值。采用“內(nèi)部孵化、外部服務(wù)”的戰(zhàn)略,以極致的應(yīng)用場(chǎng)景反哺技術(shù)。其豆包大模型首先服務(wù)于抖音、今日頭條、飛書(shū)等內(nèi)部海量用戶產(chǎn)品,在真實(shí)、高并發(fā)的應(yīng)用實(shí)踐中快速迭代和優(yōu)化。然后,通過(guò)火山引擎將這些經(jīng)過(guò)大規(guī)模驗(yàn)證的AI技術(shù)與解決方案開(kāi)放給B端客戶。執(zhí)行“非對(duì)稱競(jìng)爭(zhēng)”策略,以極致技術(shù)創(chuàng)新和成本效率為破局點(diǎn)。依托幻方量化的算力支持,Deepseek專注于模型架構(gòu)的底層創(chuàng)新。其核心路徑是通過(guò)開(kāi)源頂尖模型構(gòu)建全球技術(shù)影響力,吸引人才,并非急于進(jìn)行直接的商業(yè)變現(xiàn)。來(lái)源:專家訪談,頭豹研究院基礎(chǔ)大模型市場(chǎng)洞察——大模型正從追逐頂大模型市場(chǎng)的關(guān)注焦點(diǎn)正發(fā)生遷移,已從對(duì)模型極限性能的單一追求,全面轉(zhuǎn)向以業(yè)務(wù)場(chǎng)景契合度大模型的市場(chǎng)導(dǎo)向從性能為王向業(yè)務(wù)適配轉(zhuǎn)變0.3-0.5元),但其在500毫秒內(nèi)的響0.3-0.5元),但其在500毫秒內(nèi)的響核心業(yè)務(wù)流程的實(shí)際賦能。型,可在256MB內(nèi)存的設(shè)備上實(shí)現(xiàn)約150由模型性能和價(jià)格主導(dǎo),廠商普遍陷入追逐技術(shù)參數(shù)與低價(jià)搶占份額的同質(zhì)化競(jìng)爭(zhēng)。而在2025年,市場(chǎng)已顯著轉(zhuǎn)向以業(yè)務(wù)場(chǎng)景適配為核心,關(guān)注點(diǎn)不再是模型的絕對(duì)實(shí)力,而是模型能否在特定場(chǎng)與快速交互的實(shí)時(shí)交互層,場(chǎng)景,市場(chǎng)傾向于采用70B量級(jí)的旗艦大模型以確保決策質(zhì)量;對(duì)于可容忍秒級(jí)延遲的業(yè)務(wù)處理層,如文檔分析與數(shù)據(jù)處理,則普遍采用7B量級(jí)的精煉模型;而在響應(yīng)速度要求極致、計(jì)算資源受限的設(shè)備邊緣層,則部署了經(jīng)過(guò)深度優(yōu)化與量化的1.5B級(jí)微型模型以帶來(lái)更優(yōu)來(lái)源:專家訪談,頭豹研究院來(lái)源:專家訪談,頭豹研究院第五章節(jié):大模型基礎(chǔ)設(shè)施層產(chǎn)業(yè)全景洞察智算中心的底層基礎(chǔ)設(shè)施體系高度復(fù)雜,涵蓋供配電、制冷、機(jī)柜、布線、防雷、防火等多系統(tǒng)協(xié)同數(shù)據(jù)中心制冷技術(shù)正由傳統(tǒng)風(fēng)冷向液冷躍遷,液冷以系統(tǒng)級(jí)能效最優(yōu)和高熱密支撐能力,成為滿足下一代智算中心PUE控全球與中國(guó)數(shù)據(jù)中心PUE已進(jìn)入結(jié)構(gòu)瓶頸期,傳統(tǒng)節(jié)能路徑失效,未來(lái)能效躍遷需依賴?yán)鋮s系統(tǒng)革新與能源架構(gòu)重構(gòu)?2025LeadLeo機(jī)柜系統(tǒng)機(jī)柜是機(jī)房統(tǒng)一采用的管理方式,用于堆疊硬件的系統(tǒng),以便有效地使用空間。網(wǎng)絡(luò)設(shè)備、服務(wù)器、配線架等設(shè)備都會(huì)統(tǒng)一安裝到機(jī)柜里面。機(jī)柜需根據(jù)機(jī)房整體設(shè)施來(lái)配置,需要在設(shè)計(jì)和管理中綜合考慮。智算中心更多的采用高功機(jī)柜和液冷機(jī)柜。防雷接地系統(tǒng)防雷接地系統(tǒng)是弱電精密設(shè)備及機(jī)房保護(hù)的重要子系統(tǒng),主要由雷電接受裝置、引下線、接地線、接地體(級(jí))、接地裝置、接地網(wǎng)、接地電阻組成。綜合布線系統(tǒng)機(jī)房綜合布線系統(tǒng)一般要求布線距離短,整齊且排列有序。綜合布線系統(tǒng)內(nèi)建信息傳輸通道,外接建筑外的通信網(wǎng),作為智算中心的中樞神經(jīng),關(guān)系著整個(gè)網(wǎng)絡(luò)的運(yùn)行狀態(tài)。智算中心相比傳統(tǒng)IDC擁有更高的帶寬和更大的承載能力,以滿足大規(guī)模數(shù)據(jù)傳輸和處理的需求。消防系統(tǒng)機(jī)房中存在大量的電子設(shè)備和電纜,火災(zāi)風(fēng)險(xiǎn)較高。因此,消防系統(tǒng)的安裝和運(yùn)行至關(guān)重要。它包括火災(zāi)報(bào)警系統(tǒng)、滅火器、自動(dòng)噴水系統(tǒng)和氣體滅火系統(tǒng)等,以提供及時(shí)的火災(zāi)報(bào)警和滅火措施,保護(hù)機(jī)房和設(shè)備的安全。供配電系統(tǒng)供配電系統(tǒng)包括主電源、UPS和配電柜。主電源通常市電供電,而UPS則用于在電網(wǎng)電力中斷時(shí)提供臨時(shí)電力,以保證設(shè)備的連續(xù)運(yùn)行。配電柜用于將電力分配到各個(gè)機(jī)柜和設(shè)備,發(fā)電機(jī)作為主要的后備動(dòng)力電源。UPS系統(tǒng)確保了24小時(shí)不間斷的機(jī)房裝修系統(tǒng)機(jī)房裝修系統(tǒng)深度融合了多學(xué)科、多領(lǐng)域的綜合工程。在設(shè)計(jì)施工中應(yīng)對(duì)供配電方式、空氣凈化、環(huán)境溫度控制、安全防范措施以及防靜電、防電磁輻射和抗干擾、防水、防雷、防火、防潮、防鼠諸多方面給予高度重視,以確保智算中心各系統(tǒng)長(zhǎng)期正常運(yùn)行工作。暖通系統(tǒng)暖通系統(tǒng)包括冷卻系統(tǒng)、空調(diào)系統(tǒng)和濕度控制設(shè)備,以確保機(jī)房?jī)?nèi)的溫度和濕度處于適宜的范圍,保護(hù)設(shè)備的正常運(yùn)行。考慮到液冷散熱,智算中心的暖通系統(tǒng)配備專門的液冷散熱設(shè)備,以及更復(fù)雜的設(shè)備布局和管道設(shè)計(jì),以確保冷卻劑能夠有效地流動(dòng)并帶走熱量。機(jī)房管理系統(tǒng)智算中心機(jī)房管理系統(tǒng)也是機(jī)房集中監(jiān)控系統(tǒng),該系統(tǒng)對(duì)機(jī)房的各種智能設(shè)備機(jī)房環(huán)境以及PUE值實(shí)現(xiàn)了全方位的統(tǒng)一集中監(jiān)控管理。機(jī)房管理系統(tǒng)解決AIDC可視化的難題。直觀、豐富的多維度看板與數(shù)據(jù)表達(dá)高度融合,并通過(guò)管線、能耗可視化等多方面高質(zhì)量傳達(dá)。來(lái)源:專家訪談,頭豹研究院新一代GPU芯片以精度可調(diào)、互聯(lián)增強(qiáng)與極限功耗為特征,在大幅釋放AI算力的同時(shí),對(duì)智算基礎(chǔ)設(shè)施其在AI時(shí)代對(duì)大模型訓(xùn)練與推FP8等在Blackwell架構(gòu)下呈現(xiàn)倍數(shù)級(jí)增長(zhǎng),尤其在FP4/FP6反映出面向AI大模型推理與訓(xùn)練的新架構(gòu)已全面向極致性能帶寬從A100的2TB/s提升至GB200的16TB/s,NVLink也翻倍擴(kuò)展至3.6TB/s,旨在支撐而功耗亦同步激增至2700W,表明下一代GPU將顯著推高智速數(shù)據(jù)中心向液冷與高密度部---------來(lái)源:專家訪談,頭豹研究院AI服務(wù)器正向“高精度異構(gòu)算力+極限帶寬互聯(lián)+超線性能耗密度”演進(jìn),重構(gòu)數(shù)據(jù)中心的供電、散熱與系oo隨著HGX服務(wù)器從A100迭代至B100/B200,算力系統(tǒng)已不展和功耗堆疊為核心特征的結(jié)o具體表現(xiàn)為:FP8/FP6/FP4等AI推理需求正主導(dǎo)算力體系設(shè)計(jì)重心;NVLink互聯(lián)和GPU-to-GPU通信能力翻倍增長(zhǎng),有效緩解大模型并行訓(xùn)練中的通信瓶頸;而單節(jié)點(diǎn)總功耗從6.5kW躍升至14.3kW,意味著智算服務(wù)器已成為數(shù)據(jù)中心能o整體而言,AI基礎(chǔ)設(shè)施正從“資源堆疊”走向“能效協(xié)同”,HGX架構(gòu)的升級(jí)已不再是GPU據(jù)中心級(jí)技術(shù)協(xié)同的高度集成-------400Gb/s+200Gb/s400Gb/s+200Gb/s來(lái)源:專家訪談,頭豹研究院計(jì)增加10%-20%,如果采用A級(jí)標(biāo)準(zhǔn),2N來(lái)源:專家訪談,頭豹研究院制冷系統(tǒng)供電系統(tǒng)照明及其他當(dāng)前數(shù)據(jù)中心能耗結(jié)構(gòu)高度集中于IT設(shè)備與制冷系統(tǒng),前者占反映出計(jì)算與存儲(chǔ)負(fù)載仍是能耗核心驅(qū)動(dòng);而制冷優(yōu)化中的關(guān)鍵地位制冷系統(tǒng)供電系統(tǒng)照明及其他當(dāng)前數(shù)據(jù)中心能耗結(jié)構(gòu)高度集中于IT設(shè)備與制冷系統(tǒng),前者占反映出計(jì)算與存儲(chǔ)負(fù)載仍是能耗核心驅(qū)動(dòng);而制冷優(yōu)化中的關(guān)鍵地位。供電系統(tǒng)與照明/其他設(shè)施僅占總能表明其邊際節(jié)能空間有限,進(jìn)一步壓縮PUE的突破口需聚焦于制冷鏈路的效率革新與IT設(shè)備的算能比提升。整體結(jié)構(gòu) 以一個(gè)英偉達(dá)H100構(gòu)成的千卡集群智算中心為例,n報(bào)告完整版/高清圖表或更多報(bào)告:請(qǐng)登錄w聯(lián)系郵箱:service@智算中心成本結(jié)構(gòu)正呈現(xiàn)出非均衡態(tài)勢(shì),其中以H100為代表的GPU集群構(gòu)成初始投入算力密度驅(qū)動(dòng)下的設(shè)備集約型模型;但該結(jié)構(gòu)亦帶來(lái)顯著后投入成為OPEX主導(dǎo)項(xiàng),年支出逼近初始成本的15%。在此映射出熱功耗路徑瓶頸——IT設(shè)備與制冷系統(tǒng)合計(jì)占據(jù)能耗已成為PUE優(yōu)化的臨界短板。供電與照明系統(tǒng)邊際能耗占比當(dāng)前制冷鏈路正成為能效結(jié)構(gòu)向需圍繞“冷卻-算力-負(fù)載”三架構(gòu)演進(jìn),重塑TCO控制邏輯來(lái)源:專家訪談,頭豹研究院底層底層IaaS層通過(guò)機(jī)房托管與算中層PaaS與MaaS通過(guò)抽象AI工具與模型服務(wù)形成通用化能落地與技術(shù)擴(kuò)散的“流水線”;頂層SaaS則完成面向垂直場(chǎng)景由資源密集型向能力密集型躍遷,供給側(cè)由重資產(chǎn)IDC運(yùn)營(yíng)商延伸至輕資產(chǎn)模型與平臺(tái)提體現(xiàn)出智算能力“即服務(wù)”化、等來(lái)源:專家訪談,頭豹研究院數(shù)據(jù)中心制冷技術(shù)正由傳統(tǒng)風(fēng)冷向液冷躍遷,液冷以系統(tǒng)級(jí)能效最優(yōu)和高熱密支撐能力,成為滿足下一當(dāng)前數(shù)據(jù)中心制冷技術(shù)正圍繞“單位算力能效最優(yōu)當(dāng)前數(shù)據(jù)中心制冷技術(shù)正圍繞“單位算力能效最優(yōu)”目標(biāo)發(fā)生系統(tǒng)集成度最強(qiáng)等方面具備物理極限優(yōu)勢(shì),已在PUE<1.10的高性能場(chǎng)景中形成實(shí)際部署沒(méi)式方案,具備支撐>30kW/代高密度智算中心的主流制冷雖在特定氣候帶具備階段性降PUE價(jià)值,但在高負(fù)載穩(wěn)定性、年均適應(yīng)性和空間利用率方面存在顯著瓶頸;而冷凍水與風(fēng)冷系統(tǒng)PUE普遍在1.30以上,已難以滿足未來(lái)中國(guó)“雙碳”戰(zhàn)略和智算基礎(chǔ)設(shè)施能效紅線約水—自然冷—液冷呈加速躍遷攀升與綠色算力剛性目標(biāo)之間非氟氟來(lái)源:專家訪談,頭豹研究院數(shù)據(jù)中心供電體系正由靜態(tài)供電網(wǎng)絡(luò)向智能化、高冗余、高響應(yīng)性的多配電柜配電柜_廠中壓柜10/0.4_廠中壓柜10/0.4kv低壓UPSUPSUPS精密IT輸入配電輸出輸入配電當(dāng)前數(shù)據(jù)中心供電系統(tǒng)正在向“高可用+高并發(fā)+高密度”架構(gòu)演進(jìn),核心在于構(gòu)建以UPS為樞紐的多級(jí)供電鏈路,實(shí)現(xiàn)電源路徑N+1、2N甚至2(N+1)的冗余配置,以適應(yīng)AI訓(xùn)練等重載場(chǎng)景對(duì)電能連續(xù)性和電壓品質(zhì)的極致要求。系統(tǒng)鏈路從市電/發(fā)電機(jī)—中壓柜—變壓器—低壓配電—UPS輸入/輸出—精密配電—IT負(fù)載形成閉環(huán),強(qiáng)調(diào)端到端電能質(zhì)量控制、快速切換能力與精細(xì)化配電能力。UPS從傳統(tǒng)+負(fù)載適配+系統(tǒng)耦合”核心節(jié)點(diǎn),其輸出能力與響應(yīng)時(shí)間成為衡量供電系統(tǒng)技術(shù)等級(jí)的關(guān)鍵指標(biāo)。電能質(zhì)量分析及AI預(yù)測(cè)性告警,來(lái)源:專家訪談,頭豹研究院智算中心布局正在由資源承載與需求牽引雙輪驅(qū)動(dòng),呈現(xiàn)東部聚集化與中西部資源導(dǎo)向型的功能性分工中國(guó)智算中心項(xiàng)目布局呈現(xiàn)出“東部集聚、西部分散”的區(qū)域山東等東部經(jīng)濟(jì)強(qiáng)省合計(jì)占比超過(guò)20%,依托于算力需求密能力強(qiáng)等優(yōu)勢(shì),成為智算基礎(chǔ)設(shè)施建設(shè)的核心承載區(qū)。策引導(dǎo)為支撐,構(gòu)建“東數(shù)西力基礎(chǔ)設(shè)施建設(shè)正在由資源導(dǎo)向走向“需求-資源-政策”多因應(yīng)用牽引為核心的集約化發(fā)展基礎(chǔ)設(shè)施外溢與低成本承接角色,形成分工明確的“主干— 浙江 浙江84來(lái)源:專家訪談,頭豹研究院地方政府互聯(lián)網(wǎng)及云廠商基礎(chǔ)電信運(yùn)營(yíng)商其他當(dāng)前智算中心呈現(xiàn)“項(xiàng)目發(fā)起多元化、算力資源集中化”雙重特征:從項(xiàng)目數(shù)量維度看,地方政府主導(dǎo)項(xiàng)目占比最高,達(dá)到33.9%,展現(xiàn)出政策驅(qū)動(dòng)在智算基礎(chǔ)設(shè)施布局中的先但從算力規(guī)模維度看,互聯(lián)網(wǎng)及云廠商占比高達(dá)35.0%,成為核心算力資源的掌控者,反映出資本、技術(shù)和模型能力對(duì)資源整合的強(qiáng)驅(qū)動(dòng)效應(yīng)。基礎(chǔ)電信運(yùn)營(yíng)商在兩項(xiàng)指標(biāo)中占比相對(duì)穩(wěn)定,扮演網(wǎng)絡(luò)支撐與中性服務(wù)商角色;而“其他”類參與者占比超過(guò)四分之一,代表產(chǎn)業(yè)生態(tài)正由頭部主導(dǎo)向聯(lián)盟式與聯(lián)合體模式演化。結(jié)構(gòu)差異表明:智算項(xiàng)目呈現(xiàn)“政策起盤—市場(chǎng)放量”的運(yùn)行邏輯,未來(lái)算力資源將加速向具備大模型部署能力與產(chǎn)業(yè)對(duì)接能力的主體集中。中國(guó)智算中心項(xiàng)目主體分布(按項(xiàng)目數(shù)量)來(lái)源:專家訪談,頭豹研究院o全球智算中心正步入“電力支求2023-2028年CAGR將超20%,其中中國(guó)以2026年285TWh的趨勢(shì)反映出高熱密AI訓(xùn)練集群部署對(duì)電力系統(tǒng)構(gòu)成系統(tǒng)性壓力,不僅挑戰(zhàn)現(xiàn)有PUE優(yōu)化極限,更使傳統(tǒng)以“負(fù)載就地部署”為主的能源結(jié)構(gòu)面臨解構(gòu)。增長(zhǎng)主要由政策主導(dǎo)的大規(guī)模集群化建設(shè)與地方政府資源調(diào)邊緣用能體轉(zhuǎn)化為電力基礎(chǔ)設(shè)規(guī)劃將成為未來(lái)基礎(chǔ)設(shè)施布局202320242025E2026E2027E2028E20222026202220262022來(lái)源:專家訪談,頭豹研究院全球與中國(guó)數(shù)據(jù)中心PUE已進(jìn)入結(jié)構(gòu)瓶頸期,傳統(tǒng)節(jié)能路徑失效,未來(lái)能效躍遷需依賴?yán)鋮s系統(tǒng)革新與全球及中國(guó)數(shù)據(jù)中心平均年P(guān)UEo當(dāng)前全球及中國(guó)數(shù)據(jù)中心PUE正處于“邊際優(yōu)化停滯—架構(gòu)性重構(gòu)”過(guò)渡階段,全球平均電優(yōu)化等路徑的節(jié)能潛力已基理稟賦因素對(duì)能效的決定性影o未來(lái)能效提升需依賴底層系統(tǒng)算熱協(xié)同調(diào)度與電源路徑簡(jiǎn)化動(dòng)來(lái)自政策壓制紅線而非技術(shù)來(lái)源:專家訪談,頭豹研究院第六章節(jié):AIDC全球版圖深度研究全球算力建設(shè)正從“總量擴(kuò)張”轉(zhuǎn)向“結(jié)構(gòu)躍遷”,智算能力成為衡量技術(shù)競(jìng)爭(zhēng)力的關(guān)鍵指標(biāo)。2023年全球智算力規(guī)模達(dá)875EFLOPS,首次中國(guó)算力基礎(chǔ)設(shè)施正處于從“數(shù)量型擴(kuò)張”向“質(zhì)量型升級(jí)”算力資源正在由通用計(jì)算向智能計(jì)算轉(zhuǎn)移,互聯(lián)網(wǎng)與服務(wù)業(yè)成為智能算力應(yīng)用的主要推動(dòng)力量,而其他行業(yè)的智能化?2025LeadLeo全球算力及智算建設(shè)規(guī)模全球計(jì)算設(shè)備算力o2020至2023年,全球算力規(guī)模持續(xù)快速增長(zhǎng),截止2023年底,全球計(jì)算設(shè)備側(cè)算力長(zhǎng)至2023年的875EFLOPS,首次超過(guò)基礎(chǔ)算力,成為主導(dǎo)性增長(zhǎng)引擎。這一趨勢(shì)背后,是以大模型、深度學(xué)習(xí)為代表的人工智能技術(shù)加速發(fā)展,對(duì)GPU等高性能算力o結(jié)構(gòu)性變化也帶來(lái)區(qū)域格局重構(gòu)。美國(guó)在全球算力中占2023年的41%,繼續(xù)穩(wěn)居主導(dǎo)地位。而中國(guó)雖然整體占比略降至31%,但智算力建設(shè)進(jìn)至2023年的39%,反映出其在資源受限背景下優(yōu)先配置AI相關(guān)算力的戰(zhàn)略選擇。相比域算力份額整體下滑,全球算力資源呈現(xiàn)加速集中態(tài)勢(shì)。來(lái)源:專家訪談,頭豹研究院AIDC全球版圖深度研究——中國(guó)算力建設(shè)現(xiàn)狀2020年至2027年,中國(guó)算力建設(shè)呈現(xiàn)高速增長(zhǎng)態(tài)勢(shì),整體算力結(jié)構(gòu)正由以通用計(jì)算為主向智能計(jì)算報(bào)告完整版/高清圖表或更多報(bào)告:請(qǐng)登錄報(bào)告完整版/高清圖表或更多報(bào)告:請(qǐng)登錄20232024如需進(jìn)行品牌植入、數(shù)據(jù)商用、報(bào)告調(diào)研等商務(wù)需求,歡迎與我們聯(lián)系nn聯(lián)系郵箱:聯(lián)系郵箱:service@2020202120222023oo2020年至2027年,中國(guó)智能算力呈現(xiàn)爆發(fā)式增長(zhǎng),預(yù)計(jì)將從75EFLOPS躍升至1,11760%,成為推動(dòng)整體算力擴(kuò)張的核心力量;相較之下,通用算力(基于FP64)增長(zhǎng)相2023年起反超通用算力,反映出AI驅(qū)動(dòng)的計(jì)算需求持續(xù)oAI服務(wù)器出貨量從2020年的15萬(wàn)臺(tái)增長(zhǎng)至2024年預(yù)計(jì)的時(shí),AI服務(wù)器的推理類任務(wù)占比逐年上升,至2027年將占據(jù)主導(dǎo)地位,表明大模型訓(xùn)練趨于平臺(tái)化、集中化,推理應(yīng)用正加速落地,算力o綜合來(lái)看,中國(guó)正加快構(gòu)建以智能算力為核心的新一代來(lái)源:專家訪談,頭豹研究院AIDC全球版圖深度研究——中國(guó)算力建設(shè)現(xiàn)狀(o算力密度的提升背后,體現(xiàn)的是AI訓(xùn)練、智能推理和海量數(shù)據(jù)處理任務(wù)的集中爆發(fā),對(duì)硬件架構(gòu)、能源調(diào)度、運(yùn)維效率提出更高要求。意味著未來(lái)算力中心的建設(shè)不能再簡(jiǎn)單依靠堆砌服務(wù)器,而必須從根本上優(yōu)化能效結(jié)構(gòu),強(qiáng)化綠色低碳技術(shù)的應(yīng)用,如采用高效能GPU/AI芯片、推進(jìn)液冷等先進(jìn)散熱技術(shù)、通過(guò)AI實(shí)現(xiàn)能耗智能調(diào)控,并布局靠近可再生能源資源o2030年電耗將達(dá)到4,000億千瓦時(shí)這一預(yù)測(cè)數(shù)字,警示決策層必須前瞻性地制定資源優(yōu)化與碳排放控制策略,以o未來(lái)中國(guó)算力發(fā)展的重點(diǎn)將從“建得快”轉(zhuǎn)向“建得強(qiáng)、用得省”,科技底座與綠色低碳的融合將成為決定全球算力o中國(guó)數(shù)據(jù)中心機(jī)架規(guī)模自2020年起持續(xù)擴(kuò)大,從400萬(wàn)架增長(zhǎng)至2024年的880萬(wàn)架,年均復(fù)合增長(zhǎng)率約為22.3%,其中2023至o同時(shí),算力中心耗電量增長(zhǎng)更為顯著,從2020年的939億千瓦時(shí)上升至2023年的2700億千瓦時(shí),僅2022至2023年一年間增來(lái)源:專家訪談,頭豹研究院AIDC全球版圖深度研究——中國(guó)算力建設(shè)現(xiàn)狀2025年計(jì)劃建成算力中心容量達(dá)750MW。o成渝樞紐算力網(wǎng)絡(luò)國(guó)家樞紐節(jié)點(diǎn)2025年計(jì)劃建成算力中心總?cè)萘窟_(dá)1,2025年計(jì)劃建成算力中心總?cè)萘窟_(dá)1,600MW。2025年計(jì)劃建成算力中心總?cè)萘窟_(dá)1,來(lái)源:專家訪談,頭豹研究院算力資源正在由通用計(jì)算向智能計(jì)算轉(zhuǎn)移,互聯(lián)網(wǎng)與服務(wù)業(yè)成為智能算力應(yīng)用的主要推動(dòng)力量,而o2023年,中國(guó)智能算力及整體算力的行業(yè)分布展現(xiàn)出顯著的結(jié)構(gòu)性差異,反映出各行業(yè)在數(shù)字化與智能化轉(zhuǎn)型過(guò)程中的算力依賴程度與發(fā)展重點(diǎn)。互聯(lián)網(wǎng)行業(yè)無(wú)疑是最主要的算力驅(qū)動(dòng)者,在整體算力中占比達(dá)39.0%,在智能算力中更是高達(dá)53.2%,充分體現(xiàn)其在大模型、推薦算法、內(nèi)容生成等方面對(duì)高性o服務(wù)行業(yè)在智能算力中的占比顯著提升,達(dá)到17.8%,相比其在整體算力中的7.9%,表明該行業(yè)在客服自動(dòng)化、智能分析與個(gè)性化服務(wù)等場(chǎng)景下的AI應(yīng)用加速落地。相教育和金融等行業(yè)在兩類算力中所占比例相對(duì)穩(wěn)定,但其在智能算力中的占比普遍低于整體算力,顯示出這些傳統(tǒng)行業(yè)在智能化升級(jí)方面來(lái)源:專家訪談,頭豹研究院AIDC全球版圖深度研究——美國(guó)算力建設(shè)美國(guó)算力資源分布呈現(xiàn)“多中心、強(qiáng)集聚”的特征,其中北弗吉尼亞州以5,350MW的規(guī)模穩(wěn)居全球最l西雅圖和昆西l波特蘭和希爾斯伯o北弗吉尼亞作為“全球算力心臟”,顯示出領(lǐng)先者優(yōu)勢(shì)持續(xù)強(qiáng)化的趨勢(shì);而以鳳凰城、亞特蘭大為代表的新興區(qū)域則依托基礎(chǔ)設(shè)施和地理優(yōu)勢(shì)快速崛起,正在重塑全美算o北弗吉尼亞州以5,350MW的總規(guī)模穩(wěn)居第一,是全球最大的單一數(shù)據(jù)中心集群,其規(guī)模遠(yuǎn)超其他區(qū)域,雖然控制率僅為0.26%,但因其擁有極為密集的IDC資源和優(yōu)質(zhì)的網(wǎng)絡(luò)接入條件,長(zhǎng)期作為美國(guó)乃至全球算力調(diào)度的核心o其次,鳳凰城、亞特蘭大和達(dá)拉斯具備穩(wěn)定能源供應(yīng)、政策支持和土地優(yōu)勢(shì),成為新興的算力擴(kuò)張熱點(diǎn)區(qū)域。芝加哥、北加州等傳統(tǒng)中心依然保有較強(qiáng)規(guī)模,但受到能源成本、空間資源等因素l紐約和新澤西數(shù)據(jù)l北弗吉尼亞州來(lái)源:專家訪談,頭豹研究院AIDC全球版圖深度研究——美國(guó)算力建設(shè)2025年超大規(guī)模資本支出oo在二級(jí)市場(chǎng)中,部分地區(qū)如丹佛和波士頓盡管規(guī)模較小,但具備相對(duì)較高的資源控制力,顯示出本地運(yùn)營(yíng)商或早期布局者的競(jìng)爭(zhēng)優(yōu)勢(shì);而奧斯汀/圣安東尼奧和海羅斯等地區(qū)雖然算力規(guī)模較大,但控制率不足3%,表明資源分散或外來(lái)資本尚未形成規(guī)模主導(dǎo)。相比之下,新興市場(chǎng)如哥倫布和雷諾的規(guī)模已接近成熟市場(chǎng)水平,但控制率仍不足1%,反映出當(dāng)前處于資源導(dǎo)入期,尚未形成壟斷格局,
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 職業(yè)暴露事件對(duì)醫(yī)護(hù)人員職業(yè)發(fā)展的影響與支持
- 鎮(zhèn)江2025年江蘇鎮(zhèn)江市中醫(yī)院招聘高層次人才筆試歷年參考題庫(kù)附帶答案詳解
- 貴陽(yáng)2025年貴州貴陽(yáng)市白云十八中秋季臨聘教師招聘筆試歷年參考題庫(kù)附帶答案詳解
- 福建2025年福建省美術(shù)館招聘高層次人才筆試歷年參考題庫(kù)附帶答案詳解
- 湖南2025年湖南財(cái)政經(jīng)濟(jì)學(xué)院招聘合同制專任教師筆試歷年參考題庫(kù)附帶答案詳解
- 池州2025年安徽池州石臺(tái)縣城區(qū)中小學(xué)采取擇優(yōu)比選方式選調(diào)專任教師23人筆試歷年參考題庫(kù)附帶答案詳解
- 無(wú)錫江蘇無(wú)錫市梁溪區(qū)教育局招聘骨干教師和高層次人才8人筆試歷年參考題庫(kù)附帶答案詳解
- 廣州2025年秋季廣東廣州增城區(qū)永寧街香山幼兒園招聘筆試歷年參考題庫(kù)附帶答案詳解
- 安徽2025年安徽省氣象部門事業(yè)單位招聘普通高校應(yīng)屆畢業(yè)生(第三批次)筆試歷年參考題庫(kù)附帶答案詳解
- 呼倫貝爾2025年內(nèi)蒙古海拉爾區(qū)人民醫(yī)院人才引進(jìn)23人筆試歷年參考題庫(kù)附帶答案詳解
- 工業(yè)互聯(lián)網(wǎng)安全技術(shù)(微課版)課件全套 項(xiàng)目1-7 工業(yè)互聯(lián)網(wǎng)及安全認(rèn)識(shí)-工業(yè)互聯(lián)網(wǎng)安全新技術(shù)認(rèn)識(shí)
- 2025至2030中國(guó)船舵行業(yè)項(xiàng)目調(diào)研及市場(chǎng)前景預(yù)測(cè)評(píng)估報(bào)告
- 海上風(fēng)電回顧與展望2025年
- 地鐵春節(jié)安全生產(chǎn)培訓(xùn)
- 預(yù)包裝食品配送服務(wù)投標(biāo)方案(技術(shù)方案)
- 新型電力系統(tǒng)背景下新能源發(fā)電企業(yè)技術(shù)監(jiān)督管理體系創(chuàng)新
- 旅游景區(qū)旅游安全風(fēng)險(xiǎn)評(píng)估報(bào)告
- FZ∕T 54007-2019 錦綸6彈力絲行業(yè)標(biāo)準(zhǔn)
- 顱腦外傷的麻醉管理
- AED(自動(dòng)體外除顫儀)的使用
- 2024年福建寧德高速交警招聘筆試參考題庫(kù)附帶答案詳解
評(píng)論
0/150
提交評(píng)論