版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
T0102
.@@1 270@3 9AI-ICT?gO&@01 11AII?? 13 15 16 18Agent 20 23g??@g 24 0102
e*°?@ @@1 03 04
?@3 AI—*?ICT@óói????ê?綜述:全球力量主導(dǎo)AI發(fā)展當(dāng)前,AI浪潮席卷全球,巨量資金、超長周期投資已經(jīng)展開。各國紛紛加大人工智能的投資和開發(fā)。以中、美、歐為代表的全球力量主導(dǎo)AI的不斷加速發(fā)展。尤其是中美競爭下形成“東”、“西”兩大生態(tài)呈現(xiàn)出各自鮮明特點。美國政府及AI主流公司、社區(qū)、倡導(dǎo)規(guī)模法則,大算力贏未來,推動再工業(yè)化和解決復(fù)雜問題。以星際之門Stargate為代表的發(fā)展規(guī)劃整合OpenAI、軟銀等技術(shù)和投資方,基于英偉達(dá)算力技術(shù),面向未來發(fā)展超級AI中心,這種規(guī)?;谋尘爸?,是傳統(tǒng)云廠商提供的算力規(guī)模已經(jīng)無法滿足像OpenAI這樣公司的發(fā)展需求。在國內(nèi),AI正在成為數(shù)字新基建、新質(zhì)生產(chǎn)力、數(shù)字化轉(zhuǎn)型發(fā)展關(guān)鍵力量。在中國AI發(fā)展體系中,國家在長期規(guī)劃、政策指引、融資支持、成本效益等方面推出系列措施,基于國內(nèi)規(guī)模研發(fā)能力、產(chǎn)業(yè)集群和應(yīng)用市場,通過東數(shù)西算宏觀布局,智算中心大力建設(shè),推動數(shù)算融合、算網(wǎng)融合,“知-行”融合,“數(shù)-實”融合。在歐盟方面,《人工智能大陸行動計劃》,旨在將歐洲建設(shè)成為全球人工智能領(lǐng)域領(lǐng)導(dǎo)者,而在眾多細(xì)分領(lǐng)域,AI與應(yīng)用和產(chǎn)業(yè)結(jié)合,已經(jīng)產(chǎn)生出一批有全球影響力的企業(yè)。全球產(chǎn)業(yè)鏈發(fā)展方面,OpenAI一度作為最常用的AI產(chǎn)品和服務(wù)提供商,提供多模態(tài),推理模型,深度研究等服務(wù)。英偉達(dá)提供業(yè)界領(lǐng)先的GPU、網(wǎng)絡(luò)和軟件(CUDA體系),Meta公司作為開源的代表提供其Llama模型,已融入40個國家的社交網(wǎng)絡(luò)產(chǎn)品中。谷歌的Gemini系列模型在多模態(tài)、集成實時搜索和多語言支持強,應(yīng)用廣。其TPU算力集群、跨洋光纜等領(lǐng)域具備優(yōu)勢。微軟在AI領(lǐng)域則突出其自有芯片Maia100AI加速器、高速網(wǎng)絡(luò)等技術(shù)。在國內(nèi),以運營商為代表的算力中心建設(shè)行動深入開展,已建成多個大規(guī)模算力中心,模型方面以DeepSeek為代表的公司推出的V3及R1推理模型作為一款671B參數(shù)量的開源模型,具有全球影響力,并在MOE,MLA,強化學(xué)習(xí)等領(lǐng)域多方面技術(shù)創(chuàng)新。阿里千問系列模型也在開源和服務(wù)方面占有重要地位,推出例如深度研究、ZeroSearch等服務(wù)。其小規(guī)模參數(shù)模型也經(jīng)常被用作模型蒸餾。此外、騰訊、字節(jié)、百度等公司也在AI領(lǐng)域大規(guī)模提供模型和算力服務(wù)。據(jù)PrecedenceResearch估算2024年全球AI市場規(guī)模6382億美元,區(qū)域占比上北美36.9%、歐洲25.5%、亞太25.97%;預(yù)計2025年達(dá)7576億美元。在智算發(fā)展持續(xù)加速的宏流下,業(yè)界芯片級算力年增速可達(dá)500%,而以星際之門為代表的算力規(guī)模部署(一期約40萬GPU)將支持高效快速的模型訓(xùn)練、實時推理。中國國家AI發(fā)展規(guī)劃目標(biāo)是到2030年實現(xiàn)價值約1萬億元人民幣(約1500億美元)的AI產(chǎn)業(yè)。據(jù)《2025年中國人工智能計算力發(fā)展評估報告》目前智算規(guī)模達(dá)1037EFLOPS,比2024年增長74%。根據(jù)《中國人工智能區(qū)域競爭力研究報告》,2024年中國AI產(chǎn)業(yè)規(guī)模突破7000億人民幣。2024年,美國私人人工智能投資達(dá)1091億美元,中國約93億美元。AI的商業(yè)應(yīng)用用也在加速普及,78%的企業(yè)在2024年應(yīng)用了人工智能技術(shù),較前一年的55%有了大幅提升。面對快速發(fā)展AI以及AI與ICT基礎(chǔ)設(shè)施和應(yīng)用復(fù)雜的關(guān)聯(lián),本文首先從梳理AI本身“規(guī)?;鞍l(fā)展這個首要特征,溯源到AI深層計算和通信關(guān)系變化的本質(zhì)思考,進而全面審視AI與ICT相互的賦能機會和技術(shù)需求。趨勢1AI規(guī)?;蚋唠A演進新摩爾定律與算力規(guī)模化摩爾定律下每1850%4~5500%AIGPU算力2年增長40芯片廠商主攻GP云廠商則以ASIC見長例NVIDIAH200/Blackwell系列GPU可達(dá)9PFOS(INT8AMDMI300X/MI325X系列Gaudi2/3系列也提供接近或達(dá)到P級別FOS算力ASICGoogleTPU單體具備275TFOS(BF16/INT8AWSIneentia系列AueMaia系列也提供類似能力。NVIDIA單機架NVlink網(wǎng)絡(luò)帶寬可達(dá)130TBGB/s超過1PbAWS則推出10p10≥10Pb<10μsT而GoogleTPUodv5p4.8Tb/sx8960芯片封閉架構(gòu)的極致帶寬可達(dá)29PbpsMa兼容異構(gòu)算力的開放式OCP64x800Gb/s網(wǎng)絡(luò)可達(dá)51.2Tb/s。xAI公司Colossus算力集群總算力規(guī)模達(dá)200E?ops。而國內(nèi)最大單體智算中心在10EFLOPS規(guī)模,國內(nèi)主要的智算中心單體規(guī)模接近1E?op=1e18?op。GPU擅長并行計算,是當(dāng)前較為成熟的算力形態(tài),而QPU量子算力基于量子疊加與糾纏特性,在特定問題上具有指數(shù)級加速潛力。目前業(yè)界商用量子設(shè)備和算力已初具規(guī)模,如國際上的PsiQuantum、IonQ,中國的本源量子等。量子處理單元QPU與GPU的融合是算力發(fā)展的趨勢。面向未來高性能“量子-經(jīng)典混合計算架構(gòu)”,通過軟硬件協(xié)同設(shè)計,解決量子計算的實用性瓶頸(如糾錯、控制、算法優(yōu)化),同時釋放經(jīng)典算力與量子算力的協(xié)同潛力,目前主要的業(yè)內(nèi)實踐如NVIDIA的CUDA-Q。擴展律(ScalingLaw)與模型規(guī)?;A(yù)訓(xùn)練規(guī)?;;l(fā)展另一大定律是擴展律ScalingLaw。擴展律是指隨著投入算力、數(shù)據(jù)量、模型參數(shù)的增加,模型的損失不斷下降(精度不斷提升)。人工智能的“擴展律”對AI模型的發(fā)展具有重要意義,推動了GenAI的發(fā)展和ChatGPT時刻的出現(xiàn)。在規(guī)模化發(fā)展趨勢下,模型訓(xùn)練算力需求年均增長4.6倍,主要源于研發(fā)投入擴張(年均2-3倍)及硬件性能提升,GPT-4級別模型訓(xùn)練成本已超數(shù)千萬美元,隨著模型算力擴張,模型性能提升但邊際收益遞減。從數(shù)據(jù)角度,大規(guī)模預(yù)訓(xùn)練驅(qū)動數(shù)據(jù)需求暴增,訓(xùn)練數(shù)據(jù)集規(guī)模年均增長3.5倍,當(dāng)前最大模型已使用數(shù)十萬億Token數(shù)據(jù)。而公開可用人類文本數(shù)據(jù)約300萬億Token,按當(dāng)前消耗速度,2026?2032年將耗盡。后訓(xùn)練規(guī)?;S著規(guī)模發(fā)展,AI面臨算力高成本、數(shù)據(jù)耗盡、算法架構(gòu)停滯不前等問題。近期AI創(chuàng)新突破紛紛圍繞通過模型優(yōu)化、以較小的算力代價和數(shù)據(jù)依賴獲得提升,訓(xùn)練方法也從自監(jiān)督訓(xùn)練向強化學(xué)習(xí)方法過渡。降低了對數(shù)據(jù)規(guī)模的依賴??梢哉f,強化學(xué)習(xí)是scalinglaw的新引擎。因此,擴展律開始增加向“后訓(xùn)練“和“推理時計算”拓展的路徑,不斷增加模型的計算,體現(xiàn)出從「數(shù)據(jù)驅(qū)動」轉(zhuǎn)向「推理驅(qū)動」的特點。同時,在大規(guī)模預(yù)訓(xùn)練中繼續(xù)提升效率也未停止,如混合專家模型(MoE)的稀疏激活,顯著降低相同任務(wù)所需的實際算力,多頭潛在注意力(MLA)等方式進行參數(shù)合并降低計算需求。中美模型競爭自2022年底ChatGPT引爆全球大模型創(chuàng)新熱潮,國內(nèi)科技廠商紛紛跟進,短時間內(nèi),從事AI大模型研發(fā)的企業(yè)超過100家,進入所謂“百模大戰(zhàn)”階段。當(dāng)時,國內(nèi)大模型尚處于跟隨狀態(tài),更強調(diào)基于中文語料訓(xùn)練、本土文化理解等優(yōu)勢。據(jù)EpochAI級人工智能模型方面仍處于領(lǐng)先地位,但中國正在縮小與美國的差距。從數(shù)量上,2024了40個標(biāo)志性的人工智能模型,中國有15個,歐洲有3外,中國在人工智能論文和專利方面繼續(xù)保持領(lǐng)先。在量子計算與AI了QforC,QforQQN與經(jīng)典張量網(wǎng)絡(luò)混合架GPU等問題。開源和生態(tài)發(fā)展AI浪潮的深度參與者。模型開源增加了AILlama,ChatGLM-4,DeepSeek,Qwen3等模型的開源極大降低了LLMAIAI2025AIG-3.5級別的推理成本在2022年11月至202410月間下降280年化成本降幅約30能效年提升率約40%8%縮小到僅1.7/每個組織都可以有自己的AILLM/AgentICT基礎(chǔ)設(shè)施。市場發(fā)展AI的“有用性”在各種場景中的表現(xiàn)進步迅速。例如AI在基準(zhǔn)測試如(MMMU、GPQA、SWE-bench性能持續(xù)提升,在生成高質(zhì)量視頻方面也取得重大進展,而AI編程在某些場景下在時間受限的編程任務(wù)中甚至表現(xiàn)優(yōu)于人類。隨著AI越來越“有用”,AI的使用越來越廣泛。從醫(yī)療到交通,2023管理局(FDA)批準(zhǔn)的人工智能醫(yī)療設(shè)備達(dá)223一Waymo每周提供超過15萬次自動駕駛乘車服務(wù),而百度的ApolloGo蓋眾多城市。特別是2023年以來,人工智能使用量以前所未有的速度增長。據(jù)EpochAI分析,以O(shè)penAI,Anthropic,GoogleDeepMind等公司的AI綜合收入在2023-2024年間增長了9倍。市場發(fā)展不但使端側(cè)用戶更容易訪問和使用模型業(yè)務(wù),同時算力本身也在想端側(cè)延伸部署。2025年在AI終端側(cè),所謂AI的“iphone”時刻或?qū)⒌絹?,推動AI消費市場發(fā)展進入新階段。以英偉達(dá)為代表的算力廠商,計劃推出1PFLOPS,128G個人桌面型算力盒子,與筆記本配合使用。并有20PFLOPS,800G企業(yè)級本地算力,可運行Llama4最大10000億參數(shù)開源模型。而物理和具身智能方面,各廠家正相繼推出商用產(chǎn)品。算力能耗規(guī)模大算力高能級算力的運行依賴電力的供應(yīng)。算力大發(fā)展也伴隨著功率的大幅提升。電力在算力發(fā)展中可能成為一個主要瓶頸。一方面是電力消耗指數(shù)級增長,前沿模型訓(xùn)練電力需求年均翻倍。單個LLM訓(xùn)練耗電量可能達(dá)1-10TWh,隨著電力供應(yīng)將成為模型規(guī)模擴展的重要制約,硬件能效提升得到重視。領(lǐng)先硬件供應(yīng)商可以年均提升40%左右(如NVIDIAH100在FP16格式下達(dá)每瓦2.83TFLOPS/W),而從模型層進行優(yōu)化如稀疏訓(xùn)練等方式可以降低算力需求,同時優(yōu)化電力需求。另一方面超級算力建設(shè)項目,如星際之門,其功率達(dá)到1.2GW,接近大型核電機組輸出功率,近期沙特也在討論5GW級別AI智算中心(初期1GW),此外,巴西也計劃開展GW級DC建設(shè)。面對超大規(guī)模的智算中心,未來高效的電力基礎(chǔ)設(shè)施將具有重要的支撐和共生作用。FLOPS/瓦特和Token/焦耳業(yè)界以NVIDIA為代表的算力廠商提出AI算力的出現(xiàn)推動社會從信息基礎(chǔ)設(shè)施informationinfrastructure演進到智能基礎(chǔ)設(shè)施IntelligenceInfrastructure,相應(yīng)的,算力中心是Token工廠(Token:為是智能時代的數(shù)據(jù)最小單位)。FLOPS/Watt:(每瓦特功率支持的浮點運算速度)衡量硬件計算效率,反映芯片、服務(wù)器性能,由芯片能力決定。Token/J:(每焦耳能量可處理的Token數(shù)量),衡量模型推理的能效,反映AI模型部署、推理運算效率,與模型架構(gòu)、數(shù)據(jù)復(fù)雜度相關(guān)。中美在AI核能領(lǐng)域競爭25年6月19日,NVIDIA宣布完成對TerraPower的戰(zhàn)略投資。TerraPower是比爾·蓋茨創(chuàng)辦的一家專注于核裂變技術(shù)的公司。致力于行波反應(yīng)堆(TWR)、鈉冷快堆Natrium等技術(shù)研究,該技術(shù)有望大幅提升核能利用效率,減少核廢料產(chǎn)生。而中石油昆侖資本同期也增資,投資可控核聚變方向的中國聚變能源公司。截至目前,中國已經(jīng)有9家核聚變產(chǎn)業(yè)鏈公司獲得投資,美國創(chuàng)業(yè)團隊則占到了全球近50家核聚變企業(yè)的一半以上。核電方向規(guī)模發(fā)展驅(qū)動因素主要受人工智能數(shù)據(jù)中心、新興制造業(yè)產(chǎn)能等因素推動,例如美國電力需求將在2023至2030年間增長25%,到2050年增長78%。趨勢2:計算與通信的失衡與再平衡用戶視角的數(shù)據(jù)流量發(fā)展AI發(fā)展多方面促進流量增長從信息通信的視角,十五五是5G規(guī)模發(fā)展階段,目前以互聯(lián)網(wǎng)和移動互聯(lián)網(wǎng)為主體的網(wǎng)絡(luò)流量生態(tài)增長趨緩,缺乏新的高流量因素進一步推動數(shù)據(jù)使用量增長,用戶價值增長放緩。新的增長因素如大流量業(yè)務(wù)如AR,XR等,由于處理信息比特相對單純,和物理環(huán)境交互時其他問題更加復(fù)雜,在終端技術(shù)仍然存在較多挑戰(zhàn)。用戶剛性價值場景不確定性,例如:物聯(lián)網(wǎng)連接數(shù)已超過普通用戶數(shù),但物聯(lián)網(wǎng)感知能力簡單,價值增值不大。在AI發(fā)展大潮下MaaS(模型即服務(wù))推動模型+智算服務(wù)如大模型問答、企業(yè)級知識問答(RAGRetrievalAugmentGeneration),AI終端(如AIPC、AI手機等)加速滲透,AI智能體(Agent)有望成為主流產(chǎn)品形態(tài)。這些AI發(fā)展趨勢將促進用戶側(cè)數(shù)據(jù)流量增長。宏觀層面,利用超算中心或智算中心算力資源進行大規(guī)模計算(訓(xùn)練或推理),輸入數(shù)據(jù)量通常會達(dá)到TB甚至PB量級。需將海量數(shù)據(jù)從數(shù)據(jù)源遠(yuǎn)距傳輸至算力中心實現(xiàn)數(shù)據(jù)快速入算?;谒懔A(chǔ)設(shè)施分散,算力資源利用率不均衡等情況,通過“東數(shù)西算”全國一體化網(wǎng)絡(luò),海量數(shù)據(jù)跨區(qū)搬移將普遍存在,這要求網(wǎng)絡(luò)具備高度的彈性。微觀層面,AI帶動了包括長尾在內(nèi)整體流量的增長:與人類注意力有限、關(guān)注頭部流量不同,AI思考更徹底,不易排除低頻高質(zhì)量結(jié)果??衫瓌痈嚅L尾流量。此外由于對結(jié)果要求較高,功能更強大的AI搜索對ToB流量增長效益明顯。而Agent帶動后端資源則更復(fù)雜更多。數(shù)據(jù)使用規(guī)模擴大聯(lián)網(wǎng)搜索:一次任務(wù)可執(zhí)行比如30個網(wǎng)頁的搜索;在典型的企業(yè)級知識庫問答應(yīng)用場景中,RAG可通過5-10倍資料查找token消耗提升問答準(zhǔn)確度。當(dāng)使用遠(yuǎn)端知識庫調(diào)用時,就會產(chǎn)生互聯(lián)網(wǎng)流量。Agent可以分為數(shù)字化Agent和具身Agent,以數(shù)字化客服Agent為例,其需大量調(diào)用搜索、知識庫查詢等API;而具身Agent需實時傳輸多模態(tài)數(shù)據(jù)(圖像、傳感器等),高頻大帶寬相機可達(dá)6Gbps,雖一般本地采集本地處理。但受本體算力和電力限制可通過邊緣分布式計算產(chǎn)生流量。英偉達(dá)認(rèn)為,一次Agent任務(wù)是一次問答的100-1000倍數(shù)據(jù)量。我們看到這些不同的場景驅(qū)動本地或網(wǎng)絡(luò)流量的增加,并且伴隨AI處理時間大大縮短,可能驅(qū)動更多業(yè)務(wù)需求和數(shù)據(jù)流量。這些流量一般對網(wǎng)絡(luò)沒有特別的要求,現(xiàn)有的接入網(wǎng)絡(luò)、骨干網(wǎng)絡(luò)能力及服務(wù)QoS能夠滿足這部分流量的需求,只需網(wǎng)絡(luò)合理規(guī)劃提供相應(yīng)的容量。數(shù)據(jù)消耗加速由于大模型在理解-生產(chǎn)的理解階段可以基于長文本并行計算,因此在足夠的算力條件下具備“瞬時”理解內(nèi)容的能力,據(jù)測算AI處理數(shù)據(jù)形成理解的時間相當(dāng)于從人類的1倍速加速至100倍速甚至1000倍以上,這代表著數(shù)據(jù)消耗速度前所未有的加速,可能帶來輸入輸出量的倍增。在AI時代,AI模型訓(xùn)練和推理與普通業(yè)務(wù)流量有所不同?!皞鹘y(tǒng)”業(yè)務(wù)與AI任務(wù)產(chǎn)生的流量存在深層差異?!巴ㄐ藕陀嬎惚取暗挠^察以一個視頻流媒體業(yè)務(wù)為例,經(jīng)測算1小時4K視頻其計算/通信比約25.1GFLOPS/GB,而1TB文件傳輸計算/通信比約0.15GFLOPS/GB,可以看到計算與通信比在0.1-100之間。如果觀察一個LLM問答:用例,1ktoken輸入,2ktoken生成,采用671B參數(shù)MOE模型。COT=3,計算需求可達(dá)208TFLOPS,計算/通信比≈2.31E10GFLOPS/GB,可以看到通算比上升至10的9次方?!皟?nèi)容通信“時代到“任務(wù)執(zhí)行”時代這種差異變化反映出從“內(nèi)容通信“時代到AI的“任務(wù)執(zhí)行”時代的變遷?!皟?nèi)容通信”計算依附于通信需求,業(yè)務(wù)不同,計算量有所區(qū)別但數(shù)量級可比;而“任務(wù)執(zhí)行”基本場景下通信是計算的輸入輸出,計算量n個數(shù)量級高于通信量,出現(xiàn)較大的“失衡”現(xiàn)象。我們可以稱之為從網(wǎng)絡(luò)流量到神經(jīng)網(wǎng)絡(luò)流量的演變?!熬W(wǎng)絡(luò)流量”到”神經(jīng)網(wǎng)絡(luò)流量”的演變AI節(jié)點本地網(wǎng)絡(luò)內(nèi)部流量大致規(guī)模如下:中心T/Pbps級,邊緣G/Tbpbs級,終端側(cè)Gbps級。而AI輸入輸出流量規(guī)??赡軓腒-M-Gbps都有,取決于關(guān)聯(lián)的多模態(tài)工具、環(huán)境對象。外部知識等。可能場景包括各種在智算中心、邊緣算力、端側(cè)算力之間,將神經(jīng)網(wǎng)絡(luò)進行各類分布部署或拆分處理,會產(chǎn)生大量中間計算token流量。比如智算中心的模型并行化、或者云邊協(xié)同的分級推理等。在機器人場景中,因本體算力有限,對于高精度識別推理,復(fù)雜動作策略生成(含大量控制點,機器人100+關(guān)節(jié))等借助本體以為的端側(cè)或邊緣算力,將產(chǎn)生顯著AI網(wǎng)絡(luò)流量。當(dāng)神經(jīng)網(wǎng)絡(luò)流量外部化時,對網(wǎng)絡(luò)有顯著不同的需求,需要無阻塞、無損網(wǎng)絡(luò)QoS支持,并且需要針對神經(jīng)網(wǎng)絡(luò)流量特征的進行模型級、網(wǎng)絡(luò)級、框架級的系列優(yōu)化。在典型的千卡級集群中,跨設(shè)備通信延遲占總訓(xùn)練時間30%以上,制約著集群向超大規(guī)模發(fā)展的效率,采用RDMA等新型網(wǎng)絡(luò)技術(shù)非常關(guān)鍵。當(dāng)然,業(yè)界也在發(fā)展各種優(yōu)化手段降低通信的影響,例如模型采用INT8等格式可提升硬件峰值性能10倍以上(如H100的INT8比FP32快59倍),成為降低通信影響的關(guān)鍵策略。據(jù)EpochAI估算,在基線訓(xùn)練場景中,AIScaleup網(wǎng)絡(luò)成本占比約12%,心東西向AIScaleout互聯(lián)需求,網(wǎng)絡(luò)成本占比仍將上升。在推理場景中,分布式推理部署對南北向Scaleout網(wǎng)絡(luò)互聯(lián)絡(luò)產(chǎn)生一定成本需求。趨勢3:AI與ICT的雙向賦能AI大小模型賦能ICTAI成為包括網(wǎng)絡(luò)基礎(chǔ)設(shè)施、網(wǎng)絡(luò)運維和運營在內(nèi)各種系統(tǒng)和業(yè)務(wù)加速發(fā)展的重要賦能手段,從深度神經(jīng)網(wǎng)絡(luò)到網(wǎng)絡(luò)大模型等技術(shù)深度滲透網(wǎng)絡(luò)各個層面。全球ICT產(chǎn)業(yè)鏈中,運營商在網(wǎng)絡(luò)運維、客戶服務(wù)、自智網(wǎng)絡(luò)的發(fā)展方面開展大量實踐,部分運營商開始進入大模型大算力領(lǐng)域,互聯(lián)網(wǎng)大廠webscale在發(fā)展算力的同時產(chǎn)生大量高性能網(wǎng)絡(luò)互聯(lián)需求。企業(yè)領(lǐng)域AI實踐和需求逐步增長,例如,中國運營商以及全球部分領(lǐng)先運營商在通信運維領(lǐng)域自智網(wǎng)絡(luò)的發(fā)展西班牙電信的“UNICANext”利用人工智能/機器學(xué)習(xí)(AI/ML),自動化網(wǎng)絡(luò)運營TMO、軟銀等公司的AI無線接入網(wǎng)(RAN)英國電信(BT)正在為智能港口和物流提供集成AI的私有5G服務(wù)沃達(dá)豐的CAMARA計劃,公開網(wǎng)絡(luò)服務(wù)質(zhì)量(QoS)、位置等信息韓國電信(SKT)、德國電信(DT)、新加坡電信(SingTel)等加入GTAA,開發(fā)電信領(lǐng)域大模型沃達(dá)豐與大廠合作,在制造和物流領(lǐng)域開發(fā)邊緣人工智能(EdgeAI)國內(nèi)運營商則在網(wǎng)絡(luò)和算力兩個縱橫馳騁。發(fā)力自智網(wǎng)絡(luò)、AI4Net,Net4AI,大模型、大算力等。大模型領(lǐng)域,驅(qū)動中國移動自智網(wǎng)絡(luò)向深度發(fā)展,網(wǎng)絡(luò)行業(yè)大模型細(xì)分出網(wǎng)絡(luò)語言大模型、網(wǎng)絡(luò)結(jié)構(gòu)化大模型、網(wǎng)絡(luò)圖模型等技術(shù)分支智能體方面,中國移動、中國聯(lián)通、中國電信一方面對不同專業(yè)發(fā)展出各類運維輔助的專業(yè)智能體。另一方面,更是在自主運維智能體方面則針對核心任務(wù)發(fā)展出高度自主的智能體專網(wǎng)市場逐漸從單一專網(wǎng)進一步發(fā)展出終端側(cè)AI等協(xié)同場景ICT基礎(chǔ)設(shè)施因AI訓(xùn)推而改變大模型規(guī)模的增長,參數(shù)量從數(shù)十億級躍升至萬億級,改變了傳統(tǒng)機器學(xué)習(xí)時代基于小模型設(shè)計方式,為了使大模型能夠被GPU系統(tǒng)裝載和執(zhí)行訓(xùn)練,需要各種并行策略(如張量并行、流水線并行等)和內(nèi)存管理技術(shù)的支持。而隨著模型參數(shù)、算力規(guī)模的持續(xù)突破,模型訓(xùn)練為提升速度和效率需要高可擴展性(Scalability):以有效地利用不斷增長的GPU/ASCI集群。這樣,AI技術(shù)也就同時需要應(yīng)對更大規(guī)模的通信挑戰(zhàn),保持良好的計算和通信擴展效率。隨著AI使用的推廣和加深,推理將成為最常見的場景。推理加速隨著各類任務(wù)的表現(xiàn)愈發(fā)突出,應(yīng)用外延持續(xù)擴展,硬件載體從云、端、從數(shù)字設(shè)備到物理、具身設(shè)備發(fā)展受到資源限制。因此模型推理優(yōu)化、算法加速和算力加速成為關(guān)鍵需求。從模型推理效率的角度,需要最大化硬件資源,包括計算資源和內(nèi)存帶寬的利用率。并且實現(xiàn)推理性能的高吞吐量和低延遲。為此需要AI軟硬件協(xié)同,通算協(xié)同,系統(tǒng)優(yōu)化并不局限于單一算法或硬件,而是需采用系統(tǒng)視角,開展算法、軟件和硬件的協(xié)同規(guī)劃和部署。國內(nèi)互聯(lián)大廠交換機和DCI等需求已大量采用諾基亞產(chǎn)品和方案。而隨著智算中心的高速發(fā)展,諾基亞也開始涉足全球數(shù)據(jù)中心網(wǎng)絡(luò)發(fā)展。模型賦能數(shù)據(jù)據(jù)EpochAI預(yù)測,2026-2030年間互聯(lián)網(wǎng)上多模態(tài)高質(zhì)量數(shù)據(jù)將用盡。2030-2060年間真實世界數(shù)據(jù)或?qū)⒑谋M。伴隨著模型擴展律,盡管公開領(lǐng)域的通用數(shù)據(jù)出現(xiàn)逐漸耗盡的情況,而私域數(shù)據(jù)的開發(fā)利用將隨著企業(yè)AI應(yīng)用的不斷擴大而深入開展。這個過程同時伴隨著高效的數(shù)據(jù)開發(fā)利用、以及通過合成數(shù)據(jù)在虛實融合的場景中降低對真實數(shù)據(jù)的依賴,提升數(shù)據(jù)的多樣性,并降低獲取成本。有很多新的領(lǐng)域會以新的互動和數(shù)據(jù)獲取方式獲得數(shù)據(jù),因此新數(shù)據(jù)開發(fā)利用和探索生成空間很大。新數(shù)據(jù)的探索生成方面世界模型是一種重要的建模方式。目前業(yè)界北京智源推出了悟界Emu3多模態(tài)世界模型。將多模態(tài)大模型、空間智能在推理層面統(tǒng)一?;谙乱粋€token預(yù)測原則,把多模態(tài)內(nèi)容統(tǒng)一編碼為一個離散空間。學(xué)習(xí)并推理物理世界的結(jié)構(gòu),而非直接建模幾何形態(tài)。基于該模型,智能體能夠?qū)⑦^去觀測和行為預(yù)測未來的狀態(tài)。是一種將幾何建模出發(fā)的數(shù)字孿生轉(zhuǎn)換為基于模型理解和生成的方法。近期ICT業(yè)界對世界模型關(guān)注更多,希望通過世界模型提升AI對現(xiàn)實世界的理解力和在真實場景中的執(zhí)行力。API資源賦能任務(wù)智能以Transformer為基礎(chǔ)的大模型,通過萬億token級別的預(yù)訓(xùn)練,構(gòu)建了人類歷史上最復(fù)雜的知識壓縮體系,這種預(yù)訓(xùn)練泛化能力為跨行業(yè)賦能打下基礎(chǔ)。而推理大模型,領(lǐng)域知識增強RAG,代碼大模型等技術(shù)則加速AI生產(chǎn)力開發(fā)和能力輸出。在AI技術(shù)加持下,通過領(lǐng)域知識遷移等方式,AgenticAI可以融合前端指令需求的和后端異構(gòu)資源,實現(xiàn)跨行業(yè)AI橫向拓展。AgenticAI是具備長時間自主行動以實現(xiàn)計劃目標(biāo)的系統(tǒng)。例如實現(xiàn)超50步復(fù)雜操作通用智能體。主要的供應(yīng)商有騰訊元寶、Moonshot的Kimi,字節(jié)的豆包、阿里的通義星塵、智譜AI的AutoGLM和百度文心智能體,而縱觀整個產(chǎn)業(yè)生態(tài),近期中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟編制并發(fā)布“智能體產(chǎn)業(yè)圖譜1.0”,收錄近200家聚焦智能體技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用的企業(yè)。按照基礎(chǔ)支撐層、通用場景層、專用場景層展開,定義了大模型服務(wù)、開發(fā)工具、通信協(xié)議、開發(fā)平臺。英偉達(dá)提出未來每個企業(yè)的每位員工都可以有一個智能代理。它將推動物聯(lián)網(wǎng)向Agent體系靠攏和轉(zhuǎn)化。ManusAIAgent典型產(chǎn)品,其階段性突破的核心在于工具鏈整合能力的規(guī)?;S升。Manus的工作流程呈現(xiàn)清晰的分層協(xié)作架構(gòu):用戶發(fā)起需求后,模型首先進行任務(wù)拆解與規(guī)劃,生成結(jié)構(gòu)化待辦清單;調(diào)度器隨即分配子任務(wù)至專用Agent群,驅(qū)動數(shù)據(jù)抓取、API調(diào)用等操作;執(zhí)行結(jié)果實時回傳并由多次調(diào)用LLM,整合多源數(shù)據(jù)生成最終報告。該架構(gòu)通過高低階模型協(xié)同與工具鏈深度綁定構(gòu)建出從需求輸入到成果交付的完整自動化鏈路。物理/具有物理形態(tài)和任務(wù)使命、以及具有具身屬性的端側(cè)智能體包括各類AI智能終端、智能可穿戴設(shè)備、智能網(wǎng)聯(lián)汽車、智能機器人(如宇樹、優(yōu)必選、傅里葉、開普勒等)。對比數(shù)字化智能體,物理/具身智能體更強調(diào)對物理世界的感知和行動能力,而這種能力是通過融合現(xiàn)實與虛擬世界,真實與和合成數(shù)據(jù)而獲得的。類似“百模大戰(zhàn)”,人形機器人賽道已有企業(yè)近百家,融資超過百億。當(dāng)前產(chǎn)業(yè)已經(jīng)分化出具身大小腦和本體類廠家,兩者密切協(xié)同進化。當(dāng)然具身智能體不必是人形,業(yè)界也有各種特殊場景的形態(tài)專用機器人、軟體機器人等。除了宏觀的多形態(tài)個體以外,物理/具身智能體還包括微觀、甚至分子尺度的個體。由于物理/具身智能更廣闊的擴展人類認(rèn)識和改造世界的范圍,因而對于未來業(yè)務(wù)發(fā)展和市場拓展具有重要意義。從更宏觀的層面上說,人類發(fā)展物理與具身智能是碳基與硅基協(xié)同進化。近期中國移動提出以傳感器、處理器、存儲器、控制器等物理硬件為“軀體”,以計算智能、感知智能、認(rèn)知智能、運動智能為“神經(jīng)中樞”的硅基生命,將迎來個體規(guī)模倍增,激發(fā)社會發(fā)展新紅利。硅基生命將在數(shù)實融合的世界模型的環(huán)境中互動探索,感知世界、改造世界。同時,ICT基礎(chǔ)設(shè)施也將積極重構(gòu),打造出“硅基生命”發(fā)展成長的訓(xùn)練場以及充分發(fā)揮生產(chǎn)力的環(huán)境底座。面向未來發(fā)展,國內(nèi)運營商正在規(guī)劃打造未來社會的技術(shù)要素和基礎(chǔ)設(shè)施。例如中國移動的通專大模型矩陣、云智算體系、數(shù)聯(lián)網(wǎng)基礎(chǔ)設(shè)施,以及AI訓(xùn)練與產(chǎn)業(yè)創(chuàng)新基地。近期,中國移動進行了國內(nèi)已披露較大規(guī)模人形機器人商業(yè)采購。 AI-ICT?8O&@010206
Ai??:??ê?e1Jù@??JY??ê^@@9?ù*(Al-DC)?@:1Scaleup?l]Scaleout???%t¥?è????üNetGPT???ê???在AI發(fā)展的趨勢下,以及AI發(fā)展必然產(chǎn)生的與包括網(wǎng)絡(luò)在內(nèi)的基礎(chǔ)/應(yīng)用/數(shù)據(jù)等各層面的相互賦能,形成一套覆蓋全面的AI與ICT融合發(fā)展的技術(shù)需求體系:圖1AI與ICT融合發(fā)展技術(shù)需求圖譜圖1AI與ICT融合發(fā)展技術(shù)需求圖譜全能模型的獲取、部署和協(xié)同豐富的模型技術(shù)體系提供全面能力AI大模型技術(shù)已從傳統(tǒng)機器學(xué)習(xí)(如SVM、隨機森林)發(fā)展為以Transformer架構(gòu)為核心大模型的體系,涵蓋語言模型(LLM)、多模態(tài)大模型(MLLM)和視覺語言行動模型(VLA)等方向。多模態(tài)大模型(MLLM):融合文本、圖像、音頻等多模態(tài)數(shù)據(jù),通過跨模態(tài)對齊與融合技術(shù)(如CLIPContrastiveLanguage-ImagePre-training、DiTDi?usionTransformer)實現(xiàn)聯(lián)合理解與生成??商幚韴D文混合輸入,生成連貫的多模態(tài)輸出。但這些方法采用模態(tài)后融合方式,多模態(tài)信息對齊存在損失。發(fā)展方向是從訓(xùn)練之初就打通多模態(tài)數(shù)據(jù),構(gòu)建原生多模態(tài)大模型。VLA(視覺語言行動模型):將視覺感知、語言理解和動作決策端到端融合,實現(xiàn)從環(huán)境觀察到控制指令的直接輸出,適用于具身智能(如機器人、自動駕駛)。通過視覺、語言編碼器、多模態(tài)融合理解,通過動作解碼器生成具體動作。傳統(tǒng)模型依賴特征工程和小規(guī)模數(shù)據(jù),而大模型通過海量數(shù)據(jù)預(yù)訓(xùn)練和微調(diào)實現(xiàn)通用能力,通過千億級參數(shù)和提示學(xué)習(xí)(PromptLearning)支持零樣本任務(wù)。對大模型進行一系列優(yōu)化,比較典型的技術(shù)包括:預(yù)訓(xùn)練階段的多頭潛在注意力機制(MLA),混合專家MoE,F(xiàn)P8混合精度訓(xùn)練等;后訓(xùn)練階段的強化學(xué)習(xí)的GPRO(GroupRelativePolicyOptimization)算法等。多頭潛在注意力機制(MLA):對于LLM推理,用戶請求通常涉及多輪對話。為了效率將先前請求的上下文緩存在KV緩存中。這種增量計算將降低生成符元復(fù)雜度,處理長序列或多輪輸入時效率很高。但直接存儲KV緩存占內(nèi)存過高,通過投影矩陣將所KV壓縮成一個較小的潛在向量,顯著降低內(nèi)存壓力?;旌蠈<夷P停∕oE):通過稀疏激活和動態(tài)路由(如Top-K門控)提升計算效率。例如,Mixtral8x7B,DeepSeek僅激活部分專家網(wǎng)絡(luò),在推理時大大降低激活模型規(guī)模,顯著降低資源消耗。MoE模型在單請求場景中具有獨特的優(yōu)勢。因為每個請求只激活一部分參數(shù),所以內(nèi)存和計算需求大大降低。以Deep-Seek-V2(2360億參數(shù))為例,推理過程只激活210億參數(shù)。這使得AIPC(Apple,2024;NVIDIA,2025;AMD,2025)能夠達(dá)到近20TPS輸出速度。低秩分解((LoRA):屬于后訓(xùn)練微調(diào)技術(shù)的一種,與原模型配合使用,針對領(lǐng)域特定問題的Token,捕獲其與通用模型的差異,通過對差異矩陣的低秩分解,獲得性能良好的小參數(shù)微調(diào)模型。強化學(xué)習(xí)GRPO方法:對同一問題生成多組答案,通過組內(nèi)比較計算相對優(yōu)勢值(如按獎勵排序),無需獨立價值網(wǎng)絡(luò)。解決了PPO等傳統(tǒng)強化學(xué)習(xí)方法需要設(shè)計和計算價值網(wǎng)絡(luò)的復(fù)雜度。推理(Reasoning)大模型:進過推理優(yōu)化或使之具備推理優(yōu)化能力的大模型,通過模型后訓(xùn)練,推理時計算增強、COT等技術(shù)將提升任務(wù)推理能力。計算和通信的重疊:最大限度地提高吞吐量,避免計算等待通信任務(wù)完成,通信等待計算任務(wù)完成。當(dāng)一個微批次執(zhí)行MLA或?qū)τ贛oE的無縫重疊,確保GPU始終得到充分利用。模型技術(shù)的影響領(lǐng)先的開源或閉源模型一般已經(jīng)支持了上述能力,部分模型提供了上述能力的一定范圍內(nèi)調(diào)優(yōu)。因此模型層面的重點在于獲取、協(xié)同、使用、以及在一定情況下的后訓(xùn)練。獲取模型一般通過訪問商用大模型,或者基于開源模型打造私域大模型,基于開源模型,可進一步通過量化、剪枝、低秩分解(LoRA),蒸餾等壓縮技術(shù),選擇和部署與使用場景更加適配的模型。大模型和小模型可以在同一體系中使用,采用智能體協(xié)同或者基于類似MOE架構(gòu)采用選擇網(wǎng)絡(luò)的方式訪問。AI框架:智能時代的操作系統(tǒng)AI框架在AI技術(shù)體系起到基礎(chǔ)性、系統(tǒng)級支撐的關(guān)鍵作用。首先AI框架承上啟下,貫通技術(shù)生態(tài),如同“智能時代的操作系統(tǒng)”,南向適配多樣化硬件算力(如GPU/TPU/國產(chǎn)芯片),北向支撐算法創(chuàng)新與應(yīng)用開發(fā)。并且AI框架可以工程化賦能,提升開發(fā)效率。簡化開發(fā)流程:封裝神經(jīng)網(wǎng)絡(luò)層、優(yōu)化器等組件,減少重復(fù)編碼,支持快速原型設(shè)計。優(yōu)化性能與部署:內(nèi)置硬件加速、模型量化,實現(xiàn)從訓(xùn)練到端邊云部署全面賦能。并且可以通過其廣泛支撐作用,成為構(gòu)建創(chuàng)新生態(tài)的基礎(chǔ)。AI框架中與基礎(chǔ)設(shè)施關(guān)聯(lián)較大的是訓(xùn)練框架和推理框架。訓(xùn)練框架典型代表包括微軟發(fā)起的Deep-訓(xùn)練框架訓(xùn)練框架典型代表是DeepSpeed。DeepSeed通過一系列優(yōu)化創(chuàng)新,降低大規(guī)模模型訓(xùn)練的門檻,提高效率和易用性。內(nèi)存優(yōu)化:ZeRO(ZeroRedundancyOptimizer)旨在消除傳統(tǒng)數(shù)據(jù)并行中存在的內(nèi)存冗余。一般的數(shù)據(jù)并行會在每個GPU上復(fù)制完整的模型參數(shù)、梯度和優(yōu)化器狀態(tài),限制了可訓(xùn)練的模型規(guī)模。而ZeRO通過將這些狀態(tài)分區(qū)(Partitioning)到數(shù)據(jù)并行的各個GPU上來解決這個問題,并支持模型參數(shù)、梯度(G)和優(yōu)化器狀態(tài)(OS)等不同層級的分區(qū)。并行策略:各類并行策略:各種并行技術(shù)的優(yōu)化(DP,Dataparallel數(shù)據(jù)并行,TPTensorParallel張量并行,PP,PipelineParallel流水線并行,EPexpertParallel專家并行)。而3D(PTD)并行可以結(jié)合數(shù)據(jù)并行、流水線并行和張量并行的3D并行策略,以實現(xiàn)更好的模型規(guī)模和訓(xùn)練效率。混合精度:混合精度可以將部分與數(shù)值穩(wěn)定性關(guān)聯(lián)密切的組件保留高精度如FP16的基礎(chǔ)上,對前向傳遞、激活反向傳遞,權(quán)重反向傳遞等數(shù)值采用FP8精度。在保持整體精度的前提下降低資源需求。Deep-Speed支持對參數(shù)、激活值等對象進行量化,以壓縮模型規(guī)模,提升訓(xùn)練效率。量化主要面向模型權(quán)重、KV值、激活值,并且可以結(jié)合使用,例如Quantization:e.g.權(quán)重INT8,激活FP16.推理框架推理框架典型代表是vLLM和SGLANG分階段KV緩存優(yōu)化:推理優(yōu)化的核心挑戰(zhàn)在于高效管理KV緩存。KV緩存是自回歸解碼的關(guān)鍵,但其大小動態(tài)增長且占用大量GPU顯存,成為限制并發(fā)處理和系統(tǒng)吞吐量的主要瓶頸。此外,推理過程通常分為兩個階段:預(yù)填充(Pre?ll)和解碼(Decode)。Pre?ll階段通常并行計算初始KV緩存,計算密集。Decode階段則逐個生成輸出Token,通常訪存密集。對于交互式應(yīng)用,首個Token延遲(TimeToFirstToken,TTFT)和每個輸出Token的時間(TimePerOutputToken,TPOT)都很重要。多種注意力機制優(yōu)化:推理框架包括VLLM,SGLAN等,vLLM關(guān)鍵技術(shù)例如PagedAttention操作系統(tǒng)的虛擬內(nèi)存分頁機制,將KV緩存邏輯上劃分為固定大小的塊(Pages),物理上則按需動態(tài)地從預(yù)先分配的物理塊池中分配非連續(xù)的內(nèi)存塊。較好的解決了內(nèi)存碎片問題。SGLANG則提出了RadixAttention與vLLM等引擎通常在請求結(jié)束后就丟棄KV緩存不同,RadixAttention維護了一個全局的、跨所有請求共享的KV緩存。在多輪對話中,歷史對話部分的KV緩存可以被后續(xù)輪次復(fù)用。預(yù)測采樣:較小模型提供初步解碼,大模型確認(rèn)。由于確認(rèn)是生成速度的5倍,因此大小模型配合時較小模型可以以較快速度生成TOKEN,而大模型如果生成則速度較慢,但是大模型可以用較少的時間進行驗證,整體上即提供了質(zhì)量保證又加快了生成速度。其他框架模型框架模型框架包括閉源和開源的框架體系,其中開源的pytorch,Tensor?ow占有主流地位。PyTorch:支持動態(tài)計算圖,靈活適配各類模型(如Transformer、CNN),學(xué)術(shù)界首選,提供torch.nn.Module模塊化接口,便于自定義模型結(jié)構(gòu),并兼容HuggingFace等生態(tài)。TensorFlow:早期依賴靜態(tài)圖優(yōu)化,2.x版本支持動態(tài)圖,工業(yè)界主流,內(nèi)置KerasAPI簡化模型構(gòu)建,支持TPU加速及TensorFlowServing部署,適合大規(guī)模生產(chǎn)。智能體框架Dify:低代碼平臺,支持多模型(如GPT、Llama3),內(nèi)置RAG管道和可視化工作流,適合快速構(gòu)建企業(yè)級AI應(yīng)用(如客服機器人、知識庫問答)。AutoGen:微軟開源的多智能體框架,支持LLM(如Gemini)協(xié)作,通過角色化Agent(如編碼/審核Agent)完成復(fù)雜任務(wù)(如自動化測試、數(shù)據(jù)分析)。從數(shù)據(jù)管理、開發(fā)、探索到世界模型在應(yīng)用AI技術(shù)方面,數(shù)據(jù)起著重要的基礎(chǔ)作用。主要面臨兩個方面的挑戰(zhàn)。模型生命周期數(shù)據(jù)需求傳統(tǒng)機器學(xué)習(xí)(ML)領(lǐng)域:數(shù)據(jù)和模型工作同步開展。基礎(chǔ)訓(xùn)練基于任務(wù)領(lǐng)域高質(zhì)量數(shù)據(jù),相同任務(wù)不同環(huán)境下,模型需要對環(huán)境作出適配。當(dāng)模型用于相似但不同的領(lǐng)域需要相應(yīng)的數(shù)據(jù)訓(xùn)練來支撐泛化遷移。當(dāng)面模型面對任務(wù)領(lǐng)域的新數(shù)據(jù),表征分布發(fā)生漂移,需要持續(xù)學(xué)習(xí)。大模型(LLM)領(lǐng)域:包括基于預(yù)訓(xùn)練模型結(jié)合零樣本、領(lǐng)域知識、后訓(xùn)練微調(diào)、RL推理增強等不同適配場景。零樣本即無數(shù)據(jù)使用大模型??赡苤灰S富問題描述prompt、極少量示例數(shù)據(jù)等。領(lǐng)域知識則可能包括多模態(tài)知識數(shù)據(jù),并且要做好的Embedding。后訓(xùn)練微調(diào)時基于一定規(guī)模樣本數(shù)據(jù),一般帶標(biāo)注,可能含AI合成數(shù)據(jù)。RL推理增強需要一定規(guī)模高質(zhì)量樣本數(shù)據(jù)。私域數(shù)據(jù)開發(fā)對預(yù)訓(xùn)練大模型來說,通用數(shù)據(jù)逐漸耗盡,但私域數(shù)據(jù)開發(fā)利用剛剛開啟。在建設(shè)企業(yè)級大模型知識庫時,現(xiàn)有知識的準(zhǔn)確高效全面理解,知識體系之間的相互關(guān)聯(lián)和聯(lián)合確認(rèn)非常重要。為此,采用適當(dāng)?shù)男聰?shù)據(jù)探索和世界模型新數(shù)據(jù)的探索主要是加強通過世界模型感知獲得數(shù)據(jù),因此未來部分?jǐn)?shù)據(jù)將可以通過計算獲得,算力和數(shù)據(jù)一定程度上可互換。批量合成數(shù)據(jù)、強化學(xué)習(xí)動態(tài)探索數(shù)據(jù)將成為重要的數(shù)據(jù)運用形態(tài)。基于數(shù)據(jù)動態(tài)探索的方式,世界模型的概念往往作為數(shù)字孿生的下一階段形態(tài)。體現(xiàn)出數(shù)據(jù)的系統(tǒng)性,從生成式AI時代,支持一種“生成”數(shù)據(jù)的機制?即“世界模型”。當(dāng)前世界模型建模重點是提升物理世界建模水平。通過原生多模態(tài)統(tǒng)一架構(gòu)統(tǒng)一Token空間,通過新型多模態(tài)視覺Tokenizer,將圖像、視頻、文本編碼為同構(gòu)tokens,形成模態(tài)無關(guān)的表征。跨模態(tài)映射通過端到端推理鏈實現(xiàn)多模態(tài)指令到多模態(tài)結(jié)果的直接映射。而物理時空推理建模物理對象的動態(tài)交互(如預(yù)測物體運動軌跡、場景狀態(tài)演化)。具身智能賦能層,為機器人提供環(huán)境理解與任務(wù)規(guī)劃能力例如:識別貨架物品并規(guī)劃抓取路徑。智算中心(AI-DC)網(wǎng)絡(luò):從Scaleup到Scaleout算力集群和多場景擴展單卡算力無法滿足(千億、萬億、10萬億參數(shù))大型模型發(fā)展的算力需求,千卡,萬卡,10萬卡級別的大規(guī)模算力集群不斷出現(xiàn),并且在訓(xùn)練和推理不同場景下產(chǎn)生多樣化的并行化和云邊協(xié)同等需求。構(gòu)建這樣的集群和分布式體系,需要大帶寬、大規(guī)模、高吞吐、無損高性能、高彈性、高可靠的網(wǎng)絡(luò)。從架構(gòu)上,數(shù)據(jù)中心網(wǎng)絡(luò)以兩級、三級Fat-treeCLOS,Dragon?y,Torus(谷歌數(shù)據(jù)中心TPUPod價之間取得平衡。算力節(jié)點向外scaleout網(wǎng)絡(luò)則通過RDMA如DeepSeekV3就通過部署多平面兩層Fat-Tree網(wǎng)絡(luò)來替代傳統(tǒng)的3層Fat-Tree拓?fù)浣Y(jié)構(gòu),實現(xiàn)了經(jīng)濟高效的AI基礎(chǔ)設(shè)施。AI訓(xùn)推對AI-DC的需求各類并行技術(shù)由于模型規(guī)模大,層次多,算力要求高等原因,需要各類并行技術(shù)如數(shù)據(jù)并行、模型并行(如流水線并行)、張量并行、專家并行、混合并行等技術(shù),在每輪迭代中同步模型參數(shù)、層間激活值等。模型訓(xùn)推的各種并行策略將產(chǎn)生不同的網(wǎng)絡(luò)影響。如TP張量并行往往產(chǎn)生較高的GPU內(nèi)部通信需求,需要比如NVLink這樣的超高GPU互聯(lián)帶寬提供支持。數(shù)據(jù)并行時各個GPU之間需要各種分布式、并行計算的集合通信例如all-gather,all-reduce等通信,一般需要節(jié)點和算力中心之間的RDMA的通信支持。MoE動態(tài)路由通過多GPU專家并行(EP)實現(xiàn)分布式部署時,通過All-to-All通信同步激活狀態(tài)。專家并行一般體現(xiàn)在軟件層面,對通信架構(gòu)相對影響較小,但需要處理好專家負(fù)載不均衡問題。各種并行策略中流水線并行(PP)對網(wǎng)絡(luò)影響較大。Transformer不同層之間的關(guān)系在執(zhí)行上可以認(rèn)為是流水線并行關(guān)系。對于微調(diào)級訓(xùn)練,通過流水線并行,將transformer的前幾層或前后幾層部署在邊緣,數(shù)據(jù)在本地,通過本地與中心的訓(xùn)練流水線配合,微調(diào)數(shù)據(jù)量可控,通過參數(shù)面進行通信。從推理角度,也可以開展同樣的部署。這種情況下,由于本地只處理流水線一小部分,邊緣算力需求降低,而中心與邊緣之間的流水線之間具有神經(jīng)網(wǎng)絡(luò)流量,產(chǎn)生通信需求。需要廣域RDMA技術(shù)支持。云邊協(xié)同技術(shù)宏觀層面的中訓(xùn)邊推、云邊協(xié)同。通過宏觀的任務(wù)級分類,模型訓(xùn)練或高精度大計算量的任務(wù)由中心執(zhí)行,邊緣執(zhí)行相對簡單的推理任務(wù)。邊緣往往部署更小的蒸餾模型。邊緣與中心的關(guān)系可以是相對獨立,協(xié)同更新:例如在邊緣部署的蒸餾小模型,當(dāng)場景發(fā)生變化時可將推理生成數(shù)據(jù)回流至中心大模型進行訓(xùn)練調(diào)整,或者是根據(jù)每次任務(wù)按照任務(wù)特征進行路由或者像谷歌GoogleGeminiNano采用基于置信度路由的方式進行選擇?;蛘呦馎pplePCC對云邊之間的數(shù)據(jù)進行壓縮傳輸。PD分離技術(shù)PD分離推理、是一種重要的推理優(yōu)化方案。針對大模型推理階段的異構(gòu)資源需求解耦。將計算密集的Pre?ll(預(yù)填充)階段與內(nèi)存密集的Decode(解碼)階段分離,部署到不同類型的硬件上(如Pre?ll用高算力GPU,Decode用高帶寬內(nèi)存設(shè)備)。目標(biāo)是解決兩階段資源爭搶問題(如Pre?ll阻塞Decode)、優(yōu)化延遲和吞吐量。PD分離可以與其他并行技術(shù)結(jié)合進行。例如全局采用PD分離(Pre?ll/Decode異構(gòu)部署)→Pre?ll節(jié)點內(nèi)部使用張量并行(TP)→Decode節(jié)點內(nèi)部采用流水線并行(PP)。PD之間需要傳送中間隱變量和KVCache,根據(jù)具體的部署配置通過基于scaleup或scaleout技術(shù)的網(wǎng)絡(luò)進行通信。AI-DCScaleup和Scaleout技術(shù)體系Scaleup和Scaleout技術(shù)提供了從1cm到100km+廣闊空間尺度上的高速無損網(wǎng)絡(luò)連接。在Scale up方面,NVLink、UALink、OISA等技術(shù)提升單節(jié)點內(nèi)設(shè)備間帶寬與協(xié)同效率,提供百納秒遲延,適用于GPU間內(nèi)存共享、張量并行、專家協(xié)同等場景的GPU互聯(lián)。在Scaleout方面,RDMA技術(shù)以零拷貝(避免內(nèi)存復(fù)制)、內(nèi)核旁路(減少CPU開銷)、傳輸卸載(網(wǎng)卡硬件加速)等特性使RDMA在跨節(jié)點/數(shù)據(jù)中心場景下保持微秒級延遲。RDMA技術(shù)包括IB、RoCE、UEC、GSE等。2.4.4網(wǎng)絡(luò)對AI流量控制能力AI流量特征AI流量具有周期性、單流大、流量少等特點。周期性是指AI訓(xùn)練通信模式(如梯度聚合ALL-Reduce)周期發(fā)生,爆發(fā)大量通信。單流大即GPU之間數(shù)據(jù)交換(如梯度、權(quán)重)數(shù)據(jù)量巨大,形成非常寬的大象流”。而流量少表現(xiàn)為相比傳統(tǒng)數(shù)據(jù)中心大量、細(xì)碎的TCP短連接,AI訓(xùn)練時GPU間通信流數(shù)量相對較少。傳統(tǒng)負(fù)載均衡在AI流量條件下容易導(dǎo)致少量大象流和通信關(guān)系固定,某些鏈路被少量大象流填滿,而其他鏈路空閑,導(dǎo)致整體吞吐下降,擁塞。網(wǎng)絡(luò)的負(fù)載均衡能力AI訓(xùn)練的核心通信原語是集合通信算子(ALLReduce、ALLtoALL、ALLGather等),不同算法實現(xiàn)下,它們產(chǎn)生的流量模式差異巨大。網(wǎng)絡(luò)負(fù)載均衡需“理解”這些算子和算法,智能地選擇優(yōu)化的路徑組合來承載這些流量。進一步的,AI訓(xùn)練任務(wù)的流量模式在任務(wù)啟動時通常是可預(yù)測或可感知,網(wǎng)絡(luò)應(yīng)建立“流量模型”,用以在所有可用的網(wǎng)絡(luò)路徑中進行全局優(yōu)化,找出均衡承載該模型通信量的合理方式。同時,AI網(wǎng)絡(luò)中基于流的負(fù)載均衡在面對少量大流時會失效。如果將一個大流的數(shù)據(jù)包拆散,根據(jù)更細(xì)粒度進行更全面的調(diào)度,并有序整合可以更好的利用網(wǎng)絡(luò)能力。流量控制能力流量控制能力的核心目標(biāo)是在網(wǎng)絡(luò)已經(jīng)發(fā)生或即將發(fā)生擁塞時,避免因丟包造成的性能斷崖式下降,確保AI模型訓(xùn)練流量的低時延和無損傳輸。AI訓(xùn)練的同步性和通信密集性使其對網(wǎng)絡(luò)延遲和丟包極其敏感。因此要求支持比如PFC(Priority-basedFlowControl)適時向上游發(fā)送設(shè)備(例如源GPU所在的TOR交換機或源服務(wù)器網(wǎng)卡)發(fā)送擁塞控制信號。此外,還需要進一步的提供PFC死鎖預(yù)防、自動解除等機制。2.5 深度神經(jīng)網(wǎng)絡(luò)和2.5 深度神經(jīng)網(wǎng)絡(luò)和NetGPT極致性能5G/6GIP和光網(wǎng)絡(luò)AI作為賦能技術(shù)應(yīng)用于網(wǎng)絡(luò)由來已久,在經(jīng)典機器學(xué)習(xí)時代,機器學(xué)習(xí)模型就被廣泛應(yīng)用于網(wǎng)絡(luò)運營和維護分析。隨著硬件加速的發(fā)展,算力門檻的跨越,模型的輕量化結(jié)構(gòu)及量化壓縮,低時延的要求也推動了更多網(wǎng)元級部署場景。AI在網(wǎng)絡(luò)中的位置從“外掛”到“內(nèi)生”演進。更多的機器學(xué)習(xí)和AI模型不但在運維、自智網(wǎng)絡(luò)等分析領(lǐng)域廣泛使用,也被用于無線網(wǎng)絡(luò)設(shè)備、核心網(wǎng)絡(luò)設(shè)備、光和IP網(wǎng)絡(luò)等,對網(wǎng)絡(luò)技術(shù)體系開展全面的AI賦能。建模賦能方法以無線網(wǎng)絡(luò)為例,在不同網(wǎng)絡(luò)的典型AI賦能體系一般可以分為數(shù)據(jù)采集層、模型訓(xùn)練層和推理執(zhí)行層。數(shù)據(jù)采集層:標(biāo)準(zhǔn)化數(shù)據(jù)接口,統(tǒng)一收集UE測量報告(RSRP/RSRQ/SINR)、基站負(fù)載、信道狀態(tài)信息(CSI)、業(yè)務(wù)流量等。模型訓(xùn)練層:根據(jù)任務(wù)類型選擇監(jiān)督學(xué)習(xí)(如分類、回歸)或無監(jiān)督學(xué)習(xí)(如聚類)。推理執(zhí)行層:部署輕量化模型至近實時RIC(處理時延<1秒的任務(wù))或非實時RIC(處理長期優(yōu)化)。物理層不完備機理建模建模的典型場景可以基于物理層不完備機理(信道模型等)模型,如物理層傳播模型,AI-RAN可以通過模型/Agent原生支持多場景UC;建模用戶、感知難以建模領(lǐng)域(Sentiment,Semantics),例如元宇宙xURLLC的服務(wù)設(shè)計和KPI;發(fā)揮網(wǎng)絡(luò)優(yōu)勢,建模多尺度時空關(guān)聯(lián)(temporal-spatialattention)應(yīng)用于通感,光纖通感一體等將通信延伸到感知的技術(shù)。時空關(guān)聯(lián)建模在無線網(wǎng)絡(luò)中,利用時空關(guān)聯(lián)進行時空聯(lián)合建模具有重要意義。時間維度上可以采用LSTM或Trans-former模型捕捉信道質(zhì)量、用戶移動軌跡的時序特性。例如,預(yù)測未來10秒的CSI時,輸入包含歷史CSI序列和終端速度??臻g維度上可以結(jié)合圖神經(jīng)網(wǎng)絡(luò)(GNN)等建?;鹃g拓?fù)潢P(guān)系,優(yōu)化負(fù)載均衡策略。遷移學(xué)習(xí)基于經(jīng)典機器學(xué)習(xí)、包括深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的模型,針對不同部署環(huán)境下數(shù)據(jù)的差異性,或者多廠商設(shè)備異構(gòu)性等情況,需要通過遷移學(xué)習(xí)基于本地數(shù)據(jù)對原有模型進行微調(diào)訓(xùn)練。大模型NetGPT傳統(tǒng)模型盡管在特定領(lǐng)域特定任務(wù)上具有良好表現(xiàn),但是適應(yīng)不同的場景及變化需要不同的模型以及大量的適配工作。使得模型往往只能做點狀部署而不能大規(guī)模的得到充分應(yīng)用。一種有效的方法是借助大模型智能體的自主感知規(guī)劃執(zhí)行能力。在廣泛的網(wǎng)絡(luò)領(lǐng)域應(yīng)用大模型,并以大模型自主智能管理傳統(tǒng)模型全生命周期。因此將產(chǎn)生大模型、智能體、大算力穿透基礎(chǔ)設(shè)施,在各種網(wǎng)絡(luò)形用大模型,大模型代理/智能體、或者專業(yè)推理模型LLM及其智能體。業(yè)界也提出NetGPT,主要負(fù)責(zé)網(wǎng)絡(luò)層面的大模型支持,并且可以與云端的通用大模型配合工作。NetGPT可以基于語言大模型進行領(lǐng)域微調(diào),或者基于領(lǐng)域Token進行定制。還有一種場景是采用大模型transformer的技術(shù)模塊,如注意力機制模塊等,用于目標(biāo)問題的長程關(guān)聯(lián)建模等任務(wù)。提供傳統(tǒng)機器學(xué)習(xí)并不具備的新能力。AI-RAN嘗試和趨勢既然在網(wǎng)絡(luò)設(shè)備上原生的形成了以大模型為底座,各類模型充分發(fā)展的態(tài)勢,那么AI可以從三個方面發(fā)展:AI模型+算力對原有RAN網(wǎng)絡(luò)功能在某些情況下的替代在RAN側(cè)直接運行面向上層業(yè)務(wù)更加通用的AI工作負(fù)載不需要AI模型,直接對原有的網(wǎng)絡(luò)功能考慮采用AI算力(大規(guī)模并行計算)執(zhí)行。這方面典型例子是英偉達(dá)的AI-RAN。英偉達(dá)的AI節(jié)點包括CPU和GPU,在其GPU上已經(jīng)開始支持以上三種方式,比如TDD層1,MassiveMIMO,以及部分層2功能如調(diào)度加速(cuMAC,cuPHY)。部分不適合GPU的可以部署在CPU處理。AgenticAI:從知行合一到數(shù)實融合Agent構(gòu)建AI賦能體系A(chǔ)gent智能體是一種基于大語言模型的自主智能系統(tǒng),能夠通過感知環(huán)境、規(guī)劃目標(biāo)、調(diào)用工具、執(zhí)行行動,調(diào)用記憶,完成復(fù)雜任務(wù)。它突破了傳統(tǒng)AI的被動響應(yīng)模式,具備面向任務(wù)目標(biāo)的的主動思考和行動能力。它可以通過ReAct(Reason-Act)先推理思考后行動的方式,通過COT方式將復(fù)雜任務(wù)分解規(guī)劃為多個執(zhí)行步驟,它可以接受反饋,基于反饋決定行為策略,還可以通過Re?ection方式對過去的行為和結(jié)果進行反思,用以后續(xù)的優(yōu)化。Agent在各種業(yè)務(wù)中具有廣泛前景和價值潛力,不但可以從流程運營的角度承擔(dān)整個業(yè)務(wù)流程和具體的每個業(yè)務(wù)子流程,也可以從產(chǎn)品的角度,將產(chǎn)品功能體系映射到智能體體系,從而實現(xiàn)模塊級和產(chǎn)品級部署,使智能體成為原生產(chǎn)品內(nèi)部功能模塊。智能體通信網(wǎng)絡(luò)基于MCP,A2A,ANP等技術(shù)實現(xiàn)智能體的通信,Agent加速賦能代理型AI。而Agent作為新的用戶可以與后端資源通過MCP進行互動。A2A一般用于組織內(nèi)的智能體之間通信。ANP擴展到更廣泛的去中心化網(wǎng)絡(luò),使智能體能夠發(fā)現(xiàn)彼此并進行安全的多方協(xié)作。以構(gòu)建一個開放的“智能體社會網(wǎng)絡(luò)”。智能體需要各種數(shù)據(jù)和能力資源來完成任務(wù)。API是AgenticAI能力基石;AI則對API進行了全新賦能。實現(xiàn)更加智能的API使用,例如,可以基于檢索的方法將LLM作為控制器,自主編排任務(wù)規(guī)劃;或者基于生成的方法通過微調(diào)LLM,使LLM學(xué)習(xí)根據(jù)說明選擇工具。Agent賦能數(shù)智化轉(zhuǎn)型基于智能體代理對世界模型的精確感知,規(guī)劃和執(zhí)行行動,運用工具,自主探索任務(wù),體現(xiàn)“算-數(shù)”互動無限推演,可以助力長尾流量挖掘,工具API整合以及跨平臺協(xié)同引流。AgenticAI作為新的用戶,將AI智能從LLM類型的信息供需關(guān)系升級為基于Agent的職責(zé)和能力的全面授權(quán)。Agent的智能來自LLM,除了基座大模型,Agent也可以使用領(lǐng)域?qū)S玫耐评砟P瓦M一步提升效果。也可以對接多樣化的模型,或者根據(jù)任務(wù)的不同,激活不同的MOE專家,或者接入不同的大模型。在模型的泛化能力基礎(chǔ)上,基于智能體通過對企業(yè)針對性的業(yè)務(wù)訓(xùn)推本地化,專業(yè)數(shù)據(jù)信任化,AI加持下企業(yè)可以快速行動,專業(yè)壁壘將在一定程度上打破。根據(jù)企業(yè)不同的信息和應(yīng)用系統(tǒng),智能體在明確職責(zé),清晰數(shù)據(jù)邊界等約束下,在例如市場營銷、設(shè)計研發(fā)、生成制造、客戶服務(wù)等不同領(lǐng)域構(gòu)建智能體體系。將原有的組織架構(gòu)、工作流通過智能體體系進行延展、擴充和增強。在提升效率的同時,保障可靠性、可觀性、合規(guī)性、和持續(xù)演進性。物理和具身智能體物理和具身智能體包括智能終端、智能汽車、人形機器人等。具身智能在實體產(chǎn)業(yè)如制造業(yè)等領(lǐng)域具有廣泛前景。物理和具身智能體由于需要與實體世界互動,需要處理的模態(tài)更多,因此會使用MLLM這樣的多模態(tài)大模型作為大腦,它接收自然語言指令(如“搬移工件”),構(gòu)建動態(tài)場景圖,生成原子任務(wù)序列(“抓取物品→放置到桌面”)。更進一步的對于復(fù)雜對象,可能先需要對可操作區(qū)域感知,識別物體可交互區(qū)域,然后進行軌跡預(yù)測,生成操作路徑。具體動作執(zhí)行則需要VLA這樣的模型接收原子任務(wù)(如“抓取物品”),結(jié)合實時視覺輸入,生成低層控制信號(如關(guān)節(jié)扭矩、輪速等)。同時,物理和具身智能身處物理環(huán)境中,其發(fā)展加速需網(wǎng)絡(luò)配合,5/6G+TSN時間敏感網(wǎng)絡(luò)時延壓縮至μs級,提升具身智能動作精度,保障場景落地。而基于算網(wǎng)協(xié)同,則可以大幅減輕機器人本體的硬件負(fù)擔(dān)與成本,以更強的算力支撐起更復(fù)雜、持續(xù)的實時環(huán)境感知與思考。物理和具身智能體未來可能形成復(fù)雜多智能體協(xié)同,而多智能體通信和協(xié)同決策需要網(wǎng)絡(luò)賦能交互能力。3.1聚焦7個重點戰(zhàn)略方向3.1聚焦7個重點戰(zhàn)略方向AI度參與了AI與ICTAI技術(shù)和產(chǎn)業(yè)生態(tài)經(jīng)歷了擴展律和新摩爾定律下AI滲透的廣度和深度前所未有AI對ICT基礎(chǔ)設(shè)施提出了系統(tǒng)性的挑戰(zhàn)和當(dāng)前部分AI技術(shù)階段性收斂AI賦能邏輯逐漸清晰思考未來AI通信/IT與AI的融合發(fā)展在重重挑戰(zhàn)中投射出諸多創(chuàng)新發(fā)展機遇。圖2AI與ICT協(xié)同發(fā)展的戰(zhàn)略重點戰(zhàn)略引領(lǐng)把握時代背景下AI和ICTAI+6CMQ6CMQ代表6G/算力網(wǎng)/工業(yè)智能體/AI與6G6G-AI創(chuàng)新研究在6GAI6GMassiveMIMOLLM6GISAC等細(xì)分域技術(shù)優(yōu)勢。數(shù)字化轉(zhuǎn)型GenAI“深度融合”通過打造AI外部業(yè)務(wù)的AI能力支撐。03生態(tài)合作與標(biāo)準(zhǔn)推動03
戰(zhàn)略思考結(jié)合標(biāo)準(zhǔn)組織、打造AI領(lǐng)域的發(fā)展環(huán)境。借力生態(tài)伙伴平臺,協(xié)同和擴大AI相關(guān)產(chǎn)業(yè)生態(tài)合作。AIDC牢牢把握AI時代數(shù)據(jù)中心內(nèi)部與外部各類AI并行技術(shù)、分布式部署和訓(xùn)推優(yōu)化導(dǎo)致的AIDC技術(shù)需求,結(jié)合AI執(zhí)行邏輯,AI流量和集合通信模式,提供優(yōu)化的基礎(chǔ)網(wǎng)架構(gòu)模式,scaleup/scaleout無擁塞無損網(wǎng)絡(luò)連接,智能AI網(wǎng)絡(luò)流控技術(shù)。大力發(fā)展增強AI能力支撐從1cm到100km+寬廣空間上的網(wǎng)絡(luò)架構(gòu)、功能和技術(shù)。AI-RAN深度挖掘價值場景,基于AI賦能方法創(chuàng)新探索具有顯著網(wǎng)絡(luò)價值或效率提升的場景。從物理層非完備模型建模和網(wǎng)絡(luò)時序序列、時空復(fù)雜關(guān)系建模等關(guān)鍵領(lǐng)域,采用機器學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)、大模型NetGPT等賦能。探索A-RANcomputing。高階自智建立智能體體系,系統(tǒng)性的推動現(xiàn)有業(yè)務(wù)流程和能力向高階自智網(wǎng)絡(luò)演進,通過專業(yè)化推理模型提升業(yè)務(wù)精度,通過智能體閉環(huán)設(shè)計提升業(yè)務(wù)適應(yīng)能力,通逐步以智能替換人力,并為后續(xù)業(yè)務(wù)從升級維護到新業(yè)務(wù)創(chuàng)新發(fā)展的全生命周期提升效率和效果。工業(yè)智能體面向新型工業(yè)化,打造工業(yè)場景下的具身智能與企業(yè)數(shù)字化生產(chǎn)的任務(wù)流、數(shù)據(jù)流、物理對象的深度融合,通過具身化AI工業(yè)智能體,結(jié)合無損專網(wǎng)等場景AI基礎(chǔ)設(shè)施,推動具身智能的工作執(zhí)行、任務(wù)適配、靈活部署,并提升能耗效率和任務(wù)精度。3.2 全面推進AI戰(zhàn)略實施3.2 全面推進AI戰(zhàn)略實施系統(tǒng)規(guī)劃演進路線在聚焦戰(zhàn)略重點的基礎(chǔ)上,還需要面向更廣闊的AI與ICT融合發(fā)展空間及發(fā)展未來,根據(jù)自身情況,向下夯實數(shù)據(jù)和模型基礎(chǔ),向前系統(tǒng)規(guī)劃演進路線,向上與市場和生態(tài)加強對接。實現(xiàn)從戰(zhàn)略引領(lǐng)->創(chuàng)新驅(qū)動->生態(tài)合作->能力發(fā)展->產(chǎn)品研發(fā)->市場部署的端到端可持續(xù)戰(zhàn)略閉環(huán)。夯實數(shù)據(jù)和技術(shù)基礎(chǔ)數(shù)據(jù)領(lǐng)域:發(fā)揮大數(shù)據(jù)領(lǐng)域的優(yōu)勢,加強對企業(yè)和運營商領(lǐng)域數(shù)據(jù)的賦能。幫助企業(yè)合作伙伴開發(fā)私域數(shù)據(jù),并且通過實體、具身世界感知互動采集數(shù)據(jù),將實體世界數(shù)據(jù)與仿真領(lǐng)域數(shù)據(jù)相結(jié)合,利用生成式AI,推動更廣泛數(shù)據(jù)的生成和建模,推動高價值的新數(shù)據(jù)開發(fā)并用于模型訓(xùn)練和優(yōu)化。模型領(lǐng)域:通過對選擇的商用模型和定制的開源模型和多種算力部署及網(wǎng)絡(luò)支撐,實現(xiàn)多樣化模型能力和模型來源的支持。并通過通信行業(yè)、工業(yè)制造等不同領(lǐng)域模型后訓(xùn)練和推理時計算等能力不斷提升模型的實際使用效果。充分利用訓(xùn)練和推理框架技術(shù),將模型和算力、網(wǎng)絡(luò)基礎(chǔ)設(shè)施結(jié)合訓(xùn)練和推理的部署場景,實現(xiàn)更優(yōu)化的模型部署、運行的效率和效果。逐步融合QML量子機器學(xué)習(xí)技術(shù)。算力方面:通過綜合GPU,ASIC不同技術(shù)、基于NVIDIA、國產(chǎn)芯片的不同來源,云上和本地部署等多種方式,緩解算力瓶頸。結(jié)合業(yè)界GPU+QPU算力協(xié)同發(fā)展趨勢、探索對QPU新型算力的運用。加強市場和生態(tài)對接市場發(fā)展:以AI與ICT融合發(fā)展戰(zhàn)略為引領(lǐng),多業(yè)務(wù)部門協(xié)同面對市場提供AI相關(guān)的整合方案,在AIDC方案體系中綜合AI/DC/Networking等多方面資源,面向多場景提供整體方案。加強AI-RAN拓展工作。在工業(yè)智能體等新興領(lǐng)域加強關(guān)鍵市場合作,并在專網(wǎng)市場等廣泛領(lǐng)域?qū)ふ腋嗫蛻?。?biāo)準(zhǔn)推動:繼續(xù)推動推理加速、多模態(tài)大模型,代理型人工智能(智能體)、在數(shù)據(jù)、模型、算子等層面的關(guān)鍵技術(shù)標(biāo)準(zhǔn)化工作,并重點關(guān)注數(shù)據(jù)中心、數(shù)據(jù)與AI相關(guān)領(lǐng)域規(guī)范,如AI計算數(shù)據(jù)中心橫向擴展Scaleout網(wǎng)絡(luò)技術(shù)要求;智算中心面向預(yù)填充解碼(PD)分離架構(gòu)大模型推理等。產(chǎn)業(yè)合作:在AI快速發(fā)展、產(chǎn)業(yè)融合的時代,面對新的參與力量大量的加入,把握未來必然需要深度參與。通過參與AI產(chǎn)業(yè)聯(lián)盟,生態(tài)合作平臺等,線上線下廣泛開展合作,在深刻理解大模型、智能體、量子機器學(xué)習(xí)等AI發(fā)展領(lǐng)域與ICT協(xié)同發(fā)展的本質(zhì)需求,打造面向未來的能力??偨Y(jié)與展望AI發(fā)展浪潮已經(jīng)到來。以中、美、歐為代表的全球力量主導(dǎo)AI的不斷加速發(fā)展。尤其是中美競爭下形成“東”、“西”兩大生態(tài)呈現(xiàn)出各自鮮明特點。美國以規(guī)模法則(Scalinglaw)律筑基算力增長,在消費、生產(chǎn)端廣泛推動AI賦能。在中國AI發(fā)展體系中,國家在長期規(guī)劃、政策指引、推動AI賦能產(chǎn)業(yè)發(fā)展等方面發(fā)揮重要作用。在這樣的宏觀環(huán)境下,全球AI產(chǎn)業(yè)、市場近年來取得重要進展和前所未有的發(fā)展廣度、深度和速度。美國的星際之門(stargate)項目規(guī)模龐大,GoogleGemini,OpenAIGPTMetaLlamaxAIGrok等模型實力強勁。英偉達(dá)在GPU,谷歌在TPU等算力領(lǐng)域具有極大影響力。而國內(nèi)AI領(lǐng)域的DeepSeek,Qwen,Kimi歐洲建設(shè)成為全球人工智能領(lǐng)域領(lǐng)導(dǎo)者為目標(biāo),在眾多細(xì)分領(lǐng)域產(chǎn)生出了一批有全球影響力的企業(yè)。新摩爾定律繼續(xù)推動著AI算力及其關(guān)聯(lián)的新型網(wǎng)絡(luò)的有力增長,中美算力競爭已經(jīng)將智算中心/數(shù)據(jù)中心推進到E?ops(10^18)級別以上的規(guī)模,美國最大規(guī)模算力中心(xAI)已經(jīng)達(dá)到200E?ops級別。擴展律在模型方面表現(xiàn)為首先是預(yù)訓(xùn)練主導(dǎo)階段的規(guī)?;?、然后是以強化學(xué)習(xí)為特征的后訓(xùn)練階段,模型能力隨著強化學(xué)習(xí)探索的增長持續(xù)優(yōu)化的現(xiàn)象。擴展律開始增加向“后訓(xùn)練“和“推理時計算”拓展,體現(xiàn)出從「數(shù)據(jù)驅(qū)動」轉(zhuǎn)向「推理驅(qū)動」的特點。對于我們特別關(guān)注的ICT,AI直接影響著網(wǎng)絡(luò)數(shù)據(jù)流量。市場對今后幾年AI以Token為特征的流量增長預(yù)測充滿信心。事實上AI對于ICT產(chǎn)業(yè)有著更加深遠(yuǎn)的影響。在AI大潮下,整個社會和產(chǎn)業(yè)鏈都在思考與這場潮流的關(guān)系,如何避免遠(yuǎn)離發(fā)展的中心,如何把握重要的發(fā)展機遇。芯片廠家以萬億級的規(guī)模,首先立足和把握著AI發(fā)展的關(guān)鍵基礎(chǔ)設(shè)施。各類業(yè)務(wù)應(yīng)用則紛紛通過基于AI的業(yè)務(wù)重構(gòu)參與其中。對網(wǎng)絡(luò)基礎(chǔ)設(shè)施而言不只是用戶流量層面的網(wǎng)絡(luò)AI流量的增長和演變,更重要的是,在深度解構(gòu)AI計算和通信要素的關(guān)系的基礎(chǔ)上,深刻認(rèn)識到AI帶來內(nèi)部圍繞神經(jīng)網(wǎng)絡(luò)的“神經(jīng)網(wǎng)絡(luò)流量“對網(wǎng)絡(luò)的沖擊,這也表明,我們正從“內(nèi)容通信“時代向“任務(wù)執(zhí)行”時代演變,而網(wǎng)絡(luò)數(shù)據(jù)流量特征將在“網(wǎng)絡(luò)流量”基礎(chǔ)上增加”神經(jīng)網(wǎng)絡(luò)流量”高階模式。AI和ICT天然有著密切的關(guān)聯(lián),作為一種通用賦能手段,它可以與ICT領(lǐng)域的專業(yè)知識、特定挑戰(zhàn)相結(jié)合,使之成為包括網(wǎng)絡(luò)基礎(chǔ)設(shè)施、網(wǎng)絡(luò)運維和運營在內(nèi)各種系統(tǒng)和業(yè)務(wù)加速發(fā)展的重要賦能手段,面向領(lǐng)域的AI建??梢曰诮N锢韺硬煌陚錂C理(信道模型等)模型、如物理層傳播模型。對傳統(tǒng)模型,一種有效的方法是借助大模型智能體的自主感知規(guī)劃執(zhí)行能力。在廣泛的網(wǎng)絡(luò)領(lǐng)域應(yīng)用大模型,并以大模型自主智
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年大學(xué)稅務(wù)(稅務(wù)籌劃)試題及答案
- 2025年大學(xué)自然地理學(xué)(地貌形成)試題及答案
- 2025年大學(xué)機械(機械制造工藝)試題及答案
- 2026年生物制藥(抗體藥物研發(fā))試題及答案
- 2025年高職化工技術(shù)(化工管路安裝)試題及答案
- 2025 小學(xué)四年級思想品德下冊民間故事續(xù)編與表演活動課件
- 養(yǎng)老院老人生活照料服務(wù)標(biāo)準(zhǔn)制度
- 養(yǎng)老院老人康復(fù)訓(xùn)練指導(dǎo)制度
- 養(yǎng)老院老人健康監(jiān)測人員職業(yè)發(fā)展規(guī)劃制度
- 養(yǎng)老院健康促進制度
- 2026年1月福建廈門市集美區(qū)后溪鎮(zhèn)衛(wèi)生院補充編外人員招聘16人筆試備考題庫及答案解析
- 重慶市渝中區(qū)(2025年)輔警協(xié)警筆試筆試真題(附答案)
- 暴雪車輛行駛安全培訓(xùn)課件
- 2026年七臺河職業(yè)學(xué)院單招綜合素質(zhì)筆試模擬試題帶答案解析
- 2026年吉林司法警官職業(yè)學(xué)院單招職業(yè)技能考試備考試題帶答案解析
- 2025內(nèi)蒙古潤蒙能源有限公司招聘22人考試題庫附答案解析(奪冠)
- 2026年國家電網(wǎng)招聘之電網(wǎng)計算機考試題庫500道有答案
- 年味課件教學(xué)課件
- 中國臨床腫瘤學(xué)會(csco)胃癌診療指南2025
- 廣東省廣州市2025年上學(xué)期八年級數(shù)學(xué)期末考試試卷附答案
- 手機鋪貨協(xié)議書
評論
0/150
提交評論