電子行業(yè)2024年投資策略分析報(bào)告:從云到端AI產(chǎn)業(yè)新范式_第1頁
電子行業(yè)2024年投資策略分析報(bào)告:從云到端AI產(chǎn)業(yè)新范式_第2頁
電子行業(yè)2024年投資策略分析報(bào)告:從云到端AI產(chǎn)業(yè)新范式_第3頁
電子行業(yè)2024年投資策略分析報(bào)告:從云到端AI產(chǎn)業(yè)新范式_第4頁
電子行業(yè)2024年投資策略分析報(bào)告:從云到端AI產(chǎn)業(yè)新范式_第5頁
已閱讀5頁,還剩124頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

01從云到端,AI產(chǎn)業(yè)的新范式——電子行業(yè)2024年中期投資策略電子首席方競?核心觀點(diǎn):AI產(chǎn)業(yè)的新范式一、模型變革,云端融合為趨勢(shì)。近年來生成式AI步入快速發(fā)展期,開源及垂直大模型百花齊放。而今年以來,最大的變革則是端側(cè)模型的興起,相較云側(cè)模型,端側(cè)模型在時(shí)延、隱私、個(gè)性化方面具備優(yōu)勢(shì)。各大廠商亦紛紛推出AI終端,云端融合成為產(chǎn)業(yè)發(fā)展的下一趨勢(shì)。二、云端變革,GB200解決互聯(lián)瓶頸。當(dāng)下AI產(chǎn)業(yè)發(fā)展和核心矛盾,是日益增長的應(yīng)用+終端的需求,和算力本身增速瓶頸之間的矛盾。當(dāng)前全球AI芯片競爭日趨白熱化。云廠商為了降低資本開支,紛紛推出自研AI加速卡計(jì)劃。而GB200

NVL72的推出,顯著拉開了英偉達(dá)與其競爭對(duì)手的差距。英偉達(dá)通過架構(gòu)的創(chuàng)新,解決了GPU之間互聯(lián)帶寬的問題,實(shí)現(xiàn)了最多576張卡1.8TB/s的雙向互聯(lián)帶寬,顯著領(lǐng)先其他競爭對(duì)手。Blackwell平臺(tái)給服務(wù)器上游的光模塊和PCB都帶來了價(jià)值量的提升,而GB200的Rack架構(gòu)的主要價(jià)值增量則在銅互連、電源等環(huán)節(jié),尤其是銅互連的從零到一,更值得關(guān)注。三、供應(yīng)鏈變革:全面升級(jí)的算力產(chǎn)業(yè)鏈。自然語言的運(yùn)算、圖形的處理需要大量存儲(chǔ)器協(xié)助運(yùn)算及存儲(chǔ),

并且AI服務(wù)器對(duì)數(shù)據(jù)傳輸速率有著更高要求,催生了存儲(chǔ)及PCB價(jià)值量的增長。1)存儲(chǔ):HBM是目前用于打破“內(nèi)存墻”的重要技術(shù)之一。此外,DDR5滲透率提升,CXL、MCR等內(nèi)容技術(shù)亦是行業(yè)發(fā)展的重心。2)PCB:服務(wù)器PCB要求高層數(shù)、高密度及高傳輸速率。AI服務(wù)器的OAM板及UBB板,最高使用到M7材料,20-30層的高階HDI。單臺(tái)AI服務(wù)器PCB價(jià)值量可達(dá)1萬元。此外,交換機(jī),電源PCB也有相應(yīng)的價(jià)值量提升。為滿足AI服務(wù)器的旺盛需求,上游封測(cè)及制造的工藝技術(shù)革新及產(chǎn)能擴(kuò)張也尤為重要。1)封測(cè):算力芯片的主流封裝方案為COWOS芯片+HBM顯存。設(shè)備環(huán)節(jié)考量3D堆疊及測(cè)試設(shè)備的工藝能力,材料環(huán)節(jié)則看重輕薄化、高集成度以及導(dǎo)熱性。2)制造:臺(tái)積電預(yù)計(jì)到2030年,半導(dǎo)體市場規(guī)模將達(dá)到1萬億美金,其中高性能計(jì)算(HPC)占比40%,將成為第一大細(xì)分市場。四、端側(cè)變革:身邊的算力終端。AI云端融合趨勢(shì)下,各大廠商發(fā)力AI終端,迎接下一波成長。我們將AI終端的定義提煉為三要素:算力、模型、生態(tài)。其中,算力和模型是AI終端的必要條件,算力是硬件基礎(chǔ),通過NPU執(zhí)行神經(jīng)網(wǎng)絡(luò)運(yùn)算,實(shí)現(xiàn)終端推理;而模型的減枝蒸餾,則可有效壓縮模型參數(shù),減少推理時(shí)間,降低端側(cè)負(fù)載。上述兩大要素決定了終端的硬實(shí)力。相較前者,生態(tài)需要長時(shí)間打磨,且需產(chǎn)業(yè)鏈廠商齊心協(xié)力配合,開發(fā)應(yīng)用,挖掘垂直場景。生態(tài)建設(shè)代表了終端的軟實(shí)力。我們認(rèn)為生態(tài)的建設(shè)和完善,會(huì)決定AI終端的成敗。而這一過程當(dāng)中位居核心的是品牌廠商。蘋果則得益于其多年的積累,及消費(fèi)市場的號(hào)召力,更有機(jī)會(huì)打造出完備的生態(tài)。此外,端側(cè)供應(yīng)鏈的PCB、散熱、光學(xué)等環(huán)節(jié)同樣值得重視。投資建議:標(biāo)的方面,建議關(guān)注:1)云端:工業(yè)富聯(lián)、寒武紀(jì)、滬電股份、勝宏科技、瀾起科技、沃爾核材;2)供應(yīng)鏈:、華虹公司、ASMPT、長川科技、興森科技;3)終端:聯(lián)想集團(tuán)、小米集團(tuán)、立訊精密、鵬鼎控股、領(lǐng)益智造、藍(lán)思科技、華勤技術(shù)、水晶光電。風(fēng)險(xiǎn)提示:下游需求不及預(yù)期;大模型等發(fā)展不及預(yù)期;晶圓廠擴(kuò)產(chǎn)不及預(yù)期;新產(chǎn)品研發(fā)進(jìn)展不及預(yù)期。*0102模型變革:云端融合為趨勢(shì)云端變革:GB200解決互聯(lián)瓶頸目錄03040506供應(yīng)鏈變革:全面升級(jí)的算力產(chǎn)業(yè)鏈端側(cè)變革:身邊的算力終端投資建議風(fēng)險(xiǎn)提示*01.模型變革:云端融合為趨勢(shì)*生成式人工智能:新一輪生產(chǎn)力革命崛起1.1?

近年來生成式AI步入快速發(fā)展期。1950年開始生成式AI出現(xiàn)早期萌芽,此后AIGC處于漫長的沉淀積累期,決策式AI占據(jù)主流。隨著2014年生成式對(duì)抗網(wǎng)絡(luò)等深度學(xué)習(xí)算法的提出,AIGC步入快速發(fā)展期,生成內(nèi)容的豐富度和精度都有了較大的提升。?

從GPT-1到GPT-5,GPT模型的智能化程度不斷提升。ChatGPT在擁有3000億單詞的語料基礎(chǔ)上預(yù)訓(xùn)練出擁有1750億個(gè)參數(shù)的模型(GPT-2僅有15億參數(shù)),預(yù)訓(xùn)練數(shù)據(jù)量從5GB增加到45TB。決策式AI時(shí)代生成式AI快速發(fā)展期基于規(guī)則基于統(tǒng)計(jì)深度學(xué)習(xí)?神經(jīng)網(wǎng)絡(luò)ERNIE3.0GPT-3GeminiPaLM

2Gemini1.5Sora僅解碼器生成文法機(jī)器學(xué)習(xí)LaMDAPaLM?Transformer2014年,lanJ.Goodfellow提出生成式對(duì)·人工提取自然語言特征·簡單機(jī)器統(tǒng)計(jì)算法·以語言學(xué)為基礎(chǔ)的符號(hào)主義并行計(jì)算進(jìn)入大語言模型時(shí)代GPT-1BERTGPT-2Chat-GPTGPT-4GPT-4oRNN,CNN,GAN

抗網(wǎng)絡(luò)GAN1950198020062014201720182019202020212022202320241957年,第一2007年,世界第一部完全由人工智能創(chuàng)作的小說《1The

Road》問世僅編碼器ALBERTRoBERTaERNIE支由計(jì)算機(jī)創(chuàng)作的弦樂四重奏《依利亞克組曲》完成2012年,微軟展示全自動(dòng)80年代中期,IBM創(chuàng)造語音控制打字機(jī)Tangora同聲傳譯系統(tǒng),可將英文演講者的內(nèi)容自動(dòng)翻譯成中文語音編碼解碼BARTT5生成式AI處于沉淀積累期Switch資料:中國信通院《人工智能生成內(nèi)容白皮書》,民生證券研究院*大模型發(fā)展趨勢(shì):開源大模型成為重要分支1.2開源大模型日2月21日月18日4月12日4Gemma32024Llama3360智腦7B2023閉源大模型20232024料*大模型發(fā)展趨勢(shì):垂直大模型百花齊放1.3在AI大模型加持下給垂直領(lǐng)域帶來革命性的新體驗(yàn):?中科創(chuàng)達(dá)×PC:中科創(chuàng)達(dá)的“魔方法律助手”端側(cè)智能應(yīng)用正式與聯(lián)想AI

PC個(gè)人智能體“聯(lián)想小天”實(shí)現(xiàn)無縫對(duì)接。中科創(chuàng)達(dá)魔方法律助手是一款基于法律大模型精心打造的個(gè)人AI專屬法律顧問。這款助手通過深入分析專業(yè)法律案例問答和真實(shí)案例數(shù)據(jù)庫,結(jié)合法律原理和法學(xué)邏輯教材,成功構(gòu)建了卓越的法言法語理解能力、法律意圖識(shí)別能力、法律邏輯推理能力以及法律文本生成能力。?通義千問×教育:

AI教育科技公司精準(zhǔn)學(xué)基于開源通義千問大模型訓(xùn)練,打造了融合文本、語音及情緒的實(shí)時(shí)多模態(tài)教育垂直模型“心流知鏡”,該模型精通中小學(xué)主要教材、名師解題方法,可提供實(shí)時(shí)、低延遲的互動(dòng)輔學(xué)能力,讓學(xué)生學(xué)習(xí)變得輕松、高效。據(jù)悉,精準(zhǔn)學(xué)將于6月發(fā)布旗下首個(gè)搭載該模型的AI輔學(xué)機(jī)。圖:中科創(chuàng)達(dá)的“魔方法律助手”圖:精準(zhǔn)學(xué)多模態(tài)教育垂直模型“心流知鏡”資料:中科創(chuàng)達(dá)官網(wǎng),民生證券研究院資料:精準(zhǔn)學(xué)官網(wǎng),51CTO,民生證券研究院*云側(cè):AI賦能文生視頻,大幅降低視頻創(chuàng)作成本1.4?

AI的視頻生成能力可以為影視制作行業(yè)顯著降本增效。國內(nèi)首部由文生視頻創(chuàng)作的AI動(dòng)畫片《千秋詩頌》在2024年2月26日開播,AI的文生視頻功能已經(jīng)在B端逐步落地。?

Sora大幅提升了AI的文生視頻功能。2024年2月16日,OpenAI推出Sora大模型,作為OpenAI的第一款文生視頻大模型,其能力相較此前的文生視頻模型展現(xiàn)出壓倒性的優(yōu)勢(shì)。Sora強(qiáng)大之處表現(xiàn)在其能夠生成最長60秒的視頻,視頻的視角或鏡頭能夠更為流暢地切換,更強(qiáng)的細(xì)節(jié)展現(xiàn)能力以及對(duì)真實(shí)世界更好的理解能力。圖:文生視頻案例圖:傳統(tǒng)文生視頻和Sora的能力差異PikaStable

VideoDiffusionRunway4秒左右提升至60秒視角/鏡頭切換的能力更強(qiáng)更優(yōu)秀的細(xì)節(jié)展現(xiàn)MorphStudioSora對(duì)文字及真實(shí)世界展現(xiàn)出更強(qiáng)的理解能力資料:OpenAI,新智元,民生證券研究院*云側(cè):長文本分析能力打造各領(lǐng)域全能專家1.4?

AI的長文本分析能力可以在短時(shí)間內(nèi)閱讀大量文本內(nèi)容,并進(jìn)行快速分析反饋。目前國內(nèi)常用的長文本分析模型包括ChatGPT、同意前文、Kimi、豆包等,可以幫助使用者節(jié)省大量時(shí)間成本。?

2024年2月,谷歌發(fā)布了Gemini

1.5模型。相較于此前Gemini

1.0Pro版本,Gemini

1.5

pro將上下文處理能提從3.2萬Tokens提升至100萬以上,處理能力涵蓋包括1小時(shí)的視頻、11小時(shí)的音頻、超過3萬行代碼或超過70萬字的代碼庫。圖:Kimi長文本分析案例表:谷歌Gemini模型家族能力總結(jié)圖:Gemini

1.5模型可以突破100萬tokens上下文檢索上下文窗口模型關(guān)鍵功能限制關(guān)于圖像進(jìn)行對(duì)話Gemini

1.0

最多100萬

分析、分類和總結(jié)提示中給定的大量內(nèi)容-處理高度復(fù)雜Ultra個(gè)標(biāo)記

的任務(wù),如編碼、邏輯推理、遵循細(xì)微的說明以及創(chuàng)造性協(xié)作在長文本塊中以99%的成功率找到特定信息32K個(gè)標(biāo)記

高水平的“上下文內(nèi)學(xué)習(xí)”技能-32K個(gè)標(biāo)記的上下文窗口容量Gemini

1.0Pro“上下文內(nèi)學(xué)習(xí)”技能Gemini

1.5

100萬個(gè)標(biāo)高達(dá)100萬個(gè)標(biāo)記的上下文窗口容量-

分析、分類和總結(jié)Pro記以上提示中給定的大量內(nèi)容文本摘要根據(jù)上下文的智能回復(fù)高級(jí)校對(duì)和語法糾正GeminiNano32K個(gè)標(biāo)記獨(dú)立的無需互聯(lián)網(wǎng)連接的功能,提高電池壽命資料:谷歌,CSDN,云云眾生,智東西,民生證券研究院*云端大模型瓶頸:云端推理受限于成本和算力瓶頸1.4?

云端推理成本與終端用戶訪問量正相關(guān)。目前,云端是生成式

AI

模型部署的主要方式,用戶可以通過網(wǎng)頁對(duì)模型進(jìn)行訪問或通過API

接口直接調(diào)用,向云端服務(wù)器發(fā)出請(qǐng)求,在云端收到請(qǐng)求后,會(huì)調(diào)用訓(xùn)練完成的模型對(duì)需求進(jìn)行處理并返回結(jié)果。對(duì)比訓(xùn)練與推理的成本,推理端成本與終端用戶訪問量正相關(guān),在云端進(jìn)行模型推理的成本極高,這將影響AI應(yīng)用的落地及規(guī)?;瘮U(kuò)展。?

云端推理受限于算力瓶頸,響應(yīng)速度較慢。隨著用戶數(shù)量的不斷增加,ChatGPT服務(wù)器被擠爆的情況時(shí)有發(fā)生。23年11月8日晚間,ChatGPT突現(xiàn)重大故障,導(dǎo)致該應(yīng)用無法使用。當(dāng)時(shí)的用戶頁面顯示“ChatGPT目前已滿負(fù)荷”。此外,這一故障也影響了OpenAI的API(應(yīng)用程序設(shè)計(jì)頁面)服務(wù),該服務(wù)有超過200萬開發(fā)人員使用。圖:ChatGPT和其

API

接口出現(xiàn)“嚴(yán)重停機(jī)”圖:ChatGPT月訪問量進(jìn)展(縱軸為錯(cuò)誤報(bào)告份數(shù),單位:份)資料:鈦媒體,民生證券研究院資料:CSDN,民生證券研究院*端側(cè):成本、能耗、時(shí)延、隱私安全、個(gè)性化方面具備優(yōu)勢(shì)1.5端側(cè)模型優(yōu)勢(shì)云端模型1隱私保護(hù)1計(jì)算能力本地處理數(shù)據(jù)可以更好地保護(hù)用戶隱私,數(shù)據(jù)不需要傳輸?shù)皆贫朔?wù)器云端模型通常具有更強(qiáng)的計(jì)算資源,能夠處理更復(fù)雜的任務(wù)定制化23容易更新和維護(hù)23利用客戶個(gè)性化數(shù)據(jù)訓(xùn)練,定制化程度更高,貼合用戶偏好云模型由服務(wù)提供商維護(hù),用戶無需擔(dān)心軟件和模型的更新問題離線使用可擴(kuò)展性本地模型允許在沒有互聯(lián)網(wǎng)連接的情況下使用AI功能,增加了應(yīng)用的靈活性根據(jù)需要輕松擴(kuò)展計(jì)算資源,適應(yīng)不同的業(yè)務(wù)需求實(shí)時(shí)響應(yīng)4數(shù)據(jù)在設(shè)備上處理,可以減少到云服務(wù)器的往返延遲,提供更快的響應(yīng)時(shí)間混合AI為大趨勢(shì):可結(jié)合端側(cè)模型與云端模型的優(yōu)勢(shì),在一般場景下使用端側(cè)模型,保障數(shù)據(jù)安全和快速相應(yīng);在處理復(fù)雜問題時(shí)可靈活調(diào)用云端模型,實(shí)現(xiàn)端云混合*各廠商端側(cè)AI大模型產(chǎn)品發(fā)布時(shí)間軸1.5云廠商7月19日12月6日12月13日月

日4

124月18日4月23日5月14日月

日6

7Llama270-700億GenimiNano18億、32.5億Phi-2360智腦-7B

Llama3-8B

商湯SenseChat-LiteGpt-4o注重端側(cè)多模態(tài)阿里通義千問語言模型270億80億18億70億27億品牌商9月4日11月16日11月16日1月10日2月22日2月26日4月18日4月24日OpenELM2.7億、4.5億、11億、30億盤古大模型AndesGPT100億、380億、710億、

70億1000億藍(lán)心大模型AIHub70億聯(lián)想天禧魔法大模型MiLM-6B130億70億70億60億2023

2024料,*GPT-4o重磅發(fā)布,AI助手初具雛形1.6?

2024年5月13日,OpenAI如期舉辦春季發(fā)布會(huì),推出GPT-4o。GPT-4o的命名中的“o”代表“Omni”

(全面、全能),意味著這個(gè)新模型具備強(qiáng)大的多模態(tài)交互能力。GPT-4o不僅可以處理文本輸入,還能接收音頻和圖像輸入,并能生成對(duì)應(yīng)的文本、音頻和圖像輸出。GPT4o跟此前最新版本收費(fèi)不同,全球免費(fèi)使用,GPT-4o

API比

GPT4-turbo

2倍,且價(jià)格便宜

50%。?此外,本次發(fā)布會(huì)所有的展示均通過iPhone進(jìn)行,最終發(fā)布的產(chǎn)品也首先基于Mac

OS系統(tǒng),這強(qiáng)調(diào)了OpenAI對(duì)生態(tài)系統(tǒng)的重視。我們認(rèn)為,蘋果作為OpenAI重要的生態(tài)合作伙伴,于2024年6月份WWDC正式宣布與OpenAI合作,智能助手Siri接入ChatGPT,AIPhone初具雛形。后續(xù),其他品牌也將逐步與OpenAI

合作,最后為白牌產(chǎn)品。零延遲實(shí)時(shí)語音交互視覺傳達(dá)與解析視頻通話與面部情緒分析同聲傳譯與多語言支持實(shí)時(shí)編程與交互資料:OpenAI,民生證券研究院*GPT-4o重磅發(fā)布,AI助手初具雛形1.6?

GPT-4o是GPT-4模型的進(jìn)化版,在基準(zhǔn)測(cè)試中,GPT-4o在文本處理、推理和編程智能方面達(dá)到了GPT-4

Turbo級(jí)別的性能,同時(shí)在多語言、音頻和視覺能力上設(shè)定了新的高標(biāo)準(zhǔn)。圖:GPT-4o在所有語言上都顯著提高了語音識(shí)別性能圖:GPT-4o具備更優(yōu)越的文本理解能力圖:GPT-4o在所有語言的視覺評(píng)估中比GPT-4表現(xiàn)更強(qiáng)圖:GPT-4o在視覺感知基準(zhǔn)測(cè)試中具備最先進(jìn)的性能資料:OpenAI,民生證券研究院*AI手機(jī)定位個(gè)人助手,

AI

PC

實(shí)現(xiàn)落地商用1.7?

必要性:手機(jī)和PC有強(qiáng)大的用戶基礎(chǔ),全球手機(jī)每年銷量平均在12億部,PC銷量平均2.5-3億臺(tái)。作為個(gè)人日常生活及辦公的算力終端,率先落地,具備必要性;?

可行性:AI手機(jī)及PC作為目前個(gè)人強(qiáng)大的算力終端,應(yīng)當(dāng)裝備能夠更快、更高效地運(yùn)行端側(cè)GenAI(生成式AI)模型的處理器,NPU性能至少為30TOPS,最先進(jìn)制程會(huì)率先在手機(jī)和PC落地,AI具備可行性。從IOT到汽車,AI全面賦能個(gè)人算力終端,率先落地IOTMR汽車1)高通推出驍龍8

Gen3,為首款1)聯(lián)想發(fā)布AI

PC產(chǎn)品,搭載端側(cè)大模型可實(shí)現(xiàn)文件本地處理,宏碁、華碩、Dell等均推出AI

PC新品2)AMD/Intel/高通均推出嵌入專用AI模塊的PC處理器3)處理器、存儲(chǔ)、散熱、電磁屏蔽、輕量化等環(huán)節(jié)迎來升級(jí)4)聯(lián)想發(fā)布基于端側(cè)模型PC個(gè)人智能體“小天”,英偉達(dá)亦發(fā)布端側(cè)模型產(chǎn)品Chat

withRTX專為生成式AI打造的移動(dòng)平臺(tái)2)以谷歌、三星、OPPO

等為代表的廠商將大模型內(nèi)置于智能手機(jī)中,完成從云端

AI

向終端

AI

的轉(zhuǎn)變,“AI

手機(jī)”浪潮開啟3)處理器、存儲(chǔ)、PCB、結(jié)構(gòu)件等環(huán)節(jié)迎來升級(jí)4)蘋果6月份WWDC2024官宣與OpenAI合作,9月有望發(fā)布首款A(yù)I手機(jī)資料:蘋果WWDC2023,青亭網(wǎng),各公司官網(wǎng),民生證券研究院料*1.7

手機(jī):蘋果引領(lǐng)AI

Phone產(chǎn)業(yè)趨勢(shì)?大廠入局AI手機(jī),端側(cè)AI時(shí)代加速。2023

下半年起,以谷歌、三星、OPPO

等為代表的廠商將大模型內(nèi)置于智能手機(jī)中,完成從云端

AI

向終端

AI

的轉(zhuǎn)變,“AI

手機(jī)”浪潮開啟。2024年6月份WWDC,蘋果發(fā)布個(gè)人智能化系統(tǒng)Apple

Intelligence,同時(shí)正式宣布與OpenAI合作,智能助手Siri接入ChatGPT,蘋果首款A(yù)I手機(jī)iPhone16有望于今年秋季發(fā)布。圖:全球主流端側(cè)AI設(shè)備梳理終端廠商谷歌機(jī)型Pixel8發(fā)布時(shí)間2023年10月4日2024年1月18日2023年9月4日2024年2月22日2023年11月16日2024年1月8日定價(jià)大模型GenimiNanoAI功能照片編輯、優(yōu)化影音錄制、即時(shí)翻譯699美元起799美元起5499元起6499元起3999元起3999元起三星GalaxyS24Mate6014UltraX100云側(cè)Geminipro,端側(cè)Genimi

Nano盤古大模型圖片即圈即搜、實(shí)時(shí)雙向翻譯、智能圖片編輯AI云增強(qiáng)等功能AI手機(jī)小米VIVOOPPO蘋果LiLM-6BAI大模型計(jì)算攝影平臺(tái)Xiaomi

AISP,具有文生圖、AI擴(kuò)圖等功能AI拍照、Jovi

AI助理等藍(lán)心大模型Find

X7小布助手AIGC

消除、AI

通話摘要、AI

畫師、小布照相館、小布連麥等WWDC2024官宣與OpenAI合作,Siri接入ChatGPT,iPhone16有望成為首款A(yù)I手機(jī)料*1.7

PC:微軟發(fā)力模型,聯(lián)想推進(jìn)落地?24年4月18日,聯(lián)想正式推出搭載端側(cè)個(gè)人智能體“小天”的AI

PC,聯(lián)想小天具備自我學(xué)習(xí)能力,可根據(jù)日常互動(dòng)理解用戶的使用習(xí)慣及偏好,對(duì)于工作場景,聯(lián)想小天提供文檔總結(jié)、PPT潤色及生成等功能,幫助提高日常工作效率和協(xié)作能力。對(duì)于個(gè)人生活場景,聯(lián)想小天提供AI畫師等功能,使個(gè)人用戶的創(chuàng)作更加便捷高效。?24年5月20日,微軟發(fā)布了Windows系統(tǒng)最新的AI功能,展示出對(duì)屏幕內(nèi)容強(qiáng)大的理解和分析能力:?1.通過接入GPT-4o,可實(shí)現(xiàn)對(duì)屏幕內(nèi)容的實(shí)時(shí)理解及處理,打造個(gè)人專屬的AI

Agent?2.“回溯”(Recall)功能可記憶PC上的所有操作,該功能由40余個(gè)端側(cè)小模型組成的模型系統(tǒng)同時(shí)支持運(yùn)行,未來單臺(tái)終端安裝多個(gè)模型協(xié)同成為趨勢(shì),小模型的剪枝調(diào)優(yōu)能力成為核心圖:

AIPC處理本地知識(shí)庫內(nèi)容圖:

AIPC對(duì)PPT潤色圖:

“回溯功能”可記憶屏幕歷史內(nèi)容圖:

通過接入GPT-4o指引玩家合成游戲道具資料:聯(lián)想集團(tuán)TechWorld2024、微軟Copilot+PC發(fā)布會(huì)、民生證券研究院*展望未來:AI終端助力Agent落地1.7?

OpenAI為AIAgent筑基:

2023年3月24日,ChatGPT

plugins的發(fā)布,進(jìn)一步擴(kuò)大了ChatGPT的應(yīng)用能力并催化至多場景的業(yè)務(wù)處理。2023年11月,Open

AI發(fā)布GPTS,可以通過簡單對(duì)話,響應(yīng)用戶指令,定制出滿足從學(xué)習(xí)娛樂到工作分析各種需求的GPTs。距離Agent自主執(zhí)行復(fù)雜任務(wù)與決策的能力大大邁進(jìn)一步,從模型層面為Agent開辟了發(fā)展路徑。?

AI終端助力AIAgent落地:伴隨大模型能力的日益提高,AI終端的語義理解,跨程序調(diào)用能力也持續(xù)加強(qiáng)。過去手機(jī)的語音助手僅可實(shí)現(xiàn)用戶指令的簡單理解和被動(dòng)執(zhí)行,如可詢問天氣信息。展望未來,AI終端將可以根據(jù)用戶的使用習(xí)慣、歷史行為,對(duì)用戶可能需要什么服務(wù)主動(dòng)進(jìn)行預(yù)測(cè),如我們?cè)陬A(yù)定航班時(shí)AI

Agent主動(dòng)提出酒店和餐廳的推薦,并且會(huì)基于我們的價(jià)位和口味偏好。而用戶在使用過程中產(chǎn)生的大量數(shù)據(jù)又會(huì)投喂AI進(jìn)行微調(diào)訓(xùn)練,讓其越用越懂用戶。圖:基于LLM驅(qū)動(dòng)的AI

Agent基本框架圖:AI

Agent的L0-L5等級(jí)?傳統(tǒng)電子產(chǎn)品,無AIL0L1L2L3L4L5?規(guī)則人工智能。即通過API、知識(shí)庫等,理解用戶指令,完成預(yù)設(shè)功能。?引入神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)模仿學(xué)習(xí)及強(qiáng)化學(xué)習(xí)。通過少量提示逐步解決復(fù)雜的推理問題。?通過記憶模塊,實(shí)現(xiàn)內(nèi)部反饋,從而修訂和完善策略,優(yōu)化未來決策。?增強(qiáng)上下文學(xué)習(xí),提高LLM的預(yù)測(cè)能力,類似于人類的學(xué)習(xí)過程,提高泛化水平。?通過和環(huán)境互動(dòng)展示個(gè)性,賦予認(rèn)知、情感和性格。資料:騰訊研究院、《Levelsof

AIAgents:

from

Rules

toLargeLanguage*Models》—Yu

Huang、民生證券研究院云端變革:GB200解決互聯(lián)瓶頸02.*云端算力需求高增,GB200從架構(gòu)上解決了互聯(lián)瓶頸2?前文我們討論了模型的發(fā)展態(tài)勢(shì),而當(dāng)下AI產(chǎn)業(yè)發(fā)展和核心矛盾,是日益增長的應(yīng)用+終端的需求,和算力本身增速瓶頸之間的矛盾。???本章中講探討:1)云廠商資本開支的展望,以及量化模型訓(xùn)練及推理需求。AI對(duì)云廠商資本開支需求的拉動(dòng)始于2023年四季度,據(jù)一季度各大云廠商的資本開支及指引,預(yù)計(jì)2024年北美云商資本開支有望重回高速增長態(tài)勢(shì)。?Transformer算力需求在2年內(nèi)增長750倍,平均每年以接近10倍的速度增長;英偉達(dá)平均每2年左右推出一代加速卡,從A系列到B系列的升級(jí)節(jié)奏來看,每一代產(chǎn)品算力提升幅度在3倍左右,價(jià)格提升幅度比算力提升幅度略低。綜合大模型的參數(shù)增長和算力的單位價(jià)格來看,過去5年大模型訓(xùn)練對(duì)資本開支的需求持續(xù)快速提升,未來大模型參數(shù)的持續(xù)提升仍將帶動(dòng)算力需求激增。??2)加速卡的競爭格局,GB200等產(chǎn)品給英偉達(dá)帶來的優(yōu)勢(shì)提升,GB200服務(wù)器及產(chǎn)業(yè)鏈彈性。當(dāng)前全球AI芯片仍主要被英偉達(dá)壟斷,但競爭逐步白熱化。云廠商為了降低資本開支,紛紛推出自研AI加速卡計(jì)劃,而AMD等芯片設(shè)計(jì)公司,也在不斷推出更具性價(jià)比的產(chǎn)品,以求搶占英偉達(dá)的市場份額。??GB200

NVL72顯著拉開了英偉達(dá)與其競爭對(duì)手的差距。英偉達(dá)通過架構(gòu)的創(chuàng)新,解決了GPU之間互聯(lián)帶寬的問題,實(shí)現(xiàn)了最多576張卡1.8TB/s的雙向互聯(lián)帶寬,顯著領(lǐng)先其他競爭對(duì)手,使得GB200

NVL72的推理性能達(dá)到H100的30倍。從GB200產(chǎn)業(yè)鏈彈性來看,銅互連是核心增量。Blackwell平臺(tái)給服務(wù)器上游的光模塊和PCB都帶來了價(jià)值量的提升,而GB200的Rack架構(gòu)的主要價(jià)值增量則在銅互連、電源等環(huán)節(jié),尤其是銅互連的從零到一,更值得關(guān)注。*2.10102云商資本開支持續(xù)上修AI三要素:算力、互聯(lián)、存儲(chǔ)目錄030405加速卡競爭格局日益激烈GB200解決互聯(lián)瓶頸,重視產(chǎn)業(yè)鏈彈性AI云端產(chǎn)業(yè)鏈*算力需求激增,云商資本開支持續(xù)增長2.1?北美云商資本開支在2023年有所下滑,但伴隨AI的強(qiáng)勢(shì)增長,2024年北美云商資本開支重回高速增長態(tài)勢(shì)。我們復(fù)盤了北美云廠商過去4年的Capex走勢(shì),伴隨AI需求的強(qiáng)勢(shì)增長,結(jié)合一季度各大云廠商的資本開支及指引,預(yù)計(jì)2024年北美云商資本開支有望重回高速增長態(tài)勢(shì)。?AI對(duì)云廠商資本開支需求的拉動(dòng)始于2023年四季度,據(jù)Bloomberg,1Q24北美四大云廠商合計(jì)資本開支為476億美元,同比增長39%,繼4Q23云商資本開支同比轉(zhuǎn)正后,同比增速進(jìn)一步提升。展望2024年,多家云廠商分別上修全年資本開支指引,云廠商Capex有望重回高增。Bloomberg一致預(yù)期2024年四美云商資本開支合計(jì)將達(dá)到2044億美元,同比增長32%。圖:北美四大云廠商年度資本開支及增速(億美元,%)圖:2020-2024年一季度北美云商資本開支(含融資租賃)(億美元,%)微軟Meta谷歌Amazon合計(jì)YoY微軟Meta谷歌Amazon合計(jì)YoY220020001800160014001200100080040%20%0%6005004003002001000140%120%100%80%60%40%20%0%600400-20%20002021202220232024E資料:各公司官網(wǎng),Bloomberg,民生證券研究院*展望未來,全球AI資本開支仍有提升空間2.1??全球AI資本開支的提升空間來自三個(gè)方面:1)云商自身資本開支提升;2)AI占云商資本開支的比例提升;3)AI資本開支從云商向外擴(kuò)散。第一,云商自身資本開支提升:2022年全球云廠商資本開支峰值占經(jīng)營性自由現(xiàn)金流比例為54%,2023年僅為41%,云廠商資本開支占自由現(xiàn)金流的比重仍有提升空間。??第二,AI占云商資本開支的比例提升:我們用英偉達(dá)的數(shù)據(jù)中心業(yè)務(wù)收入和北美四大云廠商資本開支的比例來大致測(cè)算AI占云商資本開支的比重,2021年英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)收入占北美四大云商資本開支的比重為8.37%,而這一比例在2024年預(yù)計(jì)將達(dá)到51.35%。第三,資本開支從云廠商向外擴(kuò)散:據(jù)Trendforce,2022年北美四大云廠商采購的AI服務(wù)器占全球AI服務(wù)器出貨量的66%。當(dāng)前教育、金融、IDC、政府等部門AI需求持續(xù)上升,服務(wù)器采購比重有望提升。2023-2024年為云商建設(shè)數(shù)據(jù)中心的主要年份,而伴隨著AI應(yīng)用的落地,更多場景的用戶加入到采購AI服務(wù)器的群體中來,AI資本開支有望向外持續(xù)擴(kuò)散。圖:云廠商資本開支占自由現(xiàn)金流的比例(億元,%)圖:AI占云廠商資本開支的比例測(cè)算(億元,%)北美四大云商資本開支英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)收入占比經(jīng)營性自由現(xiàn)金流資本開支比重250020001500100050060%50%40%30%20%10%0%4000300020001000060%50%40%30%20%10%0%02018201920202021202220232021202220232024E*資料:各公司官網(wǎng),Bloomberg,TrendForce、民生證券研究院AI所需算力與模型參數(shù)正相關(guān)2.1??在生成式AI場景下,模型訓(xùn)練和推理所需的算力與參數(shù)大小成正相關(guān)。1)訓(xùn)練所需的算力和模型參數(shù)以及訓(xùn)練集大?。═oken)數(shù)量成正比;2)推理所需的算力和模型參數(shù),回答大小,以及訪問量成正比關(guān)系。當(dāng)前大模型參數(shù)仍以較快速度增長,后續(xù)將推出的GPT-5模型,參數(shù)有望達(dá)到十萬億量級(jí),有望引起大模型以及云廠商在算力領(lǐng)域的新一輪競賽,拉動(dòng)下游算力需求。圖:大模型訓(xùn)練成本公式每Token單參數(shù)所需浮點(diǎn)運(yùn)算次數(shù)模型參數(shù)Token數(shù)單位時(shí)間訓(xùn)練成本訓(xùn)練成本芯片算力算力利用率圖:大模型推理成本公式推理次數(shù)模型參數(shù)回答Token數(shù)每Token單參數(shù)所需INT運(yùn)算次數(shù)單位時(shí)間訓(xùn)練成本峰值流量倍數(shù)推理成本芯片算力算力利用率資料:

academicaccelerator,

Sunyan’s

Substack,英偉達(dá)官網(wǎng),Azure官網(wǎng),民生證券研究院測(cè)算*模型參數(shù)指數(shù)級(jí)增長,持續(xù)帶動(dòng)AI算力需求2.1???AI大模型的算力需求在過去幾年呈現(xiàn)快速增長的態(tài)勢(shì),Transformer算力需求在2年內(nèi)增長750倍,平均每年以接近10倍的速度增長。以O(shè)penAI的GPT為例,GPT

1在2018年推出,參數(shù)量級(jí)為1億個(gè),Open

AI下一代推出的GPT

5參數(shù)量級(jí)預(yù)計(jì)達(dá)到10萬億。英偉達(dá)平均每2年左右推出一代加速卡,從A系列到B系列的升級(jí)節(jié)奏來看,每一代產(chǎn)品算力提升幅度在3倍左右,價(jià)格提升幅度比算力提升幅度略低。綜合大模型的參數(shù)增長和算力的單位價(jià)格來看,過去5年大模型訓(xùn)練對(duì)資本開支的需求持續(xù)快速提升。當(dāng)下大模型的參數(shù)仍然在不斷提升的過程中,對(duì)算力的資本開支需求有望維持快速增長。AI大模型對(duì)算力的需求超過摩爾定律NV每兩年推出一代訓(xùn)練GPU峰值算力TOPS/TFLOPS型號(hào)發(fā)布時(shí)間FP4INT8624BF16/FP16312TF32156FP3219FP649A100H100H200GH200B1002020202220232022202320242024---20002000200035004500100001000500673410005006734-10005006734700090002000018009006030B2002250112025008040GB200500019090注:表格中展示非稀疏算力資料:CSDN,英偉達(dá)官網(wǎng),民生證券研究院*2.20102云商資本開支持續(xù)上修AI三要素:算力、互聯(lián)、存儲(chǔ)目錄030405加速卡競爭格局日益激烈GB200解決互聯(lián)瓶頸,重視產(chǎn)業(yè)鏈彈性AI云端產(chǎn)業(yè)鏈*AI三要素:算力、互聯(lián)、存儲(chǔ)決定加速卡的硬件性能2.2??算力、片間互聯(lián)、存儲(chǔ)容量和帶寬作為AI加速卡三要素,共同決定了加速卡的硬件性能。算力是加速卡的核心性能指標(biāo)。AI芯片算力根據(jù)精度有所差異,一般神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)訓(xùn)練精度是32位浮點(diǎn)數(shù),但有時(shí)為了節(jié)省時(shí)間和資源,也可以使用16位浮點(diǎn)數(shù)進(jìn)行訓(xùn)練,推理時(shí)對(duì)算力精度的要求相對(duì)較低,而對(duì)功耗、推理成本、響應(yīng)速度等要求較高,通常采用INT8算力。由于大模型的訓(xùn)練和推理需要用到多張加速卡,加速卡和加速卡之間的通信效率會(huì)成為訓(xùn)練和推理效率的瓶頸,片間互聯(lián)帶寬越大,則加速卡在訓(xùn)練和推理過程中的通信時(shí)延越低,計(jì)算效率越高。HBM顯存容量和帶寬決定了加速卡內(nèi)存能夠存儲(chǔ)的信息量,以及GPU和系統(tǒng)內(nèi)存之間的數(shù)據(jù)傳輸速率,如果顯存帶寬不足,則系統(tǒng)會(huì)出現(xiàn)瓶頸,GPU運(yùn)算核心可能處于空閑狀態(tài)。??AI算力精度和對(duì)應(yīng)的下游場景英偉達(dá)服務(wù)器八張GPU的片間互聯(lián)方案加速卡封裝方案中采用多層HBM精度定義高性能計(jì)算FP64雙精度浮點(diǎn)運(yùn)算,精度為64位,通常用于HPCFP32

單精度浮點(diǎn)數(shù),精度為32位,是神經(jīng)網(wǎng)絡(luò)計(jì)算的標(biāo)準(zhǔn)類型半精度浮點(diǎn)數(shù),精度為16位,在對(duì)訓(xùn)練速度有需求的情況FP16BF16下也可用于訓(xùn)練對(duì)FP32截?cái)鄶?shù)據(jù),8bit表示指數(shù),7bit表示小數(shù),和FP32精度相同但吞吐量更高AI訓(xùn)練AI推理用Tensor

Core運(yùn)算,默認(rèn)使用矩陣乘法,精度和FP32相TF32TF16INT8同,但運(yùn)算速度更快用Tensor

Core運(yùn)算,精度為16位用CUDA

Core中的INT單元計(jì)算,8位整數(shù),通常用于推理FP4英偉達(dá)B系列加速卡支持4位精度浮點(diǎn)數(shù),用于推理資料:英偉達(dá)、微軟官網(wǎng),甲子光年,CSDN,電子發(fā)燒友,搜狐新聞,電子工程專輯,民生證券研究院券研究*算力:決定AI芯片性能的核心指標(biāo)2.2??算力是決定加速卡性能的核心指標(biāo)。英偉達(dá)的加速卡在算力方面仍處于行業(yè)領(lǐng)先地位,最新一代Blackwell平臺(tái)加速卡不僅在8~32位推理算力中顯著超過競爭對(duì)手,還額外提供了FP4算力用于低精度的推理場景。?其他廠商來看,AMD在算力方面與英偉達(dá)最為接近,并且在FP64算力上超越英偉達(dá)最新一代的產(chǎn)品,更適合用于科學(xué)計(jì)算的場景。而目前其他的互聯(lián)網(wǎng)公司自研加速卡與英偉達(dá)仍有較大差距。英偉達(dá)及其競爭對(duì)手的加速卡算力對(duì)比峰值算力TOPS/TFLOPS廠商大類訓(xùn)練型號(hào)INT4/PF4INT8/FP8BF16/FP16TF32FP32FP64Dense/Sparse

Dense/Sparse

Dense/Sparse

Dense/SparseH100H200H20GH200B100B200GB200L40SL40----4000/20004000/20002964000/20003500/70004500/900010000/20000733/1466362/7242392000/10002000/10001482000/10001800/35002250/45005000/10000362/733181/362119.51000/5001000/500741000/500900/18001120/22502500/5000183/36691/1816067674467608019092916030243434134304090-----7000/140009000/1800020000/40000733/1466NVDIA724/1488推理L20L4L2---48519324296.512048AMDIntel訓(xùn)練訓(xùn)練MI300XGaudi

3--2614.918351307.41835654-163-163-TPUv5ETPUv5PMTIA

v2Maia

100Trainium2D1---394918354/7081600861376197459177/354800431376----------谷歌訓(xùn)練Meta微軟亞馬遜TESLA推理訓(xùn)練訓(xùn)練訓(xùn)練2.76-21522.62.76-21522.63200--資料:各公司官網(wǎng)、SemiAnlysis、36Kr、電子發(fā)燒友等,民生證券研究院整理*片間互聯(lián):加速卡間的通信速率會(huì)影響運(yùn)算效率2.2??英偉達(dá)在片間互聯(lián)方面始終維持領(lǐng)先地位。英偉達(dá)的NV

Link和NV

Switch保持著2年一代的升級(jí)節(jié)奏,目前NV

Link帶寬已達(dá)到1.8TB/s的雙向互聯(lián),在市面上處于領(lǐng)先地位。競爭對(duì)手的情況來看,AMD和谷歌的片間互聯(lián)帶寬分別達(dá)到了896GB/s和600GB/s,與英偉達(dá)的上一代H系列產(chǎn)品較為接近,而其他云廠商自研加速卡大多采用PCIe通信協(xié)議,在片間互聯(lián)能力方面與英偉達(dá)仍有較大的差距。英偉達(dá)NV

Link和NV

Switch參數(shù)英偉達(dá)及其競爭對(duì)手的加速卡片間互聯(lián)帶寬對(duì)比廠商大類型號(hào)互聯(lián)帶寬GB/sH100H200H20GH200B100B200GB200L40SL40NVLink900NVLink900NVLink900NVLink1800NVLink1800NVLink1800NVLink3600PCIe

64訓(xùn)練NVDIAPCIe

64推理L20PCIe

64L4PCIe

64L2PCIe

64AMDIntel訓(xùn)練訓(xùn)練MI300XInfinity

Fabric

Links896Gaudi

3TPUv5ETPUv5PMTIA

v2PCIe

128200600谷歌訓(xùn)練Meta微軟TESLA推理訓(xùn)練訓(xùn)練PCIe

128Maia

100D1PCIe

128PCIe

64資料:各公司官網(wǎng)、SemiAnlysis、36Kr、電子發(fā)燒友等,民生證券研究院整理*軟件生態(tài)是衡量加速卡廠商能力更重要的因素2.2GPU的軟件生態(tài)核心包括兩個(gè)部分:???深度學(xué)習(xí)框架:一套對(duì)深度學(xué)習(xí)算法進(jìn)行模塊化封裝的開發(fā)工具。英偉達(dá)基于CUDA技術(shù)在2014年推出了深度學(xué)習(xí)庫cuDNN,同時(shí)英偉達(dá)的GPU也支持基于TensorFlow、PyTorch的TensorRT等深度學(xué)習(xí)庫。計(jì)算架構(gòu):異構(gòu)編程語言,是實(shí)現(xiàn)異構(gòu)計(jì)算單元(CPU/GPU/DSP/ASIC/FPGA等)在同一個(gè)計(jì)算框架下的關(guān)鍵。目前主流的GPU編程語言包括英偉達(dá)開發(fā)的CUDA、AMD開發(fā)的ROCm以及開源的OpenCL。其中CUDA和OpenCL分別主要被英偉達(dá)和AMD采用。由于目前CUDA是最主流的深度學(xué)習(xí)架構(gòu),因此市面上大部分GPU相關(guān)軟件都是用CUDA開發(fā),兼容CUDA可以大幅降低國產(chǎn)GPU的開發(fā)難度,提升產(chǎn)品可用度,增加產(chǎn)品穩(wěn)定性,而部分廠商則選擇推廣自己的軟件生態(tài),如寒武紀(jì)、百度等。圖:英偉達(dá)人工智能企業(yè)軟件層框架名稱TensorFlowKerasCaffePyTorchTheano維護(hù)方GoogleGoogleBVLCFacebookUdeM支持語言C++/Python/Java/R等Python/RC++/Python/MatlabC/C++/PythonPython深度學(xué)習(xí)框架C++/Python/C#/.NET/Java/CNTKMicrosoftRK8S集群運(yùn)算符MXNetPaddlePaddleDeeplearning4jONNXDMLC百度EclipseC++/Python/R等C++/PythonJava/Scala等Python/R計(jì)算架構(gòu)Microsoft/Facebook編程語言O(shè)penCLCUDA廠商蘋果等英偉達(dá)AMD容器平臺(tái)ROCmGPU、網(wǎng)卡等硬件資料:英偉達(dá),大數(shù)據(jù)DT,民生證券研究院*2.30102云商資本開支持續(xù)上修AI三要素:算力、互聯(lián)、存儲(chǔ)目錄030405加速卡競爭格局日益激烈GB200解決互聯(lián)瓶頸,重視產(chǎn)業(yè)鏈彈性AI云端產(chǎn)業(yè)鏈*加速卡競爭格局:英偉達(dá)和他的挑戰(zhàn)者們2.3?

當(dāng)前全球AI芯片仍主要被英偉達(dá)壟斷,但競爭逐步白熱化。據(jù)TechInsights,2023年英偉達(dá)占全球數(shù)據(jù)中心GPU出貨量份額的98%,處于壟斷地位。同時(shí),AMD、谷歌、特斯拉等廠商相繼推出MI300系列、TPU

V5以及DojoD1等產(chǎn)品,挑戰(zhàn)英偉達(dá)的壟斷地位,盡管2024年4月英偉達(dá)推出的B系列加速卡再一次在算力方面與競爭對(duì)手甩開差距,但當(dāng)前全球加速卡市場競爭者不斷增加已成定局。?

國內(nèi)市場方面,伴隨美國禁令趨嚴(yán),2023年10月17日美國商務(wù)部公布算力芯片出口新規(guī),A100、H100、A800、H800、L40、L40S等芯片進(jìn)入名單,同時(shí)國內(nèi)昇騰、寒武紀(jì)等龍頭廠商產(chǎn)品能力不斷追趕海外龍頭,AI芯片國產(chǎn)化成為大趨勢(shì)。英偉達(dá)及其競爭對(duì)手的產(chǎn)品情況梳理全球龍頭英偉達(dá)的追趕者云廠商自研加速卡英偉達(dá)AMD昇騰MI300A910BMI300X910CGoogleTPUv5ETPUv5PH100H200GH200AWSMicrosoftMetaTrainiumMaiaGravitonB100L40B200L40SH20GB200L4MITADojoL20L2IntelGaudiTesla騰訊燧原其他玩家寒武紀(jì)海光景嘉微沐曦等一級(jí)市場公司阿里巴巴百度平頭哥昆侖芯資料:TechInsights,芯智訊,各公司官網(wǎng),民生證券研究院*英偉達(dá)的加速卡及服務(wù)器產(chǎn)品線梳理2.3???英偉達(dá)具有在訓(xùn)練側(cè)和推理側(cè)完善的產(chǎn)品布局,自2020年以來,平均每2年推出一代產(chǎn)品,每一代產(chǎn)品在算力、互聯(lián)帶寬等指標(biāo)方面的提升幅度均在一倍左右。訓(xùn)練卡方面,除了英偉達(dá)常規(guī)的H100、B100等加速卡外,H系列以后,英偉達(dá)還增加了H200、B200等產(chǎn)品,從而給客戶提供更多的產(chǎn)品選擇和更好的性價(jià)比,例如H200加速卡在HBM容量方面相較于H100均有較大提升,但價(jià)格方面提升幅度相對(duì)較少。推理卡方面,2024年英偉達(dá)的產(chǎn)品出貨以L40和L40S為主,并且推出了L20,L2,L4等產(chǎn)品供客戶選擇。英偉達(dá)加速卡及服務(wù)器產(chǎn)品線梳理訓(xùn)練卡A100H100B100R100HBM容量從80GB提升至141GBA系列:H系列:B系列:H200B200???INT8算力624TOPS???INT8算力3958TOPS???FP4算力20PFlops80GB

HBM2/2E600GB/s

NV

Link80~141GB

HBM2E/3/3E900~1800GB/s

NV

Link384GB

HBM3E1800GB/s

NV

LinkGH200GB200A10A30Int8算力250Tops推理卡服務(wù)器L4B40?R40算力330TopsL40SInt8算力733/362TopsInt8H20Int8算力296TopsNVL72和NVL36兩個(gè)版本,單臺(tái)服務(wù)器內(nèi)部分別對(duì)應(yīng)

,集成度更高,單個(gè)可實(shí)現(xiàn)小模型訓(xùn)練,一層互聯(lián)方式和加速卡背板替換成高速銅纜,采用液冷方式制冷SAM版本8卡形式出貨,PCIe版本可以選擇2/4/8卡形式,是目前英偉達(dá)以及其他競爭對(duì)手主流的服務(wù)器形態(tài)一層互聯(lián)方式替換成高速銅纜,共享內(nèi)存和帶寬更大,集群性能提升傳統(tǒng)8卡服務(wù)器架構(gòu)72

36

GPU和顆Rack即GH200架構(gòu)GB200架構(gòu)2020年2021年2022年2023年2024年2025年資料:英偉達(dá)官網(wǎng),民生證券研究院*英偉達(dá)的加速卡產(chǎn)品線梳理2.3???英偉達(dá)具有在訓(xùn)練側(cè)和推理側(cè)完善的產(chǎn)品布局,自2020年以來,平均每2年推出一代產(chǎn)品,每一代產(chǎn)品在算力、互聯(lián)帶寬等指標(biāo)方面的提升幅度均在一倍左右。訓(xùn)練卡方面,除了英偉達(dá)常規(guī)的H100、B100等加速卡外,H系列以后,英偉達(dá)還增加了H200、B200等產(chǎn)品,從而給客戶提供更多的產(chǎn)品選擇和更好的性價(jià)比,例如H200加速卡在HBM容量方面相較于H100均有較大提升,但價(jià)格方面提升幅度相對(duì)較少。推理卡方面,2024年英偉達(dá)的產(chǎn)品出貨以L40和L40S為主,并且推出了L20,L2,L4等產(chǎn)品供客戶選擇。英偉達(dá)主流加速卡產(chǎn)品參數(shù)匯總參數(shù)信息峰值算力TOPS/TFLOPS內(nèi)存信息廠商大類訓(xùn)練型號(hào)發(fā)布時(shí)間互聯(lián)帶寬GB/sINT4/PF4INT8/FP8BF16/FP16TF32制程nm功耗WFP32FP64類型容量GB

帶寬GB/sDense/Sparse

Dense/Sparse

Dense/Sparse

Dense/SparseH100H200H202022202320232023202420242024202320232023202320234444444-700700-4000/20004000/20002962000/10002000/10001481000/5001000/50074676744676080190929160302434341HBM3HBM3EHBM3801419633504800400050008000800016000864NVLink

900NVLink

900NVLink

900NVLink

1800NVLink

1800NVLink

1800NVLink

3600PCIe

64-400-GH200B100B200GB200L40SL40700-4000/20003500/70004500/900010000/20000733/1466362/7242392000/10001800/35002250/45005000/10000362/733181/362119.51000/500900/18001120/22502500/5000183/36691/1816034304090-HBM3EHBM3EHBM3EHBM3EGDDR6GDDR6GDDR6GDDR6GDDR6141192192384487009000/180001000最高27003507000/14000NVDIA20000/40000733/1466-300724/1488-48864PCIe

64推理L205-275----48864PCIe

64L472485242120-24300PCIe

64L2--19396.548-24300PCIe

64資料:英偉達(dá)官網(wǎng),民生證券研究院*下游云廠商紛紛推出自研AI芯片2.3??英偉達(dá)2024財(cái)年數(shù)據(jù)中心業(yè)務(wù)收入達(dá)到475億美元,預(yù)計(jì)2025財(cái)年仍將以翻倍態(tài)勢(shì)增長,云廠商作為英偉達(dá)的主要數(shù)據(jù)中心客戶,紛紛推出自研AI加速卡計(jì)劃,以求降低在數(shù)據(jù)中心領(lǐng)域的資本開支。云廠商中,加速卡發(fā)展最快的公司為谷歌,谷歌研發(fā)TPU的時(shí)間始于2013年,采取自研加速卡為主,同時(shí)采購部分英偉達(dá)加速卡的策略。由于谷歌在加速卡領(lǐng)域布局早,產(chǎn)品完善度高,谷歌是北美四大云廠商中采購英偉達(dá)加速卡最少的廠商。2023年12月,谷歌推出面向云端的AI加速卡TPUv5p,相較于TPU

V4,TPUv5p提供了二倍的浮點(diǎn)運(yùn)算能力和三倍內(nèi)存帶寬提升,芯片間的互聯(lián)帶寬最高可以達(dá)到600GB/s。其他云廠商也紛紛推出自研加速卡計(jì)劃。1)Meta:2023年,Meta宣布自研MTIA

v1芯片,2024年4月,Meta發(fā)布最新版本MTIA

v2加速卡;2)微軟:微軟Azure的企業(yè)數(shù)量已經(jīng)達(dá)到25萬家,微軟的Maia

100在2023年推出,專為Azure云服務(wù)設(shè)計(jì);3)亞馬遜:2023年,亞馬遜推出了用于訓(xùn)練的Trainium2加速卡,以及用于推理的Graviton4加速卡,目前亞馬遜在訓(xùn)練和推理卡均有布局。?英偉達(dá)客戶在加速卡領(lǐng)域的布局情況峰值算力TOPS/TFLOPS內(nèi)存信息容量GB發(fā)布時(shí)間制程nm互聯(lián)帶寬GB/s廠商大類型號(hào)INT8/FP8Dense/SparseBF16/FP16Dense/SparseTF32/FP32Dense/Sparse類型TPUv5ETPUv5PMTIA

v2Maia100Trainium2Graviton4D12023202320242023202320232021--394918197459--HBM2169512864-200600128128-谷歌訓(xùn)練HBM2Meta推理訓(xùn)練訓(xùn)練推理訓(xùn)練554-354/7081600861177/3548002.76--微軟HBM3431215--GDDR5-亞馬遜----TESLA737637622.63264資料:各公司官網(wǎng)、SemiAnlysis、36Kr、電子發(fā)燒友等,民生證券研究院整理*H200和Blackwell

GPU與競爭對(duì)手拉開差距2.3?AMD等廠商推出的MI300等強(qiáng)有力的產(chǎn)品,對(duì)英偉達(dá)的市場份額產(chǎn)生了一定的爭奪,但英偉達(dá)很快發(fā)布了H200、Blackwell

GPU等系列的產(chǎn)品,與其競爭對(duì)手又拉開了一個(gè)身位。以AMD的MI300X為例,這顆加速卡在Int8、FP16、FP32算力方面均為H100的1.3倍,互聯(lián)帶寬方面達(dá)到了接近于NV

Link4.0的896GB/s雙向互聯(lián),F(xiàn)P64算力和HBM容量更是達(dá)到了H100的2倍以上,一系列的堆料和價(jià)格優(yōu)勢(shì)使得下游云廠商考慮轉(zhuǎn)用一部分AMD的產(chǎn)品。?英偉達(dá)推出的H200很大程度上是對(duì)競爭對(duì)手的回應(yīng)。相較于H100,H200將此前的HBM3提升為HBM3E,同時(shí)將HBM容量從上一代的80GB提升至141GB。在價(jià)格方面,H200相較于上一代產(chǎn)品體現(xiàn)出極強(qiáng)的性價(jià)比,該款加速卡發(fā)售后預(yù)計(jì)將受到下游客戶的歡迎。英偉達(dá)的下一代Blackwell

GPU系列產(chǎn)品,在算力、內(nèi)存和互聯(lián)帶寬的AI三要素領(lǐng)域與競爭對(duì)手的差距進(jìn)一步拉開,鞏固了英偉達(dá)的領(lǐng)先地位。B100、B200、H100、H200、MI300X參數(shù)對(duì)比B1007000B2009000H100H200MI300XFP4算力(TFlops)FP8/INT8算力(TFlops)FP16/BF16算力(TFlops)TF32算力(TFlops)FP64算力(TFlops)顯存-1979989-1979-261535004500180022509891307900112049549565430406767163192GB

HBM3E1800192GB

HBM3E180080GB

HBM3900141GB

HBM3900192GB

HBM3896互聯(lián)帶寬(GB/s)資料:英偉達(dá),AMD,民生證券研究院整理*2.40102云商資本開支持續(xù)上修AI三要素:算力、互聯(lián)、存儲(chǔ)目錄030405加速卡競爭格局日益激烈GB200解決互聯(lián)瓶頸,重視產(chǎn)業(yè)鏈彈性AI云端產(chǎn)業(yè)鏈*GB200

DGX

NVL72顯著提升集群性價(jià)比和片間互聯(lián)能力2.4?GB200

DGX

NVL

72給英偉達(dá)算力性能帶來的提升主要來自性價(jià)比和片間互聯(lián)能力方面。1)從性價(jià)比來看:NVL

72的集群規(guī)模增大,一方面節(jié)省了除算力芯片以外的系統(tǒng)成本,另一方通過提升產(chǎn)品性能,間接提升了下游客戶購買的算力性價(jià)比。2)從片間互聯(lián)能力來看:市場上主流的AI服務(wù)器仍然是傳統(tǒng)的8卡服務(wù)器架構(gòu),而伴隨Blackwell平臺(tái)推出的最多可以支持576卡互聯(lián),片間互聯(lián)數(shù)量和帶寬的提升極大改善了英偉達(dá)平臺(tái)的推理和訓(xùn)練性能。?憑借架構(gòu)優(yōu)勢(shì),GB200

NVL72的推理性能達(dá)到H100的30倍,相較其他競爭對(duì)手領(lǐng)先優(yōu)勢(shì)更為顯著。按照每10億個(gè)參數(shù)的大模型大約需要占用4GB的顯存容量計(jì)算,當(dāng)前GPT4已經(jīng)達(dá)到萬億參數(shù)量級(jí),運(yùn)行時(shí)至少需要幾十張GPU同時(shí)進(jìn)行推理工作,GB200

NVL72在單個(gè)Rack內(nèi)部可以實(shí)現(xiàn)萬億參數(shù)量級(jí)的大模型推理工作,大大降低了大模型在通信環(huán)節(jié)的算力資源占用,使得GB200

NVL72的推理性能達(dá)到H100的30倍。GB200

NVL72、72*H100、72*x86

CPU之間的吞吐量對(duì)比英偉達(dá)DGX

NVL

72參數(shù)GB200的推理實(shí)時(shí)吞吐量達(dá)到H100的30倍資料:英偉達(dá)官網(wǎng),民生證券研究院*GB200——銅互連方案為全新增量2.4?GB200

NVL72

Rack內(nèi)部的GPU之間的互聯(lián),英偉達(dá)采用了高速銅纜的方案,優(yōu)點(diǎn)包括:1)成本低——相較于光模塊,高速銅纜在相同成本的情況下可以提供更高的互聯(lián)帶寬,從而提升Rack的推理以及訓(xùn)練效率;2)功耗低——采用銅互聯(lián)方案可以節(jié)省光電轉(zhuǎn)換產(chǎn)生的能量損耗,同時(shí)也降低了散熱問題;3)故障率低——光模塊每年有2%-5%的損壞率,而銅連接更加穩(wěn)定。?除了GPU之間,Compute

Tray內(nèi)部以及Rack之間也可以采用銅互連的方案。在英偉達(dá)的高速銅纜解決方案中,Compute

Tray內(nèi)部采用跳線對(duì)GPU、網(wǎng)卡等產(chǎn)品進(jìn)行互聯(lián);同時(shí)多個(gè)Rack之間也可以采用銅纜的方案,GB200的Rack架構(gòu)下,銅互連方案最多可以在8個(gè)Rack之間實(shí)現(xiàn)576卡的高速互聯(lián)。服務(wù)器內(nèi)部Overpass跳線Switch

tray內(nèi)部柜內(nèi)線Compute

Tray

to

Switch

Tray柜內(nèi)線資料:GENNEX,STH,英偉達(dá)官網(wǎng),民生證券研究院*GB200——光模塊帶寬持續(xù)提升2.4?B系列加速卡的發(fā)布,帶來光模塊帶寬的翻倍提升。英偉達(dá)加速卡的數(shù)據(jù)中心通過IB網(wǎng)絡(luò)進(jìn)行互聯(lián),采用光模塊方案傳輸數(shù)據(jù),光模塊的總傳輸帶寬與NV

Link帶寬成正比例關(guān)系。Blackwell平臺(tái)的推出將英偉達(dá)的NV

Link帶寬從900GB/s的雙向互聯(lián)帶寬提升一倍達(dá)到了1.8TB/s,從而帶來光模塊帶寬升級(jí)一倍,數(shù)據(jù)中心主流光模塊方案也從此前的800G光模塊升級(jí)為1.6T。?GB200數(shù)據(jù)中心架構(gòu)盡管在Rack內(nèi)部的GPU之間才用了銅纜進(jìn)行互聯(lián),但Rack之間仍主要采用光模塊的方案,目前云廠商普遍構(gòu)建大集群算力,AI數(shù)據(jù)中心對(duì)光模塊仍有大量需求。H100

8卡服務(wù)器數(shù)據(jù)中心架構(gòu)英偉達(dá)NV

Link升級(jí)節(jié)奏及性能資料:英偉達(dá)官網(wǎng),民生證券研究院*2.50102云商資本開支持續(xù)上修AI三要素:算力、互聯(lián)、存儲(chǔ)目錄030405加速卡競爭格局日益激烈GB200解決互聯(lián)瓶頸,重視產(chǎn)業(yè)鏈彈性AI云端產(chǎn)業(yè)鏈*英偉達(dá):AI時(shí)代的算力領(lǐng)軍人2.5?英偉達(dá)成立于

1993

年,公司業(yè)務(wù)布局包括數(shù)據(jù)中心、游戲、專業(yè)可視化、汽車四大板塊。數(shù)據(jù)中心業(yè)務(wù)伴隨著AI浪潮高速成長,1Q24實(shí)現(xiàn)營收225.63億美元,同比增長426.68%。2023年公司實(shí)現(xiàn)營收609.22億美元,同比+125.85%,實(shí)現(xiàn)凈利潤297.60億美元,同比+581.32%。此前市場擔(dān)憂AI訓(xùn)練的需求會(huì)隨著大模型訓(xùn)練告一段落而放緩,而2024年以來北美四大云商紛紛上修全年資本開支指引,1Q24四大云商合計(jì)資本開支476億美元,同比增長38.98%,反映出客戶對(duì)訓(xùn)練算力的需求仍在超預(yù)期。英偉達(dá)的H200、Blackwell平臺(tái)以及GB200等產(chǎn)品持續(xù)提升公司競爭優(yōu)勢(shì),業(yè)績有望持續(xù)增長。Bloomberg一致預(yù)期2025-2026財(cái)年公司凈利潤為670.47/894.33億美元,對(duì)應(yīng)2024年6月17日收盤價(jià)PE分別為48/36倍。?英偉達(dá)軟硬件產(chǎn)品線FY2022-2025Q1公司各業(yè)務(wù)營業(yè)收入(億美元)數(shù)據(jù)中心游戲?qū)I(yè)可視化汽車其他300250200150100500資料:英偉達(dá)官網(wǎng),Bloomberg,民生證券研究院*工業(yè)富聯(lián):產(chǎn)品結(jié)構(gòu)優(yōu)化調(diào)整,AI服務(wù)器帶來全新成長空間2.5?工業(yè)富聯(lián)業(yè)務(wù)主要包括通信及網(wǎng)絡(luò)設(shè)備、云計(jì)算、工業(yè)互聯(lián)網(wǎng)三大板塊。2023年三大業(yè)務(wù)板塊營收占比分別為58.74%/40.91%/0.35%。受益于工業(yè)富聯(lián)在服務(wù)器代工領(lǐng)域的前瞻布局,以及AI下游的強(qiáng)勁需求,工業(yè)富聯(lián)的云計(jì)算業(yè)務(wù)收入占比持續(xù)提升,2023年占比已超過40%。工業(yè)富聯(lián)與全球各大CSP廠商深入合作,在云計(jì)算服務(wù)器出貨量持續(xù)位列全球第一,同時(shí)公司具有強(qiáng)勁的供應(yīng)鏈關(guān)系以及較強(qiáng)的成本控制能力,有望伴隨AI浪潮持續(xù)成長。??財(cái)務(wù)情況來看,公司營業(yè)收入和利潤持續(xù)增長,2024年一季度營業(yè)收入

1186.88億元,同比增長12.09%,歸母凈利潤41.85億元,同比增長33.77%。我們預(yù)計(jì)2024-2026年工業(yè)富聯(lián)的歸母凈利潤分別為255.69/294.06/320.16億元,對(duì)應(yīng)2024年6月17日收盤價(jià)PE分別為21/19/17倍,維持“推薦”評(píng)級(jí)。風(fēng)險(xiǎn)提示:AI行業(yè)需求波動(dòng)的風(fēng)險(xiǎn);行業(yè)競爭加劇的風(fēng)險(xiǎn);宏觀需求不及預(yù)期的風(fēng)險(xiǎn)。工業(yè)富聯(lián)三大業(yè)務(wù)板塊2018-2024Q1工業(yè)富聯(lián)財(cái)務(wù)情況(億元,%)營業(yè)收入歸母凈利潤營收YoY歸母凈利潤YoY600050004000300020001000040%35%30%25%20%15%10%5%0%-5%-10%2018201920202021202220231Q24資料:工業(yè)富聯(lián)官網(wǎng),公司公告,iFinD,民生證券研究院*海光信息:DCU和CPU全面布局2.5?海光信息主要研發(fā)應(yīng)用于服務(wù)器、工作站等計(jì)算、存儲(chǔ)設(shè)備中的高端處理器,公司的產(chǎn)品包括海光通用處理器(CPU)和海光協(xié)處理器(DCU),公司產(chǎn)品線完善,性能強(qiáng)勁,公司為國內(nèi)領(lǐng)先的高端處理器企業(yè)。?海光信息骨干研發(fā)人員多擁有國內(nèi)外知名芯片公司的就職背景,擁有成功研發(fā)x86處理器或ARM處理器的經(jīng)驗(yàn)。CPU產(chǎn)品方面,公司產(chǎn)品按不同業(yè)務(wù)場景分成了高、中、低端的7000、5000、3000系列。DCU產(chǎn)品方面,海光信息具有完整的軟件棧布局和強(qiáng)大的硬件能力,在智能計(jì)算以及人工智能市場具備競爭優(yōu)勢(shì)。??財(cái)務(wù)情況來看,海光信息業(yè)績穩(wěn)健增長。1Q24實(shí)現(xiàn)營收15.92億元,同比增長37.09%;實(shí)現(xiàn)歸母凈利潤2.89億元,同比增長20.53%。

我們預(yù)計(jì)海光信息2024-2025年歸母凈利潤為16.50/21.76億元,對(duì)應(yīng)2024年6月17日收盤價(jià)PE

分別為104/79倍,維持“推薦”評(píng)級(jí)。風(fēng)險(xiǎn)提示:產(chǎn)品研發(fā)進(jìn)度不及預(yù)期的風(fēng)險(xiǎn);政策推進(jìn)不及預(yù)期的風(fēng)險(xiǎn);供應(yīng)鏈風(fēng)險(xiǎn)。海光信息CPU產(chǎn)品梳理海光信息深度計(jì)算處理器軟件棧2018-2024Q1海光信息財(cái)務(wù)情況(億元,%)系列7000系列CPU16-32個(gè)核心128路5000系列CPU3000系列CPU營業(yè)收入歸母凈利潤核心規(guī)模PCIe通道8-16個(gè)核心64路4-9個(gè)核心32路營收YoY歸母凈利潤YoYDDR4通道

8個(gè)4個(gè)1TB2個(gè)706050403020100800%600%400%200%0%內(nèi)存容量2TB入門級(jí)服務(wù)器、工作站、工業(yè)控制等市場數(shù)據(jù)中心、云計(jì)算中

云計(jì)算、邊緣計(jì)算、心下游市場分布式存儲(chǔ)等客戶情況-200%-400%-600%-800%-1000%-1200%2018

2019

2020

2021

2022

2023

1Q24-10資料:海光信息官網(wǎng),公司公告,iFinD,民生證券研究院*寒武紀(jì):加速卡領(lǐng)域的國內(nèi)領(lǐng)先廠商2.5?公司堅(jiān)持自主研發(fā),目前公司的主要產(chǎn)品線包括云端產(chǎn)品線、邊緣產(chǎn)品線、IP

授權(quán)及軟件。主要產(chǎn)品為云端智能芯片及加速卡、

訓(xùn)練整機(jī)、邊緣智能芯片及加速卡、終端智能處理器

IP

以及上述產(chǎn)品的配套軟件開發(fā)平臺(tái)。公司在國內(nèi)加速卡領(lǐng)域處于領(lǐng)先地位,產(chǎn)品算力強(qiáng)勁。寒武紀(jì)推出的思元590系列產(chǎn)品對(duì)標(biāo)英偉達(dá)A100,性能領(lǐng)先,有望為公司業(yè)績帶來較大貢獻(xiàn)。??財(cái)務(wù)情況來看,1Q24公司實(shí)現(xiàn)營收0.26億元,同比下降65.91%,實(shí)現(xiàn)歸母凈利潤-2.27億元。

我們預(yù)計(jì)寒武紀(jì)2024-2026年?duì)I業(yè)收入分別為15.36/26.74/33.42億元,對(duì)應(yīng)2024年6月17日收盤價(jià)PS

分別為57/33/26倍,維持“推薦”評(píng)級(jí)。風(fēng)險(xiǎn)提示:宏觀需求不及預(yù)期的風(fēng)險(xiǎn);產(chǎn)品研發(fā)不及預(yù)期的風(fēng)險(xiǎn);行業(yè)競爭加劇的風(fēng)險(xiǎn)。寒武紀(jì)主要產(chǎn)品布局2019-2024Q1寒武紀(jì)財(cái)務(wù)情況(億元,%)營業(yè)收入歸母凈利潤營收YoY歸母凈利潤YoY產(chǎn)品線產(chǎn)品類型寒武紀(jì)主要產(chǎn)品105100%80%60%40%20%0%思元

100(MLU100)芯片及云端智能加速

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論