2023年AIGC發(fā)展投資機(jī)遇分析 國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期_第1頁
2023年AIGC發(fā)展投資機(jī)遇分析 國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期_第2頁
2023年AIGC發(fā)展投資機(jī)遇分析 國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期_第3頁
2023年AIGC發(fā)展投資機(jī)遇分析 國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期_第4頁
2023年AIGC發(fā)展投資機(jī)遇分析 國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2023年AIGC發(fā)展投資機(jī)遇分析國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期一、AI服務(wù)器產(chǎn)業(yè)鏈?zhǔn)崂矸?wù)器是數(shù)字經(jīng)濟(jì)發(fā)展的基礎(chǔ)要素之一服務(wù)器按CPU體系架構(gòu)分類:可分成x86架構(gòu)和非x86架構(gòu)。x86架構(gòu)服務(wù)器又稱CISC(復(fù)雜指令集)架構(gòu)服務(wù)器,是采用Intel或其他兼容x86指令集的CPU和Windows操作系統(tǒng)的服務(wù)器。非x86服務(wù)器使用RISC(精簡(jiǎn)指令集)或EPIC(并行指令代碼),主要采用UNIX或其他操作系統(tǒng)。相比x86架構(gòu),非x86架構(gòu)價(jià)格昂貴、體系封閉,但整體運(yùn)行穩(wěn)定性更好。按處理器數(shù)量分類:可分成單路、雙路、四路以及多路服務(wù)器。按應(yīng)用場(chǎng)景分類:可分成存儲(chǔ)服務(wù)器、云服務(wù)器、AI服務(wù)器和邊緣服務(wù)器等。國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期服務(wù)器按應(yīng)用場(chǎng)景可分成存儲(chǔ)服務(wù)器、云服務(wù)器、AI服務(wù)器和邊緣服務(wù)器等。近年來,隨著全球物聯(lián)網(wǎng)、數(shù)據(jù)中心的快速發(fā)展,服務(wù)器需求量不斷增長(zhǎng)。據(jù)IDC數(shù)據(jù)顯示,2021年全球服務(wù)器出貨量達(dá)到1354萬臺(tái),yoy+11%;2021年全球服務(wù)器市場(chǎng)規(guī)模達(dá)到992億美元,yoy+9%。其中,大陸服務(wù)器出貨量由229萬臺(tái)增長(zhǎng)至391萬臺(tái),CAGR+11%;市場(chǎng)規(guī)模由93億美元增長(zhǎng)至251億美元,CAGR+22%,兩項(xiàng)增速遠(yuǎn)超全球。政策支持將推動(dòng)國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期。2023年中共中央、國(guó)務(wù)院印發(fā)《數(shù)字中國(guó)建設(shè)整體布局規(guī)劃》,明確指出“夯實(shí)數(shù)字中國(guó)建設(shè)基礎(chǔ)”,我們認(rèn)為“數(shù)字基礎(chǔ)設(shè)施”將拉動(dòng)大數(shù)據(jù)中心、超算中心等基建建設(shè),國(guó)內(nèi)AI服務(wù)器規(guī)模有望迎來快速增長(zhǎng)。國(guó)內(nèi)AI服務(wù)器進(jìn)入快速增長(zhǎng)期AI服務(wù)器和通用型區(qū)別主要在于:1)硬件架構(gòu):AI服務(wù)器是采用異構(gòu)形式的服務(wù)器,根據(jù)應(yīng)用的范圍采用不同的組合方式,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。與普通的服務(wù)器的差別主要在大數(shù)據(jù)及云計(jì)算、人工智能等方面需要更大的內(nèi)外存。2)卡的數(shù)量:普通的GPU服務(wù)器一般是單卡或者雙卡,AI服務(wù)器需要承擔(dān)大量的計(jì)算,一般配置四塊GPU卡以上,甚至要搭建AI服務(wù)器集群。3)獨(dú)特設(shè)計(jì):AI服務(wù)器由于有了多個(gè)GPU卡,需要針對(duì)性的對(duì)于系統(tǒng)結(jié)構(gòu)、散熱、拓?fù)涞茸鰧iT的設(shè)計(jì),才能滿足AI服務(wù)器長(zhǎng)期穩(wěn)定運(yùn)行的要求。隨著國(guó)內(nèi)數(shù)字基礎(chǔ)建設(shè)數(shù)據(jù)負(fù)載量的需求量不斷上升,我國(guó)AI服務(wù)器市場(chǎng)保持較快增速。根據(jù)IDC數(shù)據(jù),2022年大陸AI服務(wù)器出貨量達(dá)28.4萬臺(tái),預(yù)計(jì)到2027年達(dá)到65萬臺(tái),CAGR為17.9%,按金額計(jì)算,2022年大陸AI服務(wù)器銷售額為72.55億美元,預(yù)計(jì)到2027年銷售額將達(dá)到163.99億美元,CAGR為17.7%。國(guó)產(chǎn)服務(wù)器廠商水平位于世界前列中國(guó)在AI服務(wù)器水平位于世界前列。AI服務(wù)器采用CPU+加速芯片的架構(gòu)形式,在進(jìn)行模型的訓(xùn)練和推斷時(shí)會(huì)更具有效率優(yōu)勢(shì)。與國(guó)外AI芯片廠商的壟斷局面不同,中國(guó)AI服務(wù)器水平位于世界前列。據(jù)IDC數(shù)據(jù),2022年中國(guó)AI服務(wù)器市場(chǎng)(按銷售額),浪潮以46.6%份額占據(jù)首位,新華三、寧暢分別以11%和9%占據(jù)第二、第三名。4卡/8卡GPU服務(wù)器逐步成為主流技術(shù)升級(jí)推動(dòng)行業(yè)進(jìn)步:服務(wù)器的升級(jí)迭代依賴于CPU、GPU、存儲(chǔ)介質(zhì)和網(wǎng)絡(luò)接口等上游核心組件在性能上的提升。近年來,部分企業(yè)正積極提高自身服務(wù)器的性能,如浪潮服務(wù)器在設(shè)計(jì)上實(shí)現(xiàn)了多項(xiàng)技術(shù)創(chuàng)新和升級(jí),可支持3組或4組CPUXGMI靈活互聯(lián)配置;戴爾新一代DellPowerEdge服務(wù)器,提供了比PERC11高2倍、比PERC10高4倍的性能。隨大數(shù)據(jù)需求增長(zhǎng),4卡和8卡的AI加速服務(wù)器成為大客戶的主流。云計(jì)算帶動(dòng)AI訓(xùn)練推理需求增長(zhǎng),22H1,A100的出貨量表現(xiàn)突出,占據(jù)GPU服務(wù)器市場(chǎng)的44%,隨大模型推出后下游需求火熱,8卡高端GPU服務(wù)器份額有望持續(xù)增長(zhǎng)。二、算力:AI底層土壤核心受益算力是AI底層土壤,AI芯片核心受益目前CPU+XPU異構(gòu)形式成為AI服務(wù)器主流架構(gòu)。傳統(tǒng)的CPU單元對(duì)于AI計(jì)算任務(wù)的處理能力有限,而XPU(包括GPU、FPGA、ASIC等)則可以提供更強(qiáng)大的計(jì)算能力,因此將CPU和XPU結(jié)合起來使用可以實(shí)現(xiàn)計(jì)算任務(wù)的高效處理和資源的最優(yōu)利用。一般來說,CPU負(fù)責(zé)整個(gè)系統(tǒng)的管理和控制,而加速芯片則負(fù)責(zé)AI計(jì)算任務(wù)的加速,兩者相互協(xié)作,共同提升整個(gè)系統(tǒng)的性能。ChatGPT火熱拉動(dòng)AI芯片需求快速增長(zhǎng),英偉達(dá)GPU供需緊張。ChatGPT推出不久即在全球范圍火爆,成為史上用戶增長(zhǎng)速度最快的消費(fèi)級(jí)應(yīng)用程序,用戶訪問數(shù)量不斷增長(zhǎng)拉動(dòng)算力需求激增。據(jù)OpenAI數(shù)據(jù),1月ChatGPT重大停機(jī)(Majoroutage)時(shí)長(zhǎng)為5小時(shí)30分鐘,部分停機(jī)(Partialoutage)16小時(shí)21分鐘,運(yùn)營(yíng)算力不足已經(jīng)開始影響ChatGPT的穩(wěn)定性和響應(yīng)速度,4月因訪問需求量過大,ChatGPT更是短暫停止Plus銷售服務(wù)。微軟與OpenAI正在消耗大量GPU用于AI推理,英偉達(dá)GPU產(chǎn)品供應(yīng)緊缺,我們認(rèn)為大模型的火熱將帶來巨大算力需求,算力芯片將作為底層土壤核心受益。云端訓(xùn)練和推斷計(jì)算主要由Al服務(wù)器完成,底層算力芯片包括CPU、GPU、FPGA、ASIC等。CPU是AI計(jì)算的基礎(chǔ),負(fù)責(zé)控制和協(xié)調(diào)所有的計(jì)算操作。在AI計(jì)算過程中,CPU用于讀取和準(zhǔn)備數(shù)據(jù),并將數(shù)據(jù)來傳輸?shù)紾PU等協(xié)處理器進(jìn)行計(jì)算,最后輸出計(jì)算結(jié)果,是整個(gè)計(jì)算過程的控制核心。根據(jù)IDC數(shù)據(jù),CPU在基礎(chǔ)型、高性能型、推理型、訓(xùn)練型服務(wù)器中成本占比分別為32%、23.3%、25%、9.8%,是各類服務(wù)器處理計(jì)算任務(wù)的基礎(chǔ)硬件。GPU、FPGA、ASIC是AI計(jì)算的核心,作為加速芯片處理大規(guī)模并行計(jì)算。具體來看,GPU通用性較強(qiáng),適合大規(guī)模并行計(jì)算,且設(shè)計(jì)及制造工藝較成熟,目前占據(jù)AI芯片市場(chǎng)的主要份額;FPGA具有開發(fā)周期短、上市速度快、可配置性等特點(diǎn),目前被大量應(yīng)用于線上數(shù)據(jù)處理中心和軍工單位;ASIC根據(jù)特定需求進(jìn)行設(shè)計(jì),在性能、能效、成本均極大的超越了標(biāo)準(zhǔn)芯片,非常適合AI計(jì)算場(chǎng)景,是當(dāng)前大部分AI初創(chuàng)公司開發(fā)的目標(biāo)產(chǎn)品。CPU:服務(wù)器主要核心算力芯片根據(jù)IDC數(shù)據(jù),CPU在推斷型服務(wù)器中的成本占比為25%,在訓(xùn)練型服務(wù)器中的成本占比為9.8%。此外據(jù)IDC對(duì)于人工智能服務(wù)器推理和訓(xùn)練工作負(fù)載的預(yù)測(cè),2021用于推斷和訓(xùn)練的占比分別為40.9%和59.1%,2025年推斷和訓(xùn)練的占比調(diào)整為60.8%和39.2%,我們測(cè)算出2021年和2025年CPU在AI服務(wù)器中的成本占比分別為16.02%和19.04%。根據(jù)觀研報(bào)告網(wǎng)數(shù)據(jù),2021年全球AI服務(wù)器市場(chǎng)規(guī)模為156億美元,預(yù)計(jì)于2025年增長(zhǎng)至318億美元。2021年中國(guó)AI服務(wù)器市場(chǎng)規(guī)模為350.3億元,預(yù)計(jì)2025年將增長(zhǎng)至701.8億元。因此我們合理推算2021年,全球AI服務(wù)器CPU市場(chǎng)規(guī)模約為25億美元,中國(guó)市場(chǎng)約為56億元,到2025年全球AI服務(wù)器CPU市場(chǎng)規(guī)模約為61億美元,中國(guó)市場(chǎng)規(guī)模為134億元。GPU:AI高性能計(jì)算王者GPU在AI模型構(gòu)建中具有較高的適配性。GPU的高并行性可以更好地支持AI模型訓(xùn)練和推理過程中大量的矩陣或向量計(jì)算,以NVIDIAGPU系列旗艦產(chǎn)品A100為例:根據(jù)NVIDIA公布的規(guī)格參數(shù),A100的深度學(xué)習(xí)運(yùn)算性能可達(dá)312Tflops。在AI訓(xùn)練過程中,2048個(gè)A100GPU可在一分鐘內(nèi)成規(guī)模地處理BERT的訓(xùn)練工作負(fù)載;在AI推理過程中,A100可將推理吞吐量提升到高達(dá)CPU的249倍。AI模型與應(yīng)用的加速發(fā)展推動(dòng)GPU芯片放量增長(zhǎng)。根據(jù)VerifiedMarketResearch數(shù)據(jù),2021年全球GPU市場(chǎng)規(guī)模為334.7億美元,預(yù)計(jì)2030年將達(dá)到4773.7億美元,CAGR(2021-2030)為34.35%。從國(guó)內(nèi)市場(chǎng)來看,2020年中國(guó)大陸的獨(dú)立GPU市場(chǎng)規(guī)模為47.39億美元,預(yù)計(jì)2027年市場(chǎng)規(guī)模將達(dá)345.57億美元,CAGR(2021-2027)為32.8%。FPGA:可編程芯片加速替代FPGA是AI時(shí)代下解決暗硅效應(yīng)的有效途徑。暗硅效應(yīng)(DarkSilicon)指由于芯片工藝和尺寸的限制,芯片上只有一小部分區(qū)域可以同時(shí)運(yùn)行,其余的區(qū)域被閑置或關(guān)閉,這些閑置或關(guān)閉的區(qū)域被稱為“暗硅”。在AI計(jì)算領(lǐng)域,由于摩爾定律的限制和散熱問題,先進(jìn)高效的硬件設(shè)計(jì)會(huì)更容易導(dǎo)致暗硅效應(yīng),限制了芯片的計(jì)算能力和應(yīng)用范圍。據(jù)相關(guān)論文,在22nm制程下,暗硅面積將達(dá)21%。在8nm制程下,暗硅面積將提升至50%以上。由于暗硅效應(yīng),預(yù)計(jì)到2024年平均只能實(shí)現(xiàn)7.9倍的加速比,與每代性能翻倍的目標(biāo)相比差距將近24倍。FPGA的可編程性和可重構(gòu)性使其能夠靈活地部署和優(yōu)化計(jì)算任務(wù),從而在一定程度上緩解了暗硅效應(yīng)的影響。簡(jiǎn)單來說FPGA減少暗硅效應(yīng)的方法有兩個(gè)方向,一是通過優(yōu)化電路結(jié)構(gòu),盡可能減少不活躍區(qū)域的數(shù)量;二是通過動(dòng)態(tài)重構(gòu)電路,使得不活躍區(qū)域可以被重用。ASIC:云端推斷市場(chǎng)規(guī)??焖僭鲩L(zhǎng)ASIC主要應(yīng)用在推斷場(chǎng)景,在終端推斷市場(chǎng)份額最大,在云端推斷市場(chǎng)增速較快。訓(xùn)練:AI模型在訓(xùn)練過程中需要對(duì)模型參數(shù)進(jìn)行不斷調(diào)整,ASIC由于專用性強(qiáng)、靈活性低,因此不適用于云端訓(xùn)練。根據(jù)賽迪顧問數(shù)據(jù),2019年GPU、FPGA、ASIC在云端訓(xùn)練市場(chǎng)占比分別為63.9%、22.6%、13.5%,云端訓(xùn)練仍以GPU為主。推斷:與訓(xùn)練場(chǎng)景不同,推斷場(chǎng)景模型參數(shù)較為固化,ASIC在推斷市場(chǎng)場(chǎng)景中的應(yīng)用前景較為廣闊。在早期,ASIC的下游應(yīng)用場(chǎng)景主要為各領(lǐng)域智慧終端設(shè)備,因此在終端推斷市場(chǎng)規(guī)模較大。目前,隨著云端算力需求的不斷增加,ASIC憑借出色的算力水平開始在云端推斷領(lǐng)域快速滲透。根據(jù)賽迪顧問數(shù)據(jù),2019年ASIC在終端推斷的市場(chǎng)份額為41%,遠(yuǎn)超GPU與FPGA。2019-2021年在云端推斷的市場(chǎng)年均增速均保持在60%以上,高于CPU與FPGA。生態(tài)體系逐步完善,國(guó)產(chǎn)GPU多領(lǐng)域追趕全球GPU芯片市場(chǎng)主要由海外廠商占據(jù)壟斷地位,國(guó)產(chǎn)廠商加速布局。全球GPU市場(chǎng)被英偉達(dá)、英特爾和AMD三強(qiáng)壟斷,英偉達(dá)憑借其自身CUDA生態(tài)在AI及高性能計(jì)算占據(jù)絕對(duì)主導(dǎo)地位;國(guó)內(nèi)市場(chǎng)中,景嘉微在圖形渲染GPU領(lǐng)域持續(xù)深耕,另外天數(shù)智芯、壁仞科技、登臨科技等一批主打AI及高性能計(jì)算的GPGPU初創(chuàng)企業(yè)正加速涌入。ASIC不同于CPU、GPU、FPGA,目前全球ASIC市場(chǎng)并未形成明顯的頭部廠商,國(guó)產(chǎn)廠商快速發(fā)展;通過產(chǎn)品對(duì)比發(fā)現(xiàn),目前國(guó)產(chǎn)廠商集中采用7nm工藝制程,與國(guó)外ASIC廠商相同;算力方面,海思的昇騰910在BF16浮點(diǎn)算力和INT8定點(diǎn)算力方面超越Googel最新一代產(chǎn)品TPUv4,寒武紀(jì)的產(chǎn)品在整體性能上也逐步縮小與海外廠商差距。未來國(guó)產(chǎn)廠商有望在ASIC領(lǐng)域繼續(xù)保持技術(shù)優(yōu)勢(shì),突破國(guó)外廠商在AI芯片的壟斷格局。三、存力:服務(wù)器底層支撐AI算力需求,存儲(chǔ)芯片受益ChatGPT帶動(dòng)AI服務(wù)器需求,存儲(chǔ)芯片受益。ChatGPT的數(shù)據(jù)獲取、數(shù)據(jù)整理、訓(xùn)練、推理除大算力芯片外,還需存儲(chǔ)芯片支持。服務(wù)器成本構(gòu)成:服務(wù)器成本包括算力芯片、存儲(chǔ)器等,根據(jù)IDC2018年服務(wù)器成本構(gòu)成,在高性能服務(wù)器/推理型服務(wù)器/機(jī)器學(xué)習(xí)型服務(wù)器中存儲(chǔ)占比29%/25%/16%。AI服務(wù)器,除了內(nèi)存需要128GB或更大容量的高性能HBM和高容量服務(wù)器DRAM,還需硬盤去存儲(chǔ)大量數(shù)據(jù)。存儲(chǔ)下游市場(chǎng):智能手機(jī)+服務(wù)器+PC是主要下游。智能手機(jī)端出貨量增速有限,單機(jī)容量提升是主要推動(dòng)力;服務(wù)器端,受益人工智能、物聯(lián)網(wǎng)和云計(jì)算等應(yīng)用興起,服務(wù)器出貨量及單機(jī)容量提升推動(dòng)增長(zhǎng)。AI高算力對(duì)高帶寬內(nèi)存的需求AI大算力需要的內(nèi)存:大容量服務(wù)器DRAM和高帶寬內(nèi)存HBM。按照應(yīng)用場(chǎng)景,DRAM分成標(biāo)準(zhǔn)DDR、LPDDR、GDDR三類。JEDEC定義并開發(fā)了以下三類SDRAM標(biāo)準(zhǔn),以幫助設(shè)計(jì)人員滿足其目標(biāo)應(yīng)用的功率、性能和尺寸要求。1)標(biāo)準(zhǔn)型DDR:針對(duì)服務(wù)器、云計(jì)算、網(wǎng)絡(luò)、筆記本電腦、臺(tái)式機(jī)和消費(fèi)類應(yīng)用程序,與CPU配套使用。2)LPDDR:LowPowerDDR,針對(duì)尺寸和功率非常敏感的移動(dòng)和汽車領(lǐng)域,有低功耗的特點(diǎn)。3)GDDR:GraphicsDDR,針對(duì)高帶寬(例如顯卡和AI)的兩種不同的存儲(chǔ)器架構(gòu)是GDDR和HBM。GDDRDRAM是專為GPU和加速器設(shè)計(jì)的,HBM是GDDR的替代品,也適用于GPU與加速器,與主芯片配套,可以提高機(jī)器學(xué)習(xí)和計(jì)算性能,如英偉達(dá)“A100”就最高配備了80GBHBM2內(nèi)存。HBM(HighBandwidthMemory)是將多個(gè)DDR芯片3D堆疊在一起后和主芯片封裝在一起,有高帶寬、低功耗等特點(diǎn)。1)HBM與主芯片合封在一起:DRAM顆粒和和GPU/CPU合封,縮短了DRAM和主芯片之間的通信距離,同時(shí)跨越封裝對(duì)芯片引腳數(shù)目的限制,幾十倍提高傳輸線數(shù)量,降低傳輸損耗,提高傳輸帶寬。2)HBM采用3D堆疊技術(shù),中間層連接內(nèi)存與主芯片:不同于DRAM顆粒與算力芯片平鋪,HBM將DRAM顆粒堆疊在一起,一方面增加了DRAM容量,另一方面直接增加帶寬,DRAM顆粒通過“硅透”(TSV)的微型導(dǎo)線相互連接,主芯片和DRAM通過中間層連通,HBM具備的特性幾乎和芯片集成的RAM一樣,具有更高速、更高帶寬的特點(diǎn)。DRAM全球三大家壟斷,HBM市場(chǎng)由三星、海力士主導(dǎo),目前已迭代至HBM3。2021年全球DRAM市場(chǎng)三星、海力士、美光三巨頭合計(jì)市占率高達(dá)94%。HBM市場(chǎng),以SK海力士、三星為主,SK海力士HBM技術(shù)起步早,占據(jù)較大市場(chǎng)。SK海力士:AMD意識(shí)到DDR的局限性并產(chǎn)生開發(fā)堆疊內(nèi)存的想法,與SK海力士聯(lián)手研發(fā)HBM;2013年,SK海力士將TSV技術(shù)應(yīng)用于DRAM,在業(yè)界首次成功研發(fā)出HBM;2015年,AMD在Fury系列顯卡上首次商用第一代HBM技術(shù)。2018年發(fā)布HBM2,2021年發(fā)布全球首款HBM3,目前在研HBM4。三星:三星從HBM2開始布局,2016年量產(chǎn)HBM2,2021年2月,三星電子推出了HBM-PIM(存算一體),將內(nèi)存半導(dǎo)體和AI處理器合二為一,2022年HBM3已量產(chǎn)。四、PCB:AI服務(wù)器基石AI產(chǎn)業(yè)機(jī)會(huì)-PCB:AI服務(wù)器基石ChatGPT數(shù)據(jù)運(yùn)算量增長(zhǎng)快速,帶動(dòng)服務(wù)器/交換機(jī)等用量提升,布局相應(yīng)領(lǐng)域PCB公司顯著受益。ChatGPT帶來了算力需求的激增,與之對(duì)應(yīng)亦帶來相應(yīng)服務(wù)器/交換機(jī)等作為算力核心載體和傳輸?shù)挠布?,帶來PCB需求大幅增長(zhǎng),同時(shí)隨著對(duì)算力的要求越來越高,對(duì)于大容量、高速、高性能的云計(jì)算服務(wù)器的需求將不斷增長(zhǎng),對(duì)PCB的設(shè)計(jì)要求也將不斷升級(jí),提升對(duì)于高層數(shù)、大尺寸、高速材料等的應(yīng)用。以23年發(fā)布的新服務(wù)器平臺(tái)為例,Pcie5.0服務(wù)器用PCB層數(shù)、材料、設(shè)計(jì)工藝均有升級(jí),PCB價(jià)格提升顯著,其層數(shù)從4.0的12-16層升級(jí)至16-20層,根據(jù)Prismark的數(shù)據(jù),2021

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論