版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。SACNo.S0570521050001leping.huang@SFCNo.AUZ066+(852)36586000SACNo.S0570520090002yuyi@SFCNo.BNC535+(86)75582492388SACNo.S0570522020001zhanghaoyi@+(86)2128972228SACNo.S0570121040041huyuzhou@SFCNo.BOB674+(852)36586000SACNo.S0570121070166xinyi.wang@SFCNo.BTB527+(86)2128972228SACNo.S0570121120092chenyu019111@+(86)2128972228SACNo.S0570122070045quanheyang@+(86)2128972228行業(yè)走勢圖電子滬深300(%)6(3)(11)(20)(28)Mar-22Jul-22Nov-22Mar-23AI的“iPhone”時刻來臨,算力基礎(chǔ)設(shè)施板塊有望充分受益英偉達美國時間3.21開始召開年度開發(fā)者大會(GTC)。在會上CEO黃仁勛再次強調(diào)ChatGPT等生成式AI的出現(xiàn),會改變千行百業(yè),AI正迎來“iPhone”時刻。公司展示了從芯片、服務器、大模型到云服務在內(nèi)的完整的AI工廠解決方案,并希望能夠成為AI時代的臺積電。我們認為,1)大模型將是科技巨頭之間的競爭,這個競爭會利好芯片送水人,2)芯片和數(shù)據(jù)成為制約發(fā)展的關(guān)鍵因素。關(guān)注1)先進封裝及計算芯片在內(nèi)的半導體產(chǎn)業(yè)鏈,2)服務器、PCB、光模塊光纖在內(nèi)數(shù)據(jù)中心產(chǎn)業(yè)鏈,以及(3)???、大華、商湯等相關(guān)公司在垂直行業(yè)布局。芯片:新版H100提高訓練速度10倍,國內(nèi)在技術(shù)上仍有較大提升空間目前,主流的AI訓練一般采用英偉達的A100或H100芯片,這次大會上,公司推出針對大模型優(yōu)化過的新訓練芯片H100NVL,和過去的A100相比,訓練速度提高10倍,成本降低一個數(shù)量級。年發(fā)布的T4芯片,這次公司發(fā)布出面向視頻生成和圖像生成的新推理芯片L4和L40,其中L40推理性能是T4的10倍。受美國出口管制限制,中國目前只能采購實測性能比A100低1/3的A800,因此訓練同一個體量的模型,中國在成本及速度上存在10倍以上的差距。目前國內(nèi)AI芯片廠商在推理芯片已有一定市占率,但受CUDA等軟件影響,訓練芯片上差距仍較大。從GPU到AI工廠,AI計算會為整個服務器產(chǎn)業(yè)鏈帶來增長這次會上,英偉達重點展示了如何從單顆GPU芯片H100,通過NVLINKSwitch形成一顆巨型GPU,然后通過QuantumInfiniBand技術(shù),搭建有上百張GPU的DGX服務器,及把多臺DGX聯(lián)通形成一臺AI超級計算機的全過程。我們看到整個系統(tǒng)的搭建過程,會帶動包括服務器整機,PCB、光模塊、光纖光纜、電源在內(nèi)的整個服務器產(chǎn)業(yè)鏈的性能升級。產(chǎn)業(yè)鏈相關(guān)環(huán)節(jié)公司包括:工業(yè)富聯(lián)、中興、紫光、聯(lián)想、滬電、勝宏、中際旭創(chuàng)等。從云計算到大模型服務,關(guān)注垂直行業(yè)的發(fā)展機會此次會上,英偉達還宣布推出每實例每月36,999美元起的AI計算服務NVIDIADGXCloud,和新的AlFoundations服務(包括語言大模型Nemo、視覺大模型Picasso和生物大模型BioNemo在內(nèi)的模型研發(fā)服務定位為超算云服務+模型代工廠。公司強調(diào)未來每家公司都會成為AI工廠,企業(yè)專有數(shù)據(jù)價值量高,AI云服務幫助企業(yè)以專有數(shù)據(jù)創(chuàng)建專有模型。目前中國大模型應用的發(fā)展還在起步階段,參考上一輪人工智能周期,我們認為對垂直行業(yè)有深刻理解,有軟硬件整合能力的企業(yè)更容易享受到AI紅利。風險提示:AI及技術(shù)落地不及預期;本研報中涉及到未上市公司或未覆蓋個股內(nèi)容,均系對其客觀公開信息的整理,并不代表本研究團隊對該公司、該股票的推薦或覆蓋。研究員研究員研究員研究員研究員研究員聯(lián)系人聯(lián)系人聯(lián)系人聯(lián)系人聯(lián)系人聯(lián)系人聯(lián)系人聯(lián)系人資料來源:Wind,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。AI工廠投資機會:算力基礎(chǔ)設(shè)施板塊&多模態(tài)AI板塊本次GTC,我們看到英偉達從硬件到軟件,全方位打造AI工廠。我們認為行業(yè)已經(jīng)進入以大模型、大算力為特征的AI2.0時代。算力基礎(chǔ)設(shè)施板塊將充分受益,以下公司積極布局:1)先進工藝:中芯國際、2)計算芯片:寒武紀、海光、龍芯、瑞芯微;3)先進封裝:華峰、光力、長電、通富;4)PCB:滬電、勝宏;5)光模塊/光芯片:中際旭創(chuàng)、天孚、新易盛、華工科技、源杰;6)服務器:紫光股份、中興、銳捷、富聯(lián)、聯(lián)想;7)交換機芯片:裕太微、盛科通訊;8)數(shù)據(jù)中心:英維克;9)光纖光纜:長飛、亨通、中天。此外,近期英偉達、OpenAI、谷歌等在多模態(tài)AI領(lǐng)域展現(xiàn)實力,國內(nèi)???、大華、視源積極布局此領(lǐng)域。板塊中國企業(yè)先進工藝中芯國際計算芯片寒武紀、海光信息、龍芯中科、瑞芯微先進封裝華峰測控、光力科技、長電科技、通富微電PCB滬電股份、勝宏科技光模塊/光芯片中際旭創(chuàng)、天孚通信、新易盛、華工科技、源杰科技服務器紫光股份、中興通訊、銳捷網(wǎng)絡(luò)、工業(yè)富聯(lián)、聯(lián)想交換機芯片裕太微、盛科通訊(擬上市)數(shù)據(jù)中心英維克光纖光纜長飛光纜、亨通光電、中天科技多模態(tài)AI??低?、大華股份、商湯,視源股份資料來源:華泰研究市值PEPS年初至今公司代碼財報貨幣收盤價(億元)2022E2023E2024E2022E2023E2024E漲跌幅中芯國際計算芯片688981CHCNY52.301,98234.053.642.34.04.03.427.1%27.1%寒武紀688256CHCNY160.15642104.788.055.839.5193.5%193.5%海光信息688041CHCNY65.931,532107.672.129.919.913.964.3%64.3%龍芯中科688047CHCNY138.88557365.5206.2122.275.330.820.362.5%62.5%瑞芯微603893CHCNY91.13381701.050.334.215.510.87.632.4%32.4%先進封裝華峰測控688200CHCNY288.5526350.039.829.624.518.914.14.4%4.4%光力科技300480CHCNY20.20713.532.7%32.7%長電科技600584CHCNY32.7958417.81.51.442.3%通富微電002156CHCNY23.7035960.331.91.243.8%PCB滬電股份002463CHCNY19.0436126.521.63.060.0%60.0%勝宏科技300476CHCNY18.3115825.514.61.341.5%光模塊/光芯片中際旭創(chuàng)300308CHCNY44.2035428.524.120.03.73.02.563.5%63.5%天孚通信300394CHCNY49.4219531.938.330.695.0%95.0%新易盛300502CHCNY37.0518836.44.33.556.0%56.0%華工科技000988CHCNY22.8122925.319.01.239.0%源杰科技688498CHCNY155.309469.660.644.533.324.217.729.9%29.9%服務器紫光股份000938CHCNY29.3884013.228.023.050.6%50.6%中興通訊000063CHCNY35.721,59420.91.11.038.1%銳捷網(wǎng)絡(luò)301165CHCNY48.8827849.736.81.543.3%工業(yè)富聯(lián)601138CHCNY16.063,18915.713.50.574.9%74.9%聯(lián)想0992HKUSD7.298813.7%13.7%交換機芯片裕太微688515CHCNY195.25156na435.9160.838.822.316.50.0%數(shù)據(jù)中心英維克002837CHCNY31.02135na40.230.05.13.72.8-6.9%光纖光纜長飛光纜601869CHCNY40.3321626.020.31.123.6%23.6%亨通光電600487CHCNY15.4338110.014.00.62.5%2.5%中天科技多模態(tài)AI600522CHCNY16.9757917.4%5.1%??低?02415CHCNY42.804,00831.323.63.523.4%23.4%大華股份002236CHCNY20.5062215.01.81.581.3%81.3%視源股份002841CHCNY78.6955225.921.41.833.3%33.3%注:收盤價、市值截至2023年3月22日,美元兌港幣數(shù)據(jù)截至2023年3月21日,預測數(shù)據(jù)為Wind一致預期。資料來源:Wind,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。英偉達GTC2023中,為了滿足AI市場的需求,英偉達不僅發(fā)布了L4TensorCoreGPU、L40GPU、H100NVLGPU和GraceHopper等超級芯片,還進一步推出NVIDIADGX超級計算機,成為大語言模型實現(xiàn)突破背后的引擎。英偉達在GTC2023中表示,《財富》100強企業(yè)中有一半安裝了DGXAI超級計算機,DGX已成為AI領(lǐng)域的必備工具。根據(jù)GTC2023,DGX配有8個H100GPU模組,H100配有Transformer引擎,旨在支持類似ChatGPT的大模型。這8個H100模組通過NVLINKSwitch彼此相連,以實現(xiàn)全面無阻塞通信。8個H100協(xié)同工作,形成一個巨型GPU。通過400Gbps超低延遲的NVIDIAQuantumInfiniBand進行網(wǎng)絡(luò)內(nèi)計算,將成千上萬個DGX節(jié)點連接成一臺AI超級計算機,并不斷擴展應用范圍,成為全球客戶構(gòu)建AI基礎(chǔ)設(shè)施的藍圖。NVIDIAH100GPUNVIDIAH100GPU 8個H100模組通過 8個H100模組通過NVLINKSwitch相連8個H100協(xié)同,形成一個巨型GPU 400Gbps超低延遲QuantumInfiniBand 400Gbps超低延遲QuantumInfiniBandNVIDIADGXH100計算網(wǎng)絡(luò)是AI超級計算機的重要系統(tǒng)DGX超級計算機是現(xiàn)代化DGX超級計算機是現(xiàn)代化AI工廠計算網(wǎng)絡(luò)連結(jié)成千上萬個DGX節(jié)點形成一臺AI超級計算機計算網(wǎng)絡(luò)連結(jié)成千上萬個DGX節(jié)點形成一臺AI超級計算機資料來源:GTC2023,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。資料來源:GTC2023,華泰研究除了NVIDIADGX超級計算機以外,英偉達還宣布推出NVIDIADGXCloud和NVIDIAAIFoundations。1)NVIDIADGXCloud。通過與MicrosoftAzure、GoogleGCP和OracleOCl合作,通過一個瀏覽器就可以將NVIDIADGXAI超級計算機即時地接入每家公司。DGXCloud經(jīng)過優(yōu)化,可運行NVIDIAAlEnterprise,這是一款全球領(lǐng)先的加速庫套件,用于AI端到端開發(fā)和部署。DGXCloud將NVIDIA的生態(tài)系統(tǒng)引入到了云服務提供商,NVIDIA觸及的范圍得以擴展。2)NVIDIAAIFoundations。這是一項云服務,面向需要構(gòu)建、優(yōu)化和運營定制LLM(大型語言模型)和生成式AI,客戶使用其專有數(shù)據(jù)進行訓練,用于處理特定領(lǐng)域的任務,包括語言、視覺和生物學模型制作服務。NVIDIANeMo用于構(gòu)建定制的語言/文本轉(zhuǎn)文本生成式模型,Picasso是一項視覺語言模型制作服務,BioNeMo提供用于藥物研發(fā)的生成式AI模型。我們認為,ChatGPT等應用引發(fā)對AI算力的需求,加速計算和生成式AI推理將帶動訓練/推理芯片需求的爆發(fā)。資料來源:英偉達GTC2023,華泰研究資料來源:英偉達GTC2023,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。NVIDIA和AMD為GPGPU領(lǐng)域代表性廠商,二者占據(jù)市場絕大部分份額。其中NVIDIA2022年數(shù)據(jù)中心業(yè)務收入突破150億美元,2015-2022年復合增速達71.86%;AMD經(jīng)過我們推算GPGPU營收約為16億美元(數(shù)據(jù)中心營收剔除CPU及FPGA部分)。目前AI訓練主要采用:1)英偉達在AI訓練GPGPU:包括V100/A100/H100(22年下半年開始量產(chǎn)出貨)以及美國限制出口后英偉達推出的裁剪版A800。2)AMD推出的AI訓練芯片包括MI250/250X/300。GPGPU系列產(chǎn)品的關(guān)鍵指標公司AMD產(chǎn)品型號TeslaV100TeslaA100H100MI100MI250MI250XMI300GPUGV100GA100GH100ArcturusAldebaranAldebaran-架構(gòu)VoltaAmpereHopperCNDA1.0CNDA2.0CNDA2.0CNDA3.0SM80108132----SP5,120CUDA6,912CUDA16,896CUDA7,68013,31214,080-張量/矩陣核心單元640432528480832880-GPU超頻頻率/MHz1,5301,4101,7751,5021,7001,700-FP32單元峰值(GFLOPS)15,67019,49067,00023,10045,26047,870-FP64單元峰值(GFLOPS)7,8349,74634,00011,50045,26047,870-張量單元/矩陣峰值(TFLOPS,F(xiàn)P16)1253121,979184.6362383-存儲器接口4096-bitHBM25120-bitHBM2e5120-bitHBM34096-bitHBM28192-bitHBM2e8192-bitHBM2eHBM3存儲器大小16GB40GB80GB32GB128GB128GB128GBTDP/瓦300250700300560560-晶體管數(shù)量/10億21.154.280-5858146芯片大小/mm2815826814750700+700+-工藝/nm12FFN747665/6資料來源:Nvidia,華泰研究下圖是一個典型的AI訓練芯片的架構(gòu),主要包括:1)CUDA:CUDA是一種將GPU作為數(shù)據(jù)并行計算設(shè)備的軟硬件體系,不需要借助圖形學API,而是采用了比較容易掌握的類C語言進行開發(fā),開發(fā)人員能夠利用熟悉的C語言比較平穩(wěn)地從CPU過渡到GPU編程。與以往的GPU相比,支持CUDA的GPU在架構(gòu)上有了顯著的改進:1)采用了統(tǒng)一處理架構(gòu),可以更加有效地利用過去分布在頂點著色器和像素著色器的計算資源;2)引入了片內(nèi)共享存儲器。兩項改進使得CUDA架構(gòu)更加適用于通用計算,加上2008年后蘋果、AMD、和IBM推出的OpenCL開源標準,GPGPU在通用計算領(lǐng)域迅速發(fā)展。2)張量和矩陣核心:GPGPU的大量硬件運算單元和高吞吐高帶寬的存儲設(shè)計能夠提供強大的計算能力,同時針對矩陣運算和卷積,在軟件層面提供了靈活完善的加速庫支持,使得GPGPU能夠充分地利用其硬件計算資源和存儲資源,實現(xiàn)高吞吐的卷積計算。為了進一步提升矩陣運算的性能,近年來NVIDIA和AMD的GPGPU增加了全新的張量和矩陣核心大幅加速陣運算,而且還支持多種精度,使得GPGPU能夠適應深度神經(jīng)網(wǎng)絡(luò)不同場景、不同應用的精度需求。3)HBM存儲器:新一代DRAM解決方案,突破內(nèi)存容量與帶寬瓶頸。HBM是一款新型的CPU/GPU內(nèi)存芯片,通過將多顆DDR顆粒利用3D堆疊后和CPU/GPU封裝在一起,以實現(xiàn)大容量、高位寬的DDR組合陣列。通過增加帶寬,擴展內(nèi)存容量,讓更大的模型,更多的參數(shù)留在離核心計算更近的地方,從而減少內(nèi)存和存儲解決方案帶來的延遲。4)控制單元:CPU包括運算邏輯部件、寄存器部件和控制部件等,是計算機的運算和控制核心,注重通用性來處理各種不同的數(shù)據(jù)類型,由于CPU結(jié)構(gòu)中大部分晶體管用于構(gòu)建控制電路和存儲單元,只有少部分用來完成實際運算工作,所以CPU在大規(guī)模并行計算能力上極為受限。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。資料來源:Nvidia,華泰研究在單芯片計算訓練性能不斷提升的基礎(chǔ)上,服務器整體能效的提升同樣受到關(guān)注。英偉達在此次GTC大會上推出DGXH100服務器,配有8個H100GPU模組,配有Transfofmer引擎以支持處理類似ChatGPT的生成式訓練模型,F(xiàn)P8精度在大型語言模型相較上一代A00的訓練和推理能力分別提升9/30倍。8個H100模組通過NVLINKSwitch相連,確保GPU之間的合作和通信。目前DGX100已全面投產(chǎn),后期有望面向全球企業(yè)。NVIDIA系列產(chǎn)品的關(guān)鍵指標/kgDGXA100A100TensorAI,6(基準頻個操作系統(tǒng):2個Tensor卡1.9TBNVMeM.2塊3.84TBNVMe資料來源:英偉達GTC2023,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。訓練大模型到底需要多少硬件:據(jù)OpenAI團隊發(fā)表于2020年的論文《LanguageModelsareFew-ShotLearners》,訓練一次1746億參數(shù)的GPT-3模型需要的算力約為3640PFlop/s-day(即假設(shè)每秒計算一千萬億次,需要計算3640天)。考慮到ChatGPT訓練在GPT-3.5模型基礎(chǔ)上增加了參數(shù)量和訓練樣本量,其訓練階段的算力需求超過3640PFlop/s-day。觀點#1:10,000張A100:根據(jù)Lambda數(shù)據(jù),微軟花費數(shù)億美元幫助OpenAI組裝了一臺AI超級計算機,以幫助開發(fā)ChatGPT。這臺超算擁有超過285,000個CPU內(nèi)核,使用了數(shù)萬個英偉達圖形芯片A100,每個GPU服務器的網(wǎng)絡(luò)連接速度為每秒400GB,使得OpenAI能夠訓練越來越強大的AI模型。微軟表示,與世界超級計算機500強中的其他機器相比,它排在前五名。觀點#2:1024張A100:根據(jù)《EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM》的實際訓練數(shù)據(jù),1750億參數(shù)、300Btokens數(shù)據(jù)集的GPT-3模型,在1024塊英偉達A100上,當batchsize=1536時,每GPU實際算力能夠達到140teraFLOP/s,訓練時間為34天。華泰預測:需要近2000張A100。我們也對一次訓練Chatgpt需要的成本和GPU數(shù)量進行了測算,根據(jù)公式所需硬件數(shù)等于訓練所需浮點運算次數(shù)(模型參數(shù)1750億*訓練集大小300億*每單詞訓練所需浮點數(shù)6次)/單位GPU單位時間有效浮點運算次數(shù)。我們假設(shè)模型訓練30天,則對應需要1944張A100。如果按照DGX8張GPU來算,約為243臺Al服務器(8GPU+1CPU)。此外我們還粗略估算出一次訓練成本大致需要187萬美元。模型訓練模型訓練GPU用量與時長:英偉達Megatron-LM實際訓練數(shù)據(jù)策略參數(shù)量模型并行規(guī)模BatchGPU數(shù)量sizeBatchMicrobatch實際每GPU吞吐size量(teraFIOP/s)訓練時間訓練時間無模型并行的ZeRO-3384414490無模型并行的ZeRO-3174.61153676828815362560640425606404138169529.61112029822402240148140384174.6961536768114943PTD并行1536PTD并行560529.628022401120116780}訓練策略不合適時,增加GPU數(shù)量對減少訓練時間也無濟于事訓練策略適合時,增加GPU數(shù)量可減少訓練時長我們測算控制其它條件不變,增加GPU數(shù)量時,由于芯片互連帶寬等限制因素,實際每GPU算力下降我們測算資料來源:EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM,華泰研究預測免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。中國AI訓練芯片進展:仍與英偉達在性能和生態(tài)有一定差距。訓練芯片需通過海量數(shù)據(jù)訓練出復雜的神經(jīng)網(wǎng)絡(luò)模型,使其適應特定的功能,對性能和精度有較高的要求,并需具備一定的通用性。近年來,國內(nèi)廠商訓練芯片產(chǎn)品硬件性能不斷取得突破,但與市場主流英偉達A100產(chǎn)品仍存在一定差距。以云邃T20產(chǎn)品為例,其32位單精度浮點性能達32TFLOPS,高于A100的19.5在應對機器學習和深度學習的帶寬需求上仍有差距。寒武紀去年年底推出思元590系列可能在部分模型上由于其ASIC專用性表現(xiàn)出更優(yōu)異的性能,但仍需要后期適配和技術(shù)支持。資料來源:各公司官網(wǎng),華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。AI推理需要什么芯片:訓練是計算密集型,模型需要大量的數(shù)據(jù)進行訓練,通過反向傳播優(yōu)化參數(shù),從而讓模型達到某種目的。而推理過程更多在場景下,需要對訓練的模型進行一定壓縮、裁剪或做計算上的優(yōu)化,以便能快速、高效的多未知數(shù)據(jù)進行操作。例如我們在視頻監(jiān)控中對人臉識別、電商運營中個性化推薦、電子支付中身份識別等都是常見的推理場景。通常來說我們采用“云端訓練,端側(cè)推理”模式,即將數(shù)據(jù)傳到云側(cè)進行訓練模型,訓練好的模型隨后下放到端側(cè),端側(cè)利用訓練好的模型直接進行推理。在推理芯片的選用方面,相較于訓練更多關(guān)注模型大小而言,推理更依賴于任務本質(zhì),以此決定所需芯片種類。當需要大量內(nèi)容/圖像AI生成式時,需要GPU進行推理計算(如英偉達主流的T4芯片而對于較簡單的推理過程(語音識別等CPU有時也會成為較好的推理引擎。英偉達主要數(shù)據(jù)中心AI推理芯片參數(shù)公司GPU超頻頻率/MHzFP32單元峰值FP64單元峰值TDP/瓦量/10億/mm2工藝/nmTeslaT4Turing256-bit資料來源:Nvidia,華泰研究在本次GTC大會上,我們還看到英偉達為加速生成式AI開發(fā)及部署,在原有推理芯片上推出新的推理平臺,主要包括:1)適用于AI視頻的L4:主要視頻解碼和轉(zhuǎn)碼、視頻內(nèi)容審核,以及視頻通話功能,例如背景替換、重新打光、眼神交流,轉(zhuǎn)錄和實時翻譯進行優(yōu)化,一臺8-GPUL4服務器將取代一百多臺用于處理AI視頻的雙插槽CPU服務器,行業(yè)內(nèi)GoogleCloud正加速在L4上部署主要工作負載。2)適用于Omiverse和圖形渲染的L40:主要針對Omniverse、圖形渲染以及文本轉(zhuǎn)圖像和文本轉(zhuǎn)視頻等生成式Al,性能是NVIDIA推理GPUT4的10倍。3)適用于擴展LLM推理的H100PCIE:H100PCIE配備94GBHBM3顯存,可以處理擁有1750億參數(shù)的GPT-3,同時還可支持商用PCIE服務器擴展,與適用于GPT-3處理的HGXA100相比,一臺搭載四對H100及雙GPUNVLINK的標準服務器的速度要快10倍。4)適用于推薦系統(tǒng)和向量數(shù)據(jù)庫的超級芯片Grace-Hopper:通過900GB/秒的高速一致性芯片到芯片接口連接GraceCPU和HopperGPU,適合處理大型數(shù)據(jù)集,如適用于推薦系統(tǒng)和大型語言模型的AI數(shù)據(jù)庫。,資料來源:英偉達GTC2023,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。AI推理成本:推理階段運營成本較高,根據(jù)場景而定。據(jù)SimilarWeb數(shù)據(jù),2023年1月ChatGPT官網(wǎng)總訪問量為6.16億次;據(jù)《Fortune》雜志,每次用戶與ChatGPT互動,產(chǎn)生的算力云服務成本約0.01美元?;诖?,推算ChatGPT單月運營對應成本約616萬美元。與訓練階段相比較而言,同樣接近1個月的耗時,假設(shè)根據(jù)Lambda測算3640PFlop/s-day的訓練算力需耗費466萬美元,單位算力成本固定,ChatGPT運營階段的推理過程所需算力基礎(chǔ)設(shè)施將多于訓練階段。這里我們僅考慮一個提問回答場景,我們認為推理應用涉及較廣,其對應的GPU需求超過萬片,遠大于訓練模型所需GPU。中國AI推理芯片進展:推理芯片則是利用神經(jīng)網(wǎng)絡(luò)模型進行推理預測,對峰值計算性能要求較低,則更加注重單位能耗算力、時延、成本等綜合指標,我國廠商多選擇先從推理端切入。寒武紀、海思以及燧原等國內(nèi)廠商產(chǎn)品已具備與市場主流的TeslaT4正面競爭能力。以寒武紀思元370為例,其INT8運算性能達到256TOPS,高于T4的130TOPS,且能效比和性價比均更優(yōu),已具備替代T4能力。資料來源:各公司官網(wǎng),華泰研究生成式AI將重塑幾乎所有行業(yè)。英偉達在今年2月的4QFY23業(yè)績會上表示,過去公司只生產(chǎn)實物,而未來每家公司都會成為AI工廠,以源源不斷的數(shù)據(jù)更新自己的模型;企業(yè)內(nèi)部專有數(shù)據(jù)價值量高,AI云服務能夠幫助企業(yè)使用專有數(shù)據(jù)創(chuàng)建專有模型。本次GTC上,英偉達再次強調(diào)企業(yè)內(nèi)部專有數(shù)據(jù)、專有模型的價值:一些專業(yè)領(lǐng)域的公司需要使用其專有數(shù)據(jù)來構(gòu)建定制模型,需要制定使用規(guī)范并優(yōu)化模型,以契合公司的安全、隱私要求。英偉達表示,行業(yè)需要一個類似臺積電的代工廠,來構(gòu)建自定義的大型語言模型。英偉達在本次GTC推出NVIDIAAlFoundations,定位為“超算云服務+模型代工廠”,用于企業(yè)構(gòu)建自定義語言模型和生成式Al。NVIDIAAIFoundations包括語言、視覺和生物學模型構(gòu)建服務,分別名為Nemo、Picasso和BioNemo,使用企業(yè)專有數(shù)據(jù)進行訓練,用于處理特定領(lǐng)域的任務。我們認為超算云服務+模型代工廠的商業(yè)模式是英偉達作為芯片送水人在大模型時代的商業(yè)模式自然延伸。資料來源:英偉達,華泰研究語言模型服務NemoNVIDIANeMo用于構(gòu)建定制的語言文本轉(zhuǎn)文本生成式模型,基于5個基礎(chǔ)模型(圖16其特點在于:1)企業(yè)可以使用專業(yè)數(shù)據(jù)進行參數(shù)調(diào)優(yōu),以教授其專業(yè)技能,比如匯總財務文檔,創(chuàng)建特定品牌的內(nèi)容以及以個性化的寫作風格撰寫電子郵件。同時,企業(yè)可以將模型連接到專有知識庫,可確保響應是準確的、最新的,并為其業(yè)務所引用。2)企業(yè)可以添加邏輯以及監(jiān)控輸入、輸出、毒性和偏差閾值來確保模型安全性。3)模型投入使用后可以根據(jù)用戶交互通過強化學習不斷改進。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。資料來源:英偉達,華泰研究GPT-8GPT-43GPT-530InformBLOOMZ-T0參數(shù)量(B)843530-數(shù)據(jù)量(Btokens)11001100340--用例文本分類、拼寫校正郵件撰寫、事實問答文本摘要、創(chuàng)意寫作、聊天機器人企業(yè)智能、信息檢索、問答語言翻譯、語言理解、問答資料來源:英偉達,華泰研究視覺模型服務PicassoNVIDIAPicasso是一項視覺語言模型制作服務,用于構(gòu)建和部署生成式AI賦能的圖像、視頻和3D應用,面向希望使用許可內(nèi)容或?qū)S袃?nèi)容來訓練自定義模型的客戶。Picasso服務的基礎(chǔ)模型是Edity,企業(yè)可以使用專有數(shù)據(jù)加以訓練。此外,由Picasso生成的素材可以導入編輯工具或NVIDIAOmniverse,以構(gòu)建逼真的虛擬世界、元宇宙應用和數(shù)字孿生仿真。Adobe和英偉達將共同開發(fā)生成性人工智能模型,重點關(guān)注負責任的內(nèi)容歸屬和出處。這些模型將通過AdobeCloud旗艦產(chǎn)品(如Photoshop、PremierePro和AfterEffects)以及Picasso共同開發(fā)并推向市場。資料來源:英偉達,華泰研究免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。資料來源:英偉達,華泰研究生物模型服務BioNemoNVIDIABioNeMo服務將生成式AI應用于藥物發(fā)現(xiàn)。通過NVIDIA云API,研究人員可以快速定制和大規(guī)模部署特定領(lǐng)域、最先進的生成和預測生物分子AI模型,以快速生成蛋白質(zhì)和生物分子的結(jié)構(gòu)和功能,加快新藥研發(fā)。BioNemo的具體功能包括蛋白質(zhì)結(jié)構(gòu)預測、分子表示、分子生成和分子對接。AlphaFold、ESMFold和OpenFold等用于三維蛋白質(zhì)結(jié)構(gòu)預測,ProtGPT用子蛋白質(zhì)生成,ESM1和ESM2用于蛋白質(zhì)特性預測,MegaMolBART和MoFlow用于分子生成,DiffDock則用于分子對接。資料來源:英偉達,華泰研究1)AI技術(shù)落地不及預期。雖然AI技術(shù)加速發(fā)展,但由于成本、落地效果等限制,相關(guān)技術(shù)落地節(jié)奏可能不及我們預期。2)本研報中涉及到未上市公司或未覆蓋個股內(nèi)容,均系對其客觀公開信息的整理,并不代表本研究團隊對該公司、該股票的推薦或覆蓋。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。分析師聲明本人,黃樂平、余熠、張皓怡,茲證明本報告所表達的觀點準確地反映了分析師對標的證券或發(fā)行人的個人意見;彼以往、現(xiàn)在或未來并無就其研究報告所提供的具體建議或所表迖的意見直接或間接收取任何報酬。一般聲明及披露本報告由華泰證券股份有限公司(已具備中國證監(jiān)會批準的證券投資咨詢業(yè)務資格,以下簡稱“本公司”)制作。本報告所載資料是僅供接收人的嚴格保密資料。本報告僅供本公司及其客戶和其關(guān)聯(lián)機構(gòu)使用。本公司不因接收人收到本報告而視其為客戶。本報告基于本公司認為可靠的、已公開的信息編制,但本公司及其關(guān)聯(lián)機構(gòu)(以下統(tǒng)稱為“華泰”)對該等信息的準確性及完整性不作任何保證。本報告所載的意見、評估及預測僅反映報告發(fā)布當日的觀點和判斷。在不同時期,華泰可能會發(fā)出與本報告所載意見、評估及預測不一致的研究報告。同時,本報告所指的證券或投資標的的價格、價值及投資收入可能會波動。以往表現(xiàn)并不能指引未來,未來回報并不能得到保證,并存在損失本金的可能。華泰不保證本報告所含信息保持在最新狀態(tài)。華泰對本報告所含信息可在不發(fā)出通知的情形下做出修改,投資者應當自行關(guān)注相應的更新或修改。本公司不是FINRA的注冊會員,其研究分析師亦沒有注冊為FINRA的研究分析師/不具有FINRA分析師的注冊資華泰力求報告內(nèi)容客觀、公正,但本報告所載的觀點、結(jié)論和建議僅供參考,不構(gòu)成購買或出售所述證券的要約或招攬。該等觀點、建議并未考慮到個別投資者的具體投資目的、財務狀況以及特定需求,在任何時候均不構(gòu)成對客戶私人投資建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內(nèi)容,不應視本報告為做出投資決策的唯一因素。對依據(jù)或者使用本報告所造成的一切后果,華泰及作者均不承擔任何法律責任。任何形式的分享證券投資收益或者分擔證券投資損失的書面或口頭承諾均為無效。除非另行說明,本報告中所引用的關(guān)于業(yè)績的數(shù)據(jù)代表過往表現(xiàn),過往的業(yè)績表現(xiàn)不應作為日后回報的預示。華泰不承諾也不保證任何預示的回報會得以實現(xiàn),分析中所做的預測可能是基于相應的假設(shè),任何假設(shè)的變化可能會顯著影響所預測的回報。華泰及作者在自身所知情的范圍內(nèi),與本報告所指的證券或投資標的不存在法律禁止的利害關(guān)系。在法律許可的情況下,華泰可能會持有報告中提到的公司所發(fā)行的證券頭寸并進行交易,為該公司提供投資銀行、財務顧問或者金融產(chǎn)品等相關(guān)服務或向該公司招攬業(yè)務。華泰的銷售人員、交易人員或其他專業(yè)人士可能會依據(jù)不同假設(shè)和標準、采用不同的分析方法而口頭或書面發(fā)表與本報告意見及建議不一致的市場評論和/或交易觀點。華泰沒有將此意見及建議向報告所有接收者進行更新的義務。華泰的資產(chǎn)管理部門、自營部門以及其他投資業(yè)務部門可能獨立做出與本報告中的意見或建議不一致的投資決策。投資者應當考慮到華泰及/或其相關(guān)人員可能存在影響本報告觀點客觀性的潛在利益沖突。投資者請勿將本報告視為投資或其他決定的唯一信賴依據(jù)。有關(guān)該方面的具體披露請參照本報告尾部。本報告并非意圖發(fā)送、發(fā)布給在當?shù)胤苫虮O(jiān)管規(guī)則下不允許向其發(fā)送、發(fā)布的機構(gòu)或人員,也并非意圖發(fā)送、發(fā)布給因可得到、使用本報告的行為而使華泰違反或受制于當?shù)胤苫虮O(jiān)管規(guī)則的機構(gòu)或人員。本報告版權(quán)僅為本公司所有。未經(jīng)本公司書面許可,任何機構(gòu)或個人不得以翻版、復制、發(fā)表、引用或再次分發(fā)他人(無論整份或部分)等任何形式侵犯本公司版權(quán)。如征得本公司同意進行引用、刊發(fā)的,需在允許的范圍內(nèi)使用,并需在使用前獲取獨立的法律意見,以確定該引用、刊發(fā)符合當?shù)剡m用法規(guī)的要求,同時注明出處為“華泰證券研究所”,且不得對本報告進行任何有悖原意的引用、刪節(jié)和修改。本公司保留追究相關(guān)責任的權(quán)利。所有本報告中使用的商標、服務標記及標記均為本公司的商標、服務標記及標記。中國香港本報告由華泰證券股份有限公司制作,在香港由華泰金融控股(香港)有限公司向符合《證券及期貨條例》及其附屬法律規(guī)定的機構(gòu)投資者和專業(yè)投資者的客戶進行分發(fā)。華泰金融控股(香港)有限公司受香港證券及期貨事務監(jiān)察委員會監(jiān)管,是華泰國際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。在香港獲得本報告的人員若有任何有關(guān)本報告的問題,請與華泰金融控股(香港)有限公司聯(lián)系。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。香港-重要監(jiān)管披露?華泰金融控股(香港)有限公司的雇員或其關(guān)聯(lián)人士沒有擔任本報告中提及的公司或發(fā)行人的高級人員。?英維克(002837CH)、亨通光電(600487CH華泰金融控股(香港)有限公司、其子公司和/或其關(guān)聯(lián)公司實益持有標的公司的市場資本值的1%或以
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 駕駛員入職培訓制度
- 貴州省黨校培訓制度
- 煤礦項目部安全培訓制度
- 安全規(guī)范操作制度
- 產(chǎn)品檢驗規(guī)范制度
- 實驗學科教師培訓制度
- 培訓機構(gòu)黑白制度
- 聘用人員培訓管理制度
- 培訓機構(gòu)舞蹈房管理制度
- 2025福建省鷺澤水務有限公司招聘3人筆試參考題庫附帶答案詳解(3卷)
- 初中語文新課程標準與解讀課件
- 無人機裝調(diào)檢修工培訓計劃及大綱
- 中建通風與空調(diào)施工方案
- 高考語言運用題型之長短句變換 學案(含答案)
- 春よ、來い(春天來了)高木綾子演奏長笛曲譜鋼琴伴奏
- ARJ21機型理論知識考試題庫(匯總版)
- 2023年婁底市建設(shè)系統(tǒng)事業(yè)單位招聘考試筆試模擬試題及答案解析
- GB/T 4623-2014環(huán)形混凝土電桿
- GB/T 32065.4-2015海洋儀器環(huán)境試驗方法第4部分:高溫試驗
- GB/T 16823.3-2010緊固件扭矩-夾緊力試驗
- 中介服務費承諾書
評論
0/150
提交評論