三重共振開啟L3智能化大行情_第1頁
三重共振開啟L3智能化大行情_第2頁
三重共振開啟L3智能化大行情_第3頁
三重共振開啟L3智能化大行情_第4頁
三重共振開啟L3智能化大行情_第5頁
已閱讀5頁,還剩29頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

東吳證券研究所東吳證券研究所內(nèi)容目錄技術(shù)政策新品周期,新一輪智能化有望加速 52014-2016純視覺方案崛起推動(dòng)ADAS功能普及 52020-2022特斯拉FSD推動(dòng)整車E/E架升級(jí) 6新一輪技術(shù)+政策+新品周期,共同推動(dòng)高級(jí)別自動(dòng)駕駛落地 7AI大模型加持,端到端感知方案實(shí)現(xiàn)降本增效 7GPT橫空出世,AIGC推動(dòng)全新產(chǎn)業(yè)革命 7AIGC實(shí)現(xiàn)多模態(tài)輸入輸出,有望開創(chuàng)全新應(yīng)用場景 8技術(shù)架構(gòu)+參數(shù)規(guī)模持續(xù)迭代,大模型表現(xiàn)能力不斷提升 8深度學(xué)習(xí)+強(qiáng)化學(xué)習(xí),推動(dòng)大模型成為NLP重要驅(qū)動(dòng)力 10憑借歷史數(shù)據(jù)提取特征,機(jī)器學(xué)習(xí)成為AI發(fā)展重要方向 10機(jī)器學(xué)習(xí)->深度學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)+海量數(shù)據(jù)提升學(xué)習(xí)效率 專注人類邏輯思維模式,NLP成為AI重要應(yīng)用領(lǐng)域 12大規(guī)模無監(jiān)督訓(xùn)練技術(shù)應(yīng)用,推動(dòng)LLM成為NLP中重要構(gòu)成 13TransFormer架構(gòu)提升學(xué)習(xí)效率,推動(dòng)大數(shù)據(jù)預(yù)訓(xùn)練成為可能 14CNN(卷積神經(jīng)網(wǎng)絡(luò))提取數(shù)據(jù)特征,適用靜態(tài)圖像識(shí)別+分割 14RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))解決全局記憶,完成Seq2Seq問題 15TransFormer并行計(jì)算加速學(xué)習(xí)效率,成為重要特征提取器 16預(yù)訓(xùn)練大模型問世,生成式技術(shù)路線成為主要趨勢 19TransFormer+BEV,加速推動(dòng)L3智能駕駛落地 20模塊化&端到端,智能駕駛兩大算法框架 20借助TransFormer模型,特斯拉感知系統(tǒng)全面升級(jí) 21海內(nèi)外政策逐步完善,有望加速實(shí)現(xiàn)突破 23搶占自動(dòng)駕駛“智高點(diǎn)”,各國加速相關(guān)法規(guī)政策布局 23國內(nèi):中央+地方協(xié)同完善政策,道路測試+數(shù)據(jù)安全并舉 24海外:加快構(gòu)建規(guī)范自動(dòng)駕駛發(fā)展的政策法規(guī)框架 26新技術(shù)方向確認(rèn),產(chǎn)品周期加速助推智能化 28投資建議 29風(fēng)險(xiǎn)提示 302/31東吳證券研究所東吳證券研究所圖表目錄圖1:Mobileye芯片+攝像頭方案 5圖2:Mobileye芯片出貨量(萬顆) 5圖3:自動(dòng)駕駛解決方案分級(jí) 6圖4:ADAS功能感知+決策+執(zhí)行環(huán)節(jié) 6圖5:博世E/E架構(gòu)的演進(jìn)路線圖 6圖6:分布式->域集中式變化 6圖7:英偉達(dá)Orin芯片 7圖8:底盤域控制系統(tǒng) 7圖9:多模態(tài)大模型輸入/輸出 8圖10:深度學(xué)習(xí)模型參數(shù)量快速提升/億 9圖大模型發(fā)布時(shí)間軸 9圖12:機(jī)器學(xué)習(xí)實(shí)現(xiàn)流程 圖13:人工智能/機(jī)器學(xué)習(xí)/深度學(xué)習(xí)之間關(guān)系劃分 圖14:感知機(jī)機(jī)制圖示 圖15:標(biāo)準(zhǔn)前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)FNN 12圖16:深度神經(jīng)網(wǎng)絡(luò)架構(gòu) 12圖17:NLP在人機(jī)交互過程中扮演重要角色 13圖18:NLP主要功能及結(jié)構(gòu) 13圖19:Bert結(jié)構(gòu):主要針對(duì)自然語言理解類任務(wù) 14圖20:GPT結(jié)構(gòu):主要針對(duì)自然語言生成類任務(wù) 14圖21:CNN算法流程 14圖22:經(jīng)典神經(jīng)網(wǎng)絡(luò)和CNN的區(qū)別 15圖23:CNN特征提取+分類識(shí)別 15圖24:RNN結(jié)構(gòu)的NtoN網(wǎng)絡(luò)拓?fù)鋱D 16圖25:多種RNN結(jié)構(gòu) 16圖26:簡單RNN機(jī)制結(jié)構(gòu) 16圖27:LSTM機(jī)制結(jié)構(gòu) 16圖28:傳統(tǒng)Encoder-Decoder結(jié)構(gòu) 17圖29:引入Attention機(jī)制后的Encoder-Decoder結(jié)構(gòu) 17圖30:Self-Attention機(jī)制框圖 17圖31:Self-Attention機(jī)制計(jì)算原理框圖 17圖32:Self-Attention機(jī)制矩陣計(jì)算流程圖 18圖33:Multi-Head結(jié)構(gòu)(以雙頭模型示例) 18圖34:TransFormer模型結(jié)構(gòu) 18圖35:TransFormer的編碼器(Encoder)部分 19圖36:Bert模型掩碼訓(xùn)練過程 19圖37:TransFormer結(jié)構(gòu)的Decoder部分 20圖38:GPT模型預(yù)訓(xùn)練架構(gòu) 20圖39:自動(dòng)駕駛解決方案 21圖40:特斯拉BEV算法向量空間的線和邊界 21圖41:BEV架構(gòu)模型圖例 22圖42:BEV感知模型框架圖 223/31東吳證券研究所圖43:矩形框識(shí)別 23東吳證券研究所圖44:網(wǎng)絡(luò)占用算法 23圖45:特斯拉神經(jīng)網(wǎng)絡(luò)處理過程 23圖46:地圖矢量規(guī)劃 23圖47:北京自動(dòng)駕駛車輛道路測試成果 25圖48:自動(dòng)駕駛示范區(qū)數(shù)據(jù)安全管理政策 26圖49:導(dǎo)航電子地圖制作甲級(jí)測繪資質(zhì)單位數(shù)量 26圖50:美國各州自動(dòng)駕駛法規(guī)政策情況 26圖51:韓國自動(dòng)駕駛普及“三步走”計(jì)劃 27圖52:飛凡汽車搭載的激光雷達(dá) 28圖53:理想ADMAX自動(dòng)駕駛系統(tǒng)感知硬件 28圖54:特斯拉FSDBetaV11.3.6版本 28圖55:比亞迪多傳感器BEV+TransFormer架構(gòu) 28表1:國內(nèi)外自動(dòng)駕駛相關(guān)法律法規(guī)加速落地 24表2:車企最新高級(jí)別自動(dòng)駕駛架構(gòu)及進(jìn)展 294/31東吳證券研究所東吳證券研究所技術(shù)+政策+新品周期,新一輪智能化有望加速2014-2016純視覺方案崛起推動(dòng)ADAS功能普及在21世紀(jì)前的汽車百年歷史中,從定速巡航系統(tǒng)(CCS)->車身動(dòng)態(tài)穩(wěn)定系統(tǒng)2008Mobileye(D208年EB2009年、(FCW,2010年(ACC,2013年ADAS功能。單顆攝像頭+芯片的技術(shù)架構(gòu)大幅降低了系統(tǒng)的生產(chǎn)成本,同時(shí)具備完善的功能應(yīng)2013ACCADAS圖1:Mobileye芯片+攝像頭方案 圖2:Mobileye芯片出貨量(萬顆)20000數(shù)據(jù)來源:汽車之家,繪制 數(shù)據(jù)來源:有駕汽車,繪制SAEL1-L5MobileyeL2S/XADASMobileye速了執(zhí)行環(huán)節(jié)的電控自主研發(fā)需求:制動(dòng)(ABS/ESC),轉(zhuǎn)向(EPS電動(dòng)助力轉(zhuǎn)向)。5/31東吳證券研究所圖3:自動(dòng)駕駛解決方案分級(jí) 圖4:ADAS功能感知+決策+執(zhí)行環(huán)節(jié)東吳證券研究所數(shù)據(jù)來源:汽車之家, 數(shù)據(jù)來源:汽車之家,繪制2020-2022特斯拉FSD推動(dòng)整車E/E架構(gòu)升級(jí)2019ModelY2017Model3E/E研芯片的AutoPilotHW3.0FSD圖5:博世E/E架構(gòu)的演進(jìn)路線圖 圖6:分布式->域集中式變化數(shù)據(jù)來源:汽車之家, 數(shù)據(jù)來源:繪制AI芯片Xave0OO(26S)很好地滿足了不斷增長的算力需求,并且提供一套完善的算子庫+開發(fā)工具鏈,取代MobileyeAI業(yè)鏈價(jià)值量增加最大的新產(chǎn)品。此外,由于新能源+操控需求帶來的價(jià)值新增量(線控制動(dòng)+線控轉(zhuǎn)向+空氣懸掛)以及智能座艙新增量(座艙域控制器+HUD+音響功放)等均成為這一輪智能化變革中重要的產(chǎn)業(yè)趨勢。6/31東吳證券研究所圖7:英偉達(dá)Orin芯片 圖8:底盤域控制系統(tǒng)東吳證券研究所 數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:格陸博,新一輪技術(shù)政策新品周期,共同推動(dòng)高級(jí)別自動(dòng)駕駛落地成本L2L2.5+米波+L3+L3級(jí)別自動(dòng)駕駛的需求下降,智能化從L2->L3特斯拉借助AIAITransFormerBEV+L32023L3規(guī)也有望加速落地,明確L3城市約等于L3級(jí)別自動(dòng)駕駛2023年L330萬(/理想蔚來長城吉利廣汽上汽等。AI大模型加持,端到端感知方案實(shí)現(xiàn)降本增效GPT橫空出世,AIGC推動(dòng)全新產(chǎn)業(yè)革命7/31東吳證券研究所AIGC東吳證券研究所GPT成式A圖GenerativePre-trainedTransformer)就是AIGC技術(shù)以及AIPrompt以及Diffusion等圖9:多模態(tài)大模型輸入/輸出數(shù)據(jù)來源:CSDN,繪制技術(shù)架構(gòu)AIGCAIGC(Foundation2017TransFormerReNetGGeneavePre-trainedTransformer)1)GPT11.1725億15800Reddit1750級(jí)的飛躍,同時(shí)也帶來了模型性能的快速提升。8/31東吳證券研究所圖10:深度學(xué)習(xí)模型參數(shù)量快速提升/億東吳證券研究所GLaMGShardGLaMGShardGopherGPT3MicrosoftT-NLGMegatron-LMBERT_xlargeGPT2BERT_largeGPT1transformerELMoalbert_xxlargeResNet101inception-v4BERT_baseelectra_baseinception-v3albert_xlargealbert_largeResNet50(Bottleneck) albert_baseelectra_small100010010102014 2015 2016 2017 2018 2019 2020 2021 2022數(shù)據(jù)來源:CSDN,繪制2018GoogleOpenAIBERT(BidirectionalEncoderRepresentationsfromTransformers)以及GPT(GenerativePre-trainedTransformer)理模+annun)和“an+p)圖11:大模型發(fā)布時(shí)間軸數(shù)據(jù)來源:CSDN,繪制在確立了以TransFormer為主要技術(shù)架構(gòu)方向后,大模型的發(fā)展開始逐步進(jìn)入加速階段,隨著模型參數(shù)量的增長,帶來的處理效果也不斷提升。2019年,OpenAI159/31東吳證券研究所83億參數(shù)的Megatron-LMT5170億參數(shù)的圖靈Turing-NLG;東吳證券研究所2020年17502021年SwitchTransformer1.6121.2萬億參數(shù)的通用稀疏語言模型GLaM,7項(xiàng)小樣本學(xué)習(xí)領(lǐng)域的性能超過2022年,StabilityAI發(fā)布的文字到圖像的創(chuàng)新模型Diffusion,以及OpenAI推出ChatGPT,ChatGPT是由效果比GPT3更強(qiáng)大的深度學(xué)習(xí)強(qiáng)化學(xué)習(xí),推動(dòng)大模型成為NLP重要驅(qū)動(dòng)力AI發(fā)展重要方向模擬人類思維方式,AI開發(fā)面向具體領(lǐng)域。(ArtificialIntelligence,AI)2050通過像人類一樣解決復(fù)雜問題從而使得計(jì)算機(jī)更加有用。因?yàn)锳I系統(tǒng)的復(fù)雜性,研究人員階段性地放棄了通用AI的研發(fā),轉(zhuǎn)而開始研究面向感知、推理、記憶、語言、運(yùn)動(dòng)等具體領(lǐng)域的AI模型。AI2080監(jiān)督學(xué)習(xí)AgnEnvionenaAco(10/31東吳證券研究所境反饋的獎(jiǎng)勵(lì),按照一定的策略執(zhí)行新的動(dòng)作。東吳證券研究所圖12:機(jī)器學(xué)習(xí)實(shí)現(xiàn)流程數(shù)據(jù)來源:CSDN,繪制機(jī)器學(xué)習(xí)(Deep是20061957z=w*x+b圖13:人工智能機(jī)器學(xué)習(xí)/深度學(xué)習(xí)之間關(guān)系劃分 圖14:感知機(jī)機(jī)制圖示 數(shù)據(jù)來源:CSDN,繪制 數(shù)據(jù)來源:CSDN,11/31東吳證券研究所隱藏層3)層?xùn)|吳證券研究所圖15:標(biāo)準(zhǔn)前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)FNN 圖16:深度神經(jīng)網(wǎng)絡(luò)架構(gòu)數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,多層神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)復(fù)雜函數(shù)逼近,深度模型實(shí)現(xiàn)“特征學(xué)習(xí)”功能。深度學(xué)習(xí)在標(biāo)準(zhǔn)FNN的目的。NLP成為AINLP成為AIAIAIL(NalLagugePce)自然語言處理AINLP12/31東吳證券研究所圖17:NLP在人機(jī)交互過程中扮演重要角色 圖18:NLP主要功能及結(jié)構(gòu)東吳證券研究所數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,繪制NLU解決語言理解問題,NLGNLPNLU(和//助人類洞察數(shù)據(jù),讓數(shù)據(jù)更容易理解,加速內(nèi)容生產(chǎn)等。深度學(xué)習(xí)推動(dòng)NLPNLP1)基于規(guī)則的方法基于統(tǒng)計(jì)的方法(TransFormer等。LLM成為NLP中重要構(gòu)成2017LSTMCNNSequencetoSequence+AttentionCNNLSTM夠強(qiáng),不能在大數(shù)據(jù)中有效地吸收相關(guān)的知識(shí),因此整體的任務(wù)效果并不突出。2017《isallyouneed》TransFormer此后基于TransFormerLLM(LargeLanguageModel)Bert/GPTNLPLSTM/CNN統(tǒng)一到Transformer通++Zero/FewShotPrompt13/31東吳證券研究所圖19:Bert結(jié)構(gòu):主要針對(duì)自然語言理解類任務(wù) 圖20:GPT結(jié)構(gòu):主要針對(duì)自然語言生成類任務(wù)東吳證券研究所數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,TransFormerBertGPTTransFormer架構(gòu)提升學(xué)習(xí)效率,推動(dòng)大數(shù)據(jù)預(yù)訓(xùn)練成為可能CNN()分割在深度學(xué)習(xí)早期發(fā)展的過程中,卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,簡稱CNN)是推動(dòng)深度學(xué)習(xí)能力發(fā)展的主要?jiǎng)恿?,特別是在圖像識(shí)別領(lǐng)域。CNN卷積層中池化層通過連接所有輸圖21:CNN算法流程數(shù)據(jù)來源:CSDN,14/31東吳證券研究所(CNNCNN東吳證券研究所圖22:經(jīng)典神經(jīng)網(wǎng)絡(luò)和CNN的區(qū)別 圖23:CNN特征提取+分類識(shí)別數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,基于CNN(RNN()Seq2Seq問題RNNCNN(RecurrentNeuralNetwork,簡稱RNN)而RNN15/31東吳證券研究所圖24:RNN結(jié)構(gòu)的NtoN網(wǎng)絡(luò)拓?fù)鋱D 圖25:多種RNN結(jié)構(gòu)東吳證券研究所數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,RNN)RNNRNNSequencetoSequence這樣的不對(duì)稱輸入和輸出關(guān)系,用來解決機(jī)器翻譯等問題。RNNRNNLSTM(LongShortMemory)圖26:簡單RNN機(jī)制結(jié)構(gòu) 圖27:LSTM機(jī)制結(jié)構(gòu)數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,TransFormer2017年GoogleAttentionIsAllNeedEncoder-DecoderAttention的機(jī)制來實(shí)現(xiàn)TransFormerCNN/RNN16/31東吳證券研究所的消耗,后續(xù)進(jìn)一步提出的Self-Attention機(jī)制,讓源序列和目標(biāo)序列做了“自關(guān)聯(lián)”,東吳證券研究所Muti-HeadAttention模塊使得Encoder端具備并行計(jì)算能力。注意力機(jī)制給予不同權(quán)重,輸出結(jié)果參考輸入信息。傳統(tǒng)的Encoder-Decoder機(jī)制(用于實(shí)現(xiàn)Seqoq任務(wù),所有的輸入最終匯聚成唯一的語義編碼C,并且作為DecoderDecoder(Attention)C圖28:傳統(tǒng)Encoder-Decoder結(jié)構(gòu) 圖29:引入Attention機(jī)制后的Encoder-Decoder結(jié)構(gòu)數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,AttentionCXY(Self-Attention)Attentiona1-a4b1Q\K\VK:KeyQ/KVb1基于各個(gè)輸入之間關(guān)聯(lián)程度的信息總和。圖30:Self-Attention機(jī)制框圖 圖31:Self-Attention機(jī)制計(jì)算原理框圖17/31東吳證券研究所東吳證券研究所數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,Self-AttentionQ/K/VWq/Wk/WvQ/K/VSelf-Attention圖32:Self-Attention機(jī)制矩陣計(jì)算流程圖數(shù)據(jù)來源:CSDN,Self-Attention(Multi-HeadSelfAttention)(TransFormerEncoder-DecoderTransFormerRNNCNN/RNNNLP圖33:Multi-Head結(jié)構(gòu)(以雙頭模型示例) 圖34:TransFormer模型結(jié)構(gòu)數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:CSDN,18/31東吳證券研究所東吳證券研究所TransFormerNLP(Pre-Trained)語言BERT(BidirectionalEncoderRepresentationfromTransformers)TransFormerEncoder”3)TransFormer4)采用EncoderBert2018項(xiàng)NLP任務(wù)中均取得SOTA(state-of-the-art)BertBertEncoder(Auto-Encoding)(Fine-Tunning)圖35:TransFormer的編碼器(Encoder)部分 圖36:Bert模型掩碼訓(xùn)練過程數(shù)據(jù)來源:CSDN,繪制 數(shù)據(jù)來源:CSDN,繪制BertH=768A=12Parameters=110MBert_LargeL=24H=1024A=16Parameters=340MLMulti-HeadAttention中Head1.13.4除了AIGPT(GenerativePre-Training)TransFormerGPTTransformerGPTGPT1212個(gè)Head7681.1719/31東吳證券研究所圖37:TransFormer結(jié)構(gòu)的Decoder部分 圖38:GPT模型預(yù)訓(xùn)練架構(gòu)東吳證券研究所數(shù)據(jù)來源:CSDN,繪制 數(shù)據(jù)來源:CSDN,繪制2018GPTBert,BertGPT“大模型的生成能力持續(xù)提升,結(jié)合前文提到的多模態(tài)的輸入和輸出能力,不僅僅在NLP領(lǐng)域,大模型在圖像處理、語言處理、視頻處理等多個(gè)維度的應(yīng)用在不斷的加強(qiáng),也有望給整個(gè)汽車智能化趨勢進(jìn)一步賦能。TransFormer+BEV,加速推動(dòng)L3智能駕駛落地模塊化端到端的解決方案2022CornerCase20/31東吳證券研究所圖39:自動(dòng)駕駛解決方案東吳證券研究所數(shù)據(jù)來源:CSDN,(Edon(借助圖40:特斯拉BEV算法向量空間的線和邊界數(shù)據(jù)來源:特斯拉AIDay,2021AIDayBEV(Bird’sEyeView)+TransFormer()TransFormer21/31東吳證券研究所BEV3D東吳證券研究所圖41:BEV架構(gòu)模型圖例 圖42:BEV感知模型框架圖數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:特斯拉AIDay,繪制B(BV算法通過anor實(shí)BEV2D圖3D2022AIDayOccupancyNetworks()3D為大小一致的CellBEV實(shí)現(xiàn)了BEV從2D->3D的優(yōu)化;4)10ms內(nèi)可以完成計(jì)算,處理頻率很高;5)解決了目標(biāo)檢測的長尾問題,即使某些物體不存在于訓(xùn)練集中,但是因?yàn)樗惴ū旧磉M(jìn)行的是空間占用的檢測,不進(jìn)行目標(biāo)檢測,因此從根本上避免了這個(gè)問題。22/31東吳證券研究所圖43:矩形框識(shí)別 圖44:網(wǎng)絡(luò)占用算法東吳證券研究所數(shù)據(jù)來源:CSDN, 數(shù)據(jù)來源:特斯拉AIDay,繪制7500FSD成過程中也采用了TransFormerDecoder(token7500圖45:特斯拉神經(jīng)網(wǎng)絡(luò)處理過程 圖46:地圖矢量規(guī)劃數(shù)據(jù)來源:特斯拉AIDay,繪制 數(shù)據(jù)來源:特斯拉AIDay,繪制海內(nèi)外政策逐步完善,有望加速實(shí)現(xiàn)突破23/31東吳證券研究所全標(biāo)準(zhǔn)東吳證券研究所目前海內(nèi)外高級(jí)別自動(dòng)駕駛政策落地正在同步加速。根據(jù)我們不完全的統(tǒng)計(jì),僅20231720236(DMV)L31L3表1:國內(nèi)外自動(dòng)駕駛相關(guān)法律法規(guī)加速落地地點(diǎn)時(shí)間部門法規(guī)或者政策美國2023/6/8加州機(jī)動(dòng)車管理局(DMV)批準(zhǔn)奔馳L3級(jí)別自動(dòng)駕駛系統(tǒng)上路行駛申請(qǐng)美國2023/1/8內(nèi)華達(dá)州監(jiān)管部門批準(zhǔn)奔馳L3級(jí)別自動(dòng)駕駛系統(tǒng)上路行駛申請(qǐng)北京2023/5/12市自動(dòng)駕駛辦公室北京市智能網(wǎng)聯(lián)汽車政策先行區(qū)數(shù)據(jù)安全管理辦法(試行)成都2023/5/8成都經(jīng)信局關(guān)于推進(jìn)成都市智能網(wǎng)聯(lián)汽車遠(yuǎn)程駕駛測試與示范應(yīng)用的實(shí)施意見(公開征求意見)全國2023/5/5工信部《汽車整車信息安全技術(shù)要求》《智能網(wǎng)聯(lián)汽車自動(dòng)駕駛數(shù)據(jù)記錄系統(tǒng)》等四項(xiàng)強(qiáng)制性國家標(biāo)準(zhǔn)的制修訂杭州2023/4/12杭州政府辦公廳關(guān)于印發(fā)杭州市智能網(wǎng)聯(lián)車輛測試與應(yīng)用管理辦法的通知上海2023/3/31上海通信管理局/交通委《支持高級(jí)別自動(dòng)駕駛的5G車聯(lián)網(wǎng)網(wǎng)絡(luò)性能和建設(shè)驗(yàn)收》標(biāo)準(zhǔn)編制啟動(dòng)北京2023/3/31北京經(jīng)信局北京市智能網(wǎng)聯(lián)汽車高精度地圖試點(diǎn)工作指導(dǎo)意見上海2023/3/22上海臨港地區(qū)管委會(huì)中國(上海)自由貿(mào)易試驗(yàn)區(qū)臨港新片區(qū)促進(jìn)無駕駛?cè)酥悄芫W(wǎng)聯(lián)汽車創(chuàng)新應(yīng)用實(shí)施細(xì)則(試行)上海2023/3/22上海浦東新區(qū)上海市浦東新區(qū)促進(jìn)無駕駛?cè)酥悄芫W(wǎng)聯(lián)汽車創(chuàng)新應(yīng)用規(guī)定實(shí)施細(xì)則上海2023/3/21上海嘉定區(qū)建設(shè)世界智能網(wǎng)聯(lián)汽車創(chuàng)新高地行動(dòng)方案浙江2023/3/20浙江德清縣人民政府德清縣智能網(wǎng)聯(lián)車輛道路測試與示范應(yīng)用管理實(shí)施細(xì)則(試行)山西2023/3/9山西陽泉市人民政府陽泉市智能網(wǎng)聯(lián)汽車管理辦法(草案)》(征求意見)深圳2023/3/2深圳保安區(qū)投資推廣署培育發(fā)展智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)集群實(shí)施方案無錫2023/2/8無錫市人大無錫市車聯(lián)網(wǎng)發(fā)展促進(jìn)條例上海2023/2/7上海經(jīng)信委/交通委/公安局上海市無駕駛(安全)員智能網(wǎng)聯(lián)汽車測試技術(shù)方案上海2023/2/1上海市浦東新區(qū)上海市浦東新區(qū)促進(jìn)無駕駛?cè)酥悄芫W(wǎng)聯(lián)汽車創(chuàng)新應(yīng)用規(guī)定上海2023/1/29上海經(jīng)信委/交通委/公安局上海市智能網(wǎng)聯(lián)汽車高快速路測試與示范實(shí)施方案上海2023/1/1上海經(jīng)信委/交通委/公安局上海市智能網(wǎng)聯(lián)汽車示范運(yùn)營實(shí)施細(xì)則數(shù)據(jù)來源:各官方部門,整理國內(nèi):中央地方協(xié)同完善政策,道路測試數(shù)據(jù)安全并舉2021年724/31東吳證券研究所()》允許在9((202年版225202東吳證券研究所820233502021410201002022202352000道路超過10000公里,測試總里程超過4000萬公里。圖47:北京自動(dòng)駕駛車輛道路測試成果數(shù)據(jù)來源:智能車聯(lián),10共汽(電)車等商業(yè)化試運(yùn)營,且應(yīng)用規(guī)模不斷擴(kuò)大。2022830202351225/31東吳證券研究所駕駛示范區(qū)工作辦公室正式發(fā)布《北京市智能網(wǎng)聯(lián)汽車政策先行區(qū)數(shù)據(jù)安全管理辦法東吳證券研究所(等要20215圖48:自動(dòng)駕駛示范區(qū)數(shù)據(jù)安全管理政策 圖49:導(dǎo)航電子地圖制作甲級(jí)測繪資質(zhì)單位數(shù)量353025201510502020 2021 2022數(shù)據(jù)來源:新京報(bào),繪制 數(shù)據(jù)來源:德勤中國,繪制海外:加快構(gòu)建規(guī)范自動(dòng)駕駛發(fā)展的政策法規(guī)框架20216要求配備L2(ADAS)L3-L520223NHTSA2023520235L3圖50:美國各州自動(dòng)駕駛法規(guī)政策情況數(shù)據(jù)來源:NCSL,26/31東吳證券研究所202276ADAS30820247東吳證券研究所202152022L32022820252025。20195允許L310L420234120229L3(2025L4級(jí)(高度自動(dòng)駕駛)自動(dòng)駕駛巴士、擺渡車商業(yè)化;到2027年推出L4級(jí)乘用車。圖51:韓國自動(dòng)駕駛普及“三步走”計(jì)劃數(shù)據(jù)來源:TheKoreaTimes,(L320213(建議稿)2021427/31東吳證券研究所稿的發(fā)布已經(jīng)體現(xiàn)了我國對(duì)推動(dòng)自動(dòng)駕駛實(shí)際落地采取的積極行動(dòng)。目前我國中央+L3東吳證券研究所新技術(shù)方向確認(rèn),產(chǎn)品周期加速助推智能化純視覺方案具備成本優(yōu)勢,多傳感器融合用于長尾場景。在之前的智能化進(jìn)程中,車企主要分為以特斯拉為代表的純視覺方案,和其它車企所采用

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論