計(jì)算機(jī)行業(yè)市場(chǎng)前景及投資研究報(bào)告:智能駕駛技術(shù)頭部玩家_第1頁
計(jì)算機(jī)行業(yè)市場(chǎng)前景及投資研究報(bào)告:智能駕駛技術(shù)頭部玩家_第2頁
計(jì)算機(jī)行業(yè)市場(chǎng)前景及投資研究報(bào)告:智能駕駛技術(shù)頭部玩家_第3頁
計(jì)算機(jī)行業(yè)市場(chǎng)前景及投資研究報(bào)告:智能駕駛技術(shù)頭部玩家_第4頁
計(jì)算機(jī)行業(yè)市場(chǎng)前景及投資研究報(bào)告:智能駕駛技術(shù)頭部玩家_第5頁
已閱讀5頁,還剩49頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

證券研究報(bào)告

|行業(yè)專題研究2025

05

24年

日智能駕駛技術(shù)的當(dāng)下與未來:頭部玩家的探索與啟示目錄▎1、軟件側(cè):從“模仿人類”到“超越人類”、從“聾啞司機(jī)”到“司機(jī)助理”1.1從“模仿人類”到“超越人類”1.2

從“聾啞司機(jī)”到“司機(jī)助理”▎2、硬件側(cè):比人看得清、比人想得遠(yuǎn)、比人反應(yīng)快2.1

感知層:雙目感知、鷹眼視覺、激光,比人看得清2.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)2.3

執(zhí)行層:線控趨勢(shì)已成,比人反應(yīng)快21.1

從“模仿人類”到“超越人類”圖表:Elisha

Graves

Otis展示電梯安全裝置?

智駕要普及,光“模仿人類”不夠,必須“超越人類”第一個(gè)問題:智駕能否普及?人類會(huì)不會(huì)永遠(yuǎn)不敢把生命交給智能駕駛?或者滲透率的上限很低?Eg.

一個(gè)關(guān)于“電梯”

發(fā)展早期的例子:從工業(yè)革命時(shí)期開始,升降機(jī)就已經(jīng)可以實(shí)現(xiàn)上下移動(dòng)物體或人的基本功能,但直到紐約在1853-1854年舉辦水晶宮世界博覽會(huì)后,升降機(jī)才被人們視為可以每天安全使用的工具。Elisha

Graves

Otis

在博覽會(huì)上以大膽時(shí)尚的方式,推出其安全制動(dòng)裝置。他將平臺(tái)式升降機(jī)升至10

米高度,然后由其助手剪斷電梯繩索。平臺(tái)并沒有墜到地面,他向目瞪口呆的觀眾鞠躬,并宣布“安然無恙!”由此可見,只有技術(shù)足夠成熟時(shí),人類才會(huì)放心將生命交給技術(shù)。1835年1845年1852年1857年1880s后1852年,美國紐約楊可斯?奧的斯的機(jī)械工程師(ElishaGravesOtis),在展覽會(huì)上向公眾展示了他的發(fā)明,從此宣告了電梯的誕生,也打消了人們長期對(duì)升降機(jī)安全性的質(zhì)疑。1857年,奧的斯公司在紐約安裝了世界第一臺(tái)客運(yùn)升降機(jī),標(biāo)志著電梯開始用于載人。1880s后,載人升降機(jī)進(jìn)入電力時(shí)代。伴隨著技術(shù)的逐步成熟,電梯更加普及。1835年英國出現(xiàn)了蒸汽機(jī)驅(qū)動(dòng)的升降機(jī),它通過皮帶傳動(dòng)和蝸輪蝸桿減速裝置驅(qū)動(dòng),主要用于垂直運(yùn)送貨物。1845年,英國人湯姆遜制成了世界上第一臺(tái)液壓升降機(jī)。當(dāng)時(shí)由于升降機(jī)功能不夠完善,難以保障安全,故較少用于載人。資料:梯視達(dá)、邢臺(tái)捷逸達(dá)電梯銷售有限公司,國盛證券研究所31.1

從“模仿人類”到“超越人類”?

智駕要普及,光“模仿人類”不夠,必須“超越人類”第二個(gè)問題:靠模仿人類,當(dāng)智駕模型達(dá)到人類司機(jī)的優(yōu)秀水平時(shí),能否普及?A:尤其是涉及到人身安全,人性對(duì)“自己”和對(duì)“技術(shù)”的能力存在“雙標(biāo)”。只有遠(yuǎn)超出人類駕駛水平的智駕技術(shù),才能夠大規(guī)模普及。(自動(dòng)駕駛技術(shù)能力-人類駕駛能力)×人類對(duì)生命謹(jǐn)慎的程度鬼探頭撞車場(chǎng)景的雙標(biāo)財(cái)產(chǎn)管理的雙標(biāo)×保險(xiǎn)的完善性×0102?

想象一下,如果我們自己開車時(shí)如果出現(xiàn)鬼探頭撞車,我們是什么心態(tài)??

想象一下,如果我們自己理財(cái)虧了錢,我們是什么心態(tài)??

如果是滴滴司機(jī)或自動(dòng)駕?

如果是托付給其他人幫我們理財(cái),虧了錢,我們是什么心態(tài)?政策的支持度=駛車輛開,出現(xiàn)鬼探頭撞車,我們會(huì)否輕易原諒?自動(dòng)駕駛技術(shù)的普及性(滲透率)注:公式僅提供一定的參考意義,不代表任何具體數(shù)據(jù)量化的意義。41.1

從“模仿人類”到“超越人類”?

強(qiáng)化學(xué)習(xí)帶來超越人類的潛力?

2017年,AlphaGo通過監(jiān)督學(xué)習(xí)+強(qiáng)化學(xué)習(xí),戰(zhàn)勝圍棋選手柯潔,成為世界第一。圖表:AlphaGo在圍棋比賽中戰(zhàn)勝人類圖表:地平線認(rèn)為2035年智能駕駛將實(shí)現(xiàn)超越人類的駕駛水平資料:每日經(jīng)濟(jì)新聞、地平線機(jī)器人發(fā)布會(huì)、中機(jī)創(chuàng),國盛證券研究所51.1

從“模仿人類”到“超越人類”?

狹義的“端到端”

,是一種模仿學(xué)習(xí)思路通過學(xué)習(xí)

“傳感器數(shù)據(jù)”

“人類駕駛軌跡”

的海量對(duì)照,讓車端模型能做到輸入傳感器數(shù)據(jù)后,輸出合理的駕駛軌跡。圖表:端到端自動(dòng)駕駛路線圖資料:《End-to-end

Autonomous

Driving:Challenges

andFrontiers》(Li

Chen等,2018),國盛證券研究所61.1

從“模仿人類”到“超越人類”?

廣義的“端到端”,既有“模仿學(xué)習(xí)”、又有“強(qiáng)化學(xué)習(xí)”“端到端”系統(tǒng)的三種范式:?

行為克?。7聦W(xué)習(xí)框架);?

逆最優(yōu)控制(模仿學(xué)習(xí)框架);?

在線強(qiáng)化學(xué)習(xí)(強(qiáng)化學(xué)習(xí)框架)。圖表:端到端自動(dòng)駕駛?cè)N范式資料:《End-to-end

Autonomous

Driving:Challenges

andFrontiers》(Li

Chen等,2018),國盛證券研究所71.1

從“模仿人類”到“超越人類”?

“超越人類”需要“強(qiáng)化學(xué)習(xí)”,于是世界模型被引入自動(dòng)駕駛領(lǐng)域眾多車企和供應(yīng)商紛紛公開提出引入“世界模型”,包括特斯拉、英偉達(dá)、蔚來、理想、地平線、商湯、元戎啟行、Momenta、小鵬……資料:各公司官網(wǎng)、各公司公告,國盛證券研究所81.1

從“模仿人類”到“超越人類”?

自動(dòng)駕駛領(lǐng)域,世界模型的價(jià)值2、閉環(huán)仿真測(cè)試1、長尾數(shù)據(jù)生成世界模型生成的視頻交給自動(dòng)駕駛模型,規(guī)劃執(zhí)行的結(jié)果作為世界模型未來預(yù)測(cè)的條件,再通過世界模型繼續(xù)生成新的數(shù)據(jù),進(jìn)行閉環(huán)仿真的測(cè)試。世界模型可以生成包含行人、交通和路況的新場(chǎng)景,填補(bǔ)訓(xùn)練中缺失的數(shù)據(jù)。3、對(duì)抗樣本對(duì)抗樣本是自動(dòng)駕駛模型的一個(gè)安全隱患,利用世界模型,采用同一場(chǎng)景變換condition的方式或者黑盒攻擊方式,拿到模型失效的且逼真的樣本,用于提升自動(dòng)駕駛模型的安全性。4、foundation

model世界模型通常采用自監(jiān)督的訓(xùn)練模式,這種方式可以利用大量的無標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,從而可以作為感知決策模型的

foundationmodel來提升自動(dòng)駕駛模型的泛化能力。資料:自動(dòng)駕駛之心,國盛證券研究所91.1

從“模仿人類”到“超越人類”?

自動(dòng)駕駛世界模型發(fā)展時(shí)間表圖表:自動(dòng)駕駛世界模型發(fā)展時(shí)間表資料:《World

Modelsfor

Autonomous

Driving:An

Initial

Survey》(Yanchen

Guan等,2024),國盛證券研究所101.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——特斯拉?

2023年,特斯拉自動(dòng)駕駛負(fù)責(zé)人AshokElluswamy在

CVPR上介紹了其正在打造的

“通用世界模型”。該模型可以通過過往的視頻片段和行動(dòng)提示,生成

“可能的未來”

的全新視頻。其基礎(chǔ)架構(gòu)由多臺(tái)攝像機(jī)的視頻流輸入,匯集到一個(gè)大型

Transformer

塊中,通過空間注意力和幾何模型等形成特征并進(jìn)行預(yù)測(cè),可用于預(yù)測(cè)占用率、體素未來的流動(dòng)情況以及車道等駕駛所需的任務(wù)。圖表:世界模型同時(shí)預(yù)測(cè)了車輛周圍所有八個(gè)攝像頭的情況圖表:直行預(yù)測(cè)和右轉(zhuǎn)預(yù)測(cè)例子?

2024年2月,在OpenAI官宣Sora之后不久,埃隆·馬斯克發(fā)帖稱:“特斯拉在大約一年前就能以精確的物理生成真實(shí)世界的視頻。”資料:鞭牛士,國盛證券研究所111.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——小鵬汽車?

2024年下半年,小鵬汽車已開始面向L4級(jí)別的自動(dòng)駕駛研發(fā)全新的“AI大腦”,即小鵬世界基座模型。小鵬研發(fā)團(tuán)隊(duì)利用優(yōu)質(zhì)自動(dòng)駕駛訓(xùn)練數(shù)據(jù),先后開發(fā)了多個(gè)尺寸的基座模型,目前已經(jīng)著手推進(jìn)72B(72Billion,也即720億)超大規(guī)模參數(shù)世界基座模型的研發(fā),參數(shù)量是主流

VLA

模型

的35倍左右。?

為了開發(fā)小鵬世界基座模型,小鵬汽車打造了一座“云端模型工廠”,工廠“車間”涵蓋基座模型預(yù)訓(xùn)練和后訓(xùn)練(強(qiáng)化學(xué)習(xí)訓(xùn)練)、模型蒸餾、車端模型預(yù)訓(xùn)練到部署上車的完整生產(chǎn)鏈路。圖表:小鵬著手推進(jìn)72B超大模型參數(shù)世界基座模型圖表:小鵬的“云端模型工廠”架構(gòu)資料:小鵬汽車官方微信公眾號(hào),國盛證券研究所121.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——理想汽車?

2025年1月,理想汽車自動(dòng)駕駛研發(fā)副總裁朗咸朋在第四屆全球自動(dòng)駕駛峰會(huì)上指出:“我們的世界模型不僅用于仿真評(píng)測(cè),還通過強(qiáng)化學(xué)習(xí)框架生成合成數(shù)據(jù),完善強(qiáng)化學(xué)習(xí)的閉環(huán)過程?!?

2025年3月18日,理想汽車自動(dòng)駕駛技術(shù)研發(fā)負(fù)責(zé)人賈鵬在NVIDIA

GTC

2025分享了對(duì)于下一代自動(dòng)駕駛技術(shù)MindVLA的最新思考和進(jìn)展。MindVLA基于自研的重建+生成云端統(tǒng)一世界模型,深度融合重建模型的三維場(chǎng)景還原能力與生成模型的新視角補(bǔ)全,以及未見視角預(yù)測(cè)能力,構(gòu)建接近真實(shí)世界的仿真環(huán)境。圖表:理想的物理世界AI框架資料:理想汽車官方公眾號(hào),國盛證券研究所131.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——理想汽車?

2025年5月7日,李想在AI

Talk第二季上分享道:“強(qiáng)化學(xué)習(xí)分成兩個(gè)部分:?

第一部分先做RLHF,帶有人類反饋的。當(dāng)人類會(huì)接管時(shí),包括人類的一些習(xí)慣,來做帶有人類反饋的強(qiáng)化訓(xùn)練。安全對(duì)齊都在這個(gè)環(huán)節(jié)完成,除了遵守交通規(guī)則,還要遵守中國的駕駛習(xí)慣,開車習(xí)慣要融入社會(huì)。?

第二部分是純粹的RL,用世界模型生成的數(shù)據(jù)來做訓(xùn)練。目的是開得比人類更好,中間不給人類反饋,只給一個(gè)結(jié)果:從A點(diǎn)到B點(diǎn)開過去。有三類訓(xùn)練要求:1)通過G值(加速度數(shù)值)判斷舒適性,給舒適性反饋;2)做碰撞反饋,如果碰撞強(qiáng)化就沒完成;3)交通規(guī)則反饋,如果違反交通規(guī)則就沒完成。通過舒適、交通規(guī)則和碰撞事故三個(gè)維度來做強(qiáng)化訓(xùn)練?!眻D表:理想VLA司機(jī)大模型訓(xùn)練與推理過程圖表:第三階段輔助駕駛強(qiáng)化學(xué)習(xí)14資料:理想汽車AITalk第二季、六合商業(yè)研選,國盛證券研究所1.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——小馬智行L4自動(dòng)駕駛需要強(qiáng)化學(xué)習(xí)圖表:小馬智行認(rèn)為?

小馬智行聯(lián)合創(chuàng)始人、CTO樓天城表示,世界模型是車端模型的factory(工廠),L4

自動(dòng)駕駛技術(shù)的真正差別在

“工廠”

的精度,因?yàn)樗鼤?huì)決定它所生產(chǎn)的產(chǎn)品,即車端模型的上限。?

通過

AI

生成技術(shù),構(gòu)造訓(xùn)練車端模型的環(huán)境,這包括道路情況,路上其他車和人的行為,還有各主體間的交互,然后再用強(qiáng)化學(xué)習(xí)方法,讓車端系統(tǒng)在這個(gè)訓(xùn)練環(huán)境里自己進(jìn)化。圖表:小馬智行自研世界模型+虛擬司機(jī)?

小馬自研的“世界模型(PonyWorld)+虛擬司機(jī)(Virtual

Driver)”是全無人駕駛實(shí)現(xiàn)規(guī)模部署的關(guān)鍵技術(shù)。?

“世界模型”通過構(gòu)建高真實(shí)性的訓(xùn)練環(huán)境和行為評(píng)估系統(tǒng),每周可生成超過100億英里的自動(dòng)駕駛數(shù)據(jù)集。?

“虛擬司機(jī)”系統(tǒng)在世界模型中持續(xù)自我進(jìn)化,已實(shí)現(xiàn)在更小算力、量產(chǎn)化硬件下超越人類水準(zhǔn)的駕駛表現(xiàn),特別在極端低概率場(chǎng)景應(yīng)對(duì)能力上取得了突破性進(jìn)展。資料:晚點(diǎn)、金融界、智駕網(wǎng),國盛證券研究所151.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——Momenta圖表:Momenta今年要實(shí)現(xiàn)基于強(qiáng)化學(xué)習(xí)的一段式端到端?

Momenta在2024年上半年,實(shí)現(xiàn)了量產(chǎn)的一段式端到端大模型,基于模仿學(xué)習(xí),并在2024年發(fā)布。2025年的目標(biāo)是實(shí)現(xiàn)基于強(qiáng)化學(xué)

習(xí)

,

是Momenta的第六代飛輪飛輪大模型。?

Momenta在2025上海車展宣布,首批車端無人的Robotaxi預(yù)計(jì)將于2025年底開始試運(yùn)營。資料:Momenta知乎官方賬號(hào),國盛證券研究所161.1

從“模仿人類”到“超越人類”?

業(yè)界頭部玩家的探索——地平線?

地平線提出了“交互式博弈”,核心在于通過生成數(shù)據(jù)驅(qū)動(dòng)實(shí)現(xiàn)模擬學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。為了避免機(jī)器對(duì)數(shù)據(jù)的重復(fù)模仿,它必須要學(xué)會(huì)主動(dòng)理解數(shù)據(jù)。這時(shí)候世界模型就承擔(dān)了「駕駛世界觀」的作用。?

通過強(qiáng)化學(xué)習(xí),訓(xùn)練數(shù)據(jù)量的需求降低80%、與基于模仿學(xué)習(xí)的方法相比碰撞率降低3倍、較其他模型規(guī)劃準(zhǔn)確率大幅提升25.5%。圖表:地平線是最早提出采用強(qiáng)化學(xué)習(xí)的智能駕駛公司之一圖表:地平線面向量產(chǎn)的端到端世界模型資料:36氪、地平線高階智駕產(chǎn)品發(fā)布會(huì)、車東西,國盛證券研究所171.1

從“模仿人類”到“超越人類”?

自動(dòng)駕駛技術(shù)超越人類智駕的時(shí)間表——價(jià)值拐點(diǎn)并不遙遠(yuǎn)?

特斯拉:計(jì)劃在2025年6月將Robotaxi引入奧斯汀,依賴原有Model

Y車型;大規(guī)模完全自動(dòng)駕駛預(yù)計(jì)將在2026年年中左右實(shí)現(xiàn)。(2025Q1財(cái)報(bào)會(huì))?

小鵬:將在2025年年中推出V6全新大版,即準(zhǔn)L3級(jí)別的高階自動(dòng)駕駛技術(shù),這標(biāo)志著小鵬自動(dòng)駕駛能力將全面超越FSD

V13。到2025年底,小鵬計(jì)劃推出真正的L3級(jí)別自動(dòng)駕駛軟件(2025.02何小鵬微博);到2026年還將規(guī)模量產(chǎn)支持L4低速場(chǎng)景無人駕駛的車型。(2024Q4財(cái)報(bào)會(huì))目前,小鵬汽車用于訓(xùn)練基座模型的視頻數(shù)據(jù)量高達(dá)2000萬clips,這一數(shù)字今年將增加到2億clips。(2025.4

香港之夜)?

理想:理想在AItalk上表示,要在2025年實(shí)現(xiàn)L3級(jí)別智能駕駛,三年內(nèi)進(jìn)入L4級(jí)別。(2024.12

AITalk)?:智能駕駛產(chǎn)品線總裁李文廣表示,高速L3級(jí)別的自動(dòng)駕駛技術(shù)有望在2025年在部分城市率先啟動(dòng)試點(diǎn)商用,到2026年這項(xiàng)技術(shù)有望實(shí)現(xiàn)更大范圍的規(guī)?;虡I(yè)應(yīng)用;

的目標(biāo)是在2027年實(shí)現(xiàn)城區(qū)L4級(jí)別自動(dòng)駕駛技術(shù)的規(guī)?;逃茫跓o人干線物流領(lǐng)域,這一時(shí)間點(diǎn)則被定在了2028年。?

Momenta:首批車端無人的Robotaxi將于2025年年底開始試運(yùn)營。?

小馬智行:2025年4

月上海車展發(fā)布的第七代車規(guī)級(jí)自動(dòng)駕駛系統(tǒng)方案實(shí)現(xiàn)

Robotaxi

100%

車規(guī)級(jí)量產(chǎn)。2025年,小馬智行將全力沖刺Robotaxi的大規(guī)模商業(yè)化,向外界證明L4自動(dòng)駕駛大規(guī)模商業(yè)化的可行性。2025年62025年2025年年底2026年2027年月Momenta表示首批車端無人的Robotaxi將于2025年底開始試運(yùn)營小鵬計(jì)劃規(guī)模量產(chǎn)支持L4低速場(chǎng)景無人駕駛的車型理想在2024.12的AITalk上表示,有希望在三年內(nèi)進(jìn)入L4級(jí)別;目標(biāo)在2027年實(shí)現(xiàn)城區(qū)L4特斯拉計(jì)劃將Robotaxi引入奧斯汀小

刺Robotaxi的大規(guī)模商業(yè)化級(jí)別自動(dòng)駕駛技術(shù)的規(guī)?;逃觅Y料:特斯拉2025Q1財(cái)報(bào)會(huì)、彭博、36氪、新浪、ITBEAR科技資訊、Momenta官網(wǎng)、騰訊云,國盛證券研究所18目錄▎1、軟件側(cè):從“模仿人類”到“超越人類”、從“聾啞司機(jī)”到“司機(jī)助理”1.1

從“模仿人類”到“超越人類”1.2

從“聾啞司機(jī)”到“司機(jī)助理”▎2、硬件側(cè):比人看得清、比人想得遠(yuǎn)、比人反應(yīng)快2.1

感知層:雙目感知、鷹眼視覺、激光,比人看得清2.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)2.3

執(zhí)行層:線控趨勢(shì)已成,比人反應(yīng)快191.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——EMMA(谷歌旗下Waymo)?

事實(shí)上,VLA模型最早見于機(jī)器人行業(yè)。2023年7月28日,谷歌

DeepMind推出了全球首個(gè)控制機(jī)器人的視覺語言動(dòng)作(VLA)模型RT-2。?

2024年10月底,谷歌旗下自動(dòng)駕駛公司W(wǎng)aymo推出了一個(gè)基于端到端的自動(dòng)駕駛多模態(tài)模型EMMA。圖表:DeepMind的RT-2概述圖表:Waymo的自動(dòng)駕駛多模態(tài)模型EMMA圖示資料:《EMMA:

End-to-End

Multimodal

Model

for

Autonomous

Driving》(Jyh-Jing

Hwang等,2024)、《RT-2:

Vision-Language-Action

Models

Transfer

Web

Knowledge

toRobotic

Control》(Anthony

Brohan等,2023),國盛證券研究所

201.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——DiLu,又稱的盧(上海人工智能實(shí)驗(yàn)室、華東師范大學(xué)、香港中文大學(xué))?

該框架通過整合利用大語言模型(LLM),實(shí)現(xiàn)基于常識(shí)的決策和持續(xù)的駕駛經(jīng)驗(yàn)累積。該框架由四個(gè)核心模塊組成:環(huán)境(Environment)、推理(Reasoning)、反思(Reflection)和記憶(Memory)。?

下面左圖詳細(xì)展示了DiLu框架的工作流程和各模塊之間的交互方式,包括環(huán)境感知、推理決策生成、決策的反思評(píng)估,以及記憶的更新和累積。圖表:DiLu的框架圖表:DiLu的推理模塊資料:《Dilu:AKnowledge-Driven

Approach

to

Autonomous

Drivingwith

LargeLanguage

Models》(LichengWen等,2024),國盛證券研究所211.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——LINGO-2(Wayve)?

2024年4月17日,英國自動(dòng)駕駛技術(shù)公司W(wǎng)ayve宣布推出閉環(huán)駕駛模型LINGO-2,可將視覺、語言和動(dòng)作聯(lián)系起來,幫助解釋和確定駕駛行為。LINGO-2為自動(dòng)駕駛體驗(yàn)開辟全新的控制和定制維度,是首個(gè)在公共道路上進(jìn)行測(cè)試的視覺語言動(dòng)作模型(VLAM)。?

在右圖的例子中,Wayve展示了LINGO-2駕駛通過十字路口。當(dāng)我們問模型:“交通燈是什么顏色的?”它正確地回答:“交通燈是綠色的?!眻D表:LINGO-2框架圖表:LINGO-2和用戶交互案例資料:Wayve官網(wǎng),國盛證券研究所221.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——SENNA(華中科技大學(xué)、地平線等)華中科技大學(xué)、地平線將多模態(tài)大模型和模塊化的端到端模型相結(jié)合,提出了Senna算法框架圖表:SENNA的設(shè)計(jì)思路不同于以往資料:《Senna:Bridging

Large

Vision-LanguageModels

andEnd-to-End

Autonomous

Driving》(Bo

Jiang等,2024),國盛證券研究所231.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——SENNA(華中科技大學(xué)、地平線等)Senna包含兩個(gè)模塊,一個(gè)駕駛多模態(tài)大模型

(Senna-VLM)和一個(gè)端到端模型(Senna-E2E)。圖表:SENNA的整體架構(gòu)資料:《Senna:Bridging

Large

Vision-LanguageModels

andEnd-to-End

Autonomous

Driving》(Bo

Jiang等,2024),國盛證券研究所241.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——SENNA(華中科技大學(xué)、地平線等)?

SENNA是目前開環(huán)測(cè)試端到端智能駕駛?cè)虻谝幻?。?shù)據(jù)顯示,基于nuScnese數(shù)據(jù)集測(cè)得3秒鐘平均L2軌跡誤差距離和3秒鐘平均碰撞率都很小。圖表:nuScenes驗(yàn)證數(shù)據(jù)集上的軌跡規(guī)劃結(jié)果圖表:DriveX驗(yàn)證數(shù)據(jù)集上的高級(jí)規(guī)劃和場(chǎng)景描述評(píng)估結(jié)果*

denotes

using

ego

status

features

as

input.

In

the

experiments

on

thenuScenes

dataset,

we

incorporate

Senna

with

VAD

for

a

fair

comparison.

?denotes

initializationusing

pre-trainedweights

onthe

DriveX

dataset.資料:《Senna:Bridging

Large

Vision-LanguageModels

andEnd-to-End

Autonomous

Driving》(Bo

Jiang等,2024),國盛證券研究所251.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——DriveVLM(清華大學(xué)、理想汽車)DriveVLM是在傳統(tǒng)的自動(dòng)駕駛系統(tǒng)上,增加了大視覺語言模型(VLM)的能力。由于VLM在視覺理解和推理方面的能力突出,

所以

結(jié)合該

大模

型能力

后,DriveVLM不僅具備基本的自動(dòng)駕駛能力,而且還能夠理解輸入的圖像信息,并作出對(duì)應(yīng)駕駛決策。DriveVLM包含三個(gè)模塊圖表:?

攝像頭輸入的圖像序列先由視覺編碼器進(jìn)行處理,生成圖像tokens,并通過自注意力機(jī)制捕捉其中的重要特征,與VLM的組成部分大語言模型進(jìn)行對(duì)齊。?

,

鏈(chain-of-thought,CoT)進(jìn)行推理,主要包含三個(gè)模塊,場(chǎng)景描述,場(chǎng)景分析和分層規(guī)劃。資料:《DriveVLM:The

Convergence

ofAutonomous

Drivingand

LargeVision-Language

Models》(Xiaoyu

Tian等,2024),國盛證券研究所261.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——DriveVLM(清華大學(xué)、理想汽車)?

場(chǎng)景一:一處城市開放道路,沒有明顯車道線,左邊是對(duì)向車輛,比較擁擠;前方有一輛三輪車,路中央還有一位交警在指揮交通。?

DriveVLM識(shí)別出這位交警在指揮左邊道路的交通情況,并且由于前面的三輪車正在緩慢行駛,系統(tǒng)作出“緩慢直線行駛”的決策。并且解釋道,這么做是因?yàn)樾枰颓胺郊皟蓚?cè)車輛保持安全距離,所以需要緩慢直行。圖表:DriveVLM場(chǎng)景展示(一)圖表:DriveVLM場(chǎng)景一決策過程資料:《DriveVLM:The

Convergence

ofAutonomous

Drivingand

LargeVision-Language

Models》(Xiaoyu

Tian等,2024),國盛證券研究所271.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——DriveVLM(清華大學(xué)、理想汽車)?

場(chǎng)景二:陰雨天的城市道路,車輛準(zhǔn)備向右前方道路行駛,但這條路上有一行人騎著電動(dòng)車迎面而來。?

DriveVLM識(shí)別出電動(dòng)自行車位于車輛前方道路右側(cè),結(jié)合車輛的前進(jìn)方向,作出“車輛先減速,右轉(zhuǎn),并緩慢直行”的決策。并給出說明,減速是為了等騎車的人通過,待其通過后車輛再右轉(zhuǎn)。圖表:DriveVLM場(chǎng)景展示(二)圖表:DriveVLM場(chǎng)景二決策過程資料:《DriveVLM:The

Convergence

ofAutonomous

Drivingand

LargeVision-Language

Models》(Xiaoyu

Tian等,2024),國盛證券研究所281.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——DriveVLM(清華大學(xué)、理想汽車)?

場(chǎng)景三:前方道路可能發(fā)生事故,車道前方有一輛自行車倒在路上,還有交警和一位行人站在道路上。?

DriveVLM判斷,由于自行車阻擋了前方道路,車輛又要前行,因此要“先減速,再向右變道,并緩慢直行”的決策。同時(shí)系統(tǒng)還特別解釋,減速并且確保右后方?jīng)]有車輛駛來時(shí),再向右變道。圖表:DriveVLM場(chǎng)景三決策過程資料:《DriveVLM:The

Convergence

ofAutonomous

Drivingand

LargeVision-Language

Models》(Xiaoyu

Tian等,2024),國盛證券研究所291.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——理想的VLA1)第一步訓(xùn)練出一個(gè)VL基座模型,也就是vision和language的基座模型。理想目前在訓(xùn)練的版本是一個(gè)32B參數(shù)(320億)的云端基座模型。2)第二步,后訓(xùn)練是要把它變成VLA,把a(bǔ)ction放進(jìn)來。這時(shí)模型規(guī)模會(huì)從3.2B擴(kuò)大到接近4B。3)第三步,強(qiáng)化訓(xùn)練。強(qiáng)化分成兩個(gè)部分:第一部分先做RLHF;第二部分是純粹的RL,用世界模型生成的數(shù)據(jù)來做訓(xùn)練。4)第四步,搭建司機(jī)agent。簡(jiǎn)單通用的短指令由端側(cè)的VLA直接處理,復(fù)雜指令則先由云端的VL基座模型解析,再交由VLA處理。圖表:理想VLA第一個(gè)階段——預(yù)訓(xùn)練圖表:理想VLA第二個(gè)階段——后訓(xùn)練資料:理想汽車AITalk第二季、六合商業(yè)研選,國盛證券研究所301.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——理想的VLA1)第一步訓(xùn)練出一個(gè)VL基座模型,也就是vision和language的基座模型。理想目前在訓(xùn)練的版本是一個(gè)32B參數(shù)(320億)的云端基座模型。2)第二步,后訓(xùn)練是要把它變成VLA,把a(bǔ)ction放進(jìn)來。這時(shí)模型規(guī)模會(huì)從3.2B擴(kuò)大到接近4B。3)第三步,強(qiáng)化訓(xùn)練。強(qiáng)化分成兩個(gè)部分:第一部分先做RLHF;第二部分是純粹的RL,用世界模型生成的數(shù)據(jù)來做訓(xùn)練。4)第四步,搭建司機(jī)agent。簡(jiǎn)單通用的短指令由端側(cè)的VLA直接處理,復(fù)雜指令則先由云端的VL基座模型解析,再交由VLA處理。圖表:理想VLA第三個(gè)階段——強(qiáng)化訓(xùn)練圖表:理想VLA第四個(gè)階段——Agent資料:理想汽車AITalk第二季、六合商業(yè)研選,國盛證券研究所311.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——元戎啟行?

元戎啟行于2025年1月22日宣布與某頭部車企合作,基于英偉達(dá)Thor芯片推出VLA量產(chǎn)車型,計(jì)劃年內(nèi)交付消費(fèi)者,元戎還透露將在Robotaxi領(lǐng)域探索VLA應(yīng)用。圖表:元戎啟行選擇VLA架構(gòu)資料:36氪,國盛證券研究所321.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——吉利汽車?

2025年3月,吉利在AI智能科技發(fā)布會(huì)上,推出了千里浩瀚安全高階智能駕駛系統(tǒng),共規(guī)劃了H1、H3、H5、H7到H9五大層級(jí):?

加入了VLM大模型的

H7級(jí)別將在2025年完成推送;?

最高級(jí)的H9是完全為L3智能駕駛準(zhǔn)備的安全架構(gòu),加入了VLA大模型和數(shù)字先覺網(wǎng)絡(luò)。圖表:千里浩瀚安全高階智能駕駛系統(tǒng)圖表:吉利汽車的泛世界模型資料:吉利AI智能科技發(fā)布會(huì)、超電實(shí)驗(yàn)室,國盛證券研究所331.2

從“聾啞司機(jī)”到“司機(jī)助理”?

語言模型、多模態(tài)模型被引入智能駕駛領(lǐng)域——小鵬汽車?

2025年4月,小鵬在香港舉辦AI技術(shù)分享會(huì),首次披露正在研發(fā)720億參數(shù)的超大規(guī)模自動(dòng)駕駛大模型,也即“小鵬世界基座模型”。?

小鵬汽車自動(dòng)駕駛產(chǎn)品高級(jí)總監(jiān)袁婷婷在微博表示:“我們正在云上訓(xùn)練72B參數(shù)的超大規(guī)模VLA模型,未來會(huì)通過蒸餾方法,生產(chǎn)出小尺寸的車端模型。蒸餾最大的好處,是讓車端小模型盡可能承襲云端大模型的能力,把72B超級(jí)大腦的智能‘推云入端’?!眻D表:小鵬世界基座模型圖表:小鵬正在訓(xùn)練72B參數(shù)規(guī)模的基模資料:小鵬汽車官方微信公眾號(hào),國盛證券研究所341.2

從“聾啞司機(jī)”到“司機(jī)助理”?

這一階段來看,除了以上的算法差異,各家的差異還會(huì)如何體現(xiàn)?1)云端:???云端算力怎么樣?2023年6月,特斯拉自動(dòng)駕駛負(fù)責(zé)人Ashok

Elluswamy在CVPR2023上表示“訓(xùn)練所有這些模型需要大量的計(jì)算資源,這就是為什么特斯拉致力于成為計(jì)算領(lǐng)域的世界領(lǐng)導(dǎo)者”。數(shù)據(jù)獲???李想表示,Vision

Action

的數(shù)據(jù)比較難以獲得,車輛裝滿傳感器后可以采集物理世界的數(shù)據(jù),有人在車上駕駛就能采集到Action

的數(shù)據(jù)。數(shù)據(jù)基礎(chǔ)設(shè)施怎么樣?數(shù)據(jù)訪問效率如何?小鵬世界基座模型負(fù)責(zé)人劉博士介紹:多模態(tài)模型訓(xùn)練的主要瓶頸不僅是

GPU,也需要解決數(shù)據(jù)訪問的效率問題。小鵬汽車自主開發(fā)了底層的數(shù)據(jù)基礎(chǔ)設(shè)施(Data

Infra),使數(shù)據(jù)上傳規(guī)模提升22倍、訓(xùn)練中的數(shù)據(jù)帶寬提升15倍;通過聯(lián)合優(yōu)化GPU/CPU以及網(wǎng)絡(luò)I/O,最終使模型訓(xùn)練速度提升了5倍。?模型規(guī)模有多大?小鵬世界基座模型負(fù)責(zé)人劉博士表示:“過去一年,我們做了大量實(shí)驗(yàn),在10億、30億、70億、720億參數(shù)的模型上都看到了明顯的規(guī)模法則效應(yīng):參數(shù)規(guī)模越大,模型的能力越強(qiáng)。同樣的模型大小,訓(xùn)練數(shù)據(jù)量越大,模型的能力也會(huì)越強(qiáng)?!?)車端:車端算力怎么樣??地平線余凱表示:今年行業(yè)內(nèi)主要在發(fā)力L2,對(duì)于算力的需求為100+TOPS,2028年將會(huì)規(guī)模實(shí)現(xiàn)L3,對(duì)于算力的需求將會(huì)達(dá)到500-1000+TOPS,2030年實(shí)現(xiàn)L4,對(duì)于算力的需求是2000+TOPS,2035年間實(shí)現(xiàn)L5時(shí)則需要5000+TOPS算力。351.2

從“聾啞司機(jī)”到“司機(jī)助理”?

這一階段來看,除了以上的算法差異,各家的差異還會(huì)如何體現(xiàn)?圖表:云端算力對(duì)比云端算力(EFLOPS)8067.570605040302010023.510.68108.17.5資料:36氪、特斯拉官網(wǎng)、IT之家、界面新聞、小鵬汽車官網(wǎng)、網(wǎng)易新聞,國盛證券研究所361.2

從“聾啞司機(jī)”到“司機(jī)助理”?

這一階段來看,除了以上的算法差異,各家的差異還會(huì)如何體現(xiàn)?圖表:車端算力對(duì)比算力(720TOPS)車企最高配芯片供應(yīng)商自研芯片最高配芯片AI4特斯拉理想Thor

U700英偉達(dá)OrinX雙254*2=508英偉達(dá)小鵬自研芯片(2025Q2e)3

Orin

X單顆等效于

顆400+254*3≈760性能(

)圖靈芯片MDC

810系車企OrinXOrinX254*2=508254*2=508560小米英偉達(dá)英偉達(dá)雙雙比亞迪奇瑞地平線(2025Q3e)J6P資料:汽車之家、車東西、懂車帝、新浪財(cái)經(jīng)、易車網(wǎng)、芯智訊,國盛證券研究所37目錄▎1、軟件側(cè):從“模仿人類”到“超越人類”、從“聾啞司機(jī)”到“司機(jī)助理”1.1

從“模仿人類”到“超越人類”1.2

從“聾啞司機(jī)”到“司機(jī)助理”▎2、硬件側(cè):比人看得清、比人想得遠(yuǎn)、比人反應(yīng)快2.1

感知層:雙目感知、鷹眼視覺、激光,比人看得清2.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)2.3

執(zhí)行層:線控趨勢(shì)已成,比人反應(yīng)快382.1

感知層:雙目感知、鷹眼視覺、激光

,比人看得清圖表:特斯拉Model

Y智能化配置1)純視覺路線的代表車企——特斯拉的雙目感知?

特斯拉CEO埃隆·馬斯克一直堅(jiān)定地反對(duì)激光ModelY2025款車型駕駛輔助影像輔助駕駛芯片芯片總算力倒車影像;車側(cè)盲區(qū)影像AI4720

TOPS,,比如:“激光甚至多次在公開場(chǎng)合貶低激光毫無意義,對(duì)于自動(dòng)駕駛汽車來說沒有必要”;前方感知攝像頭攝像頭數(shù)量雙目8個(gè)“激光昂貴、丑陋、沒有必要”;“激光就像人身上長了一堆闌尾,闌尾本身的存在基本是無意義的,如果長了一堆的話,那就太可笑了”;500萬前方感知攝像頭像素車內(nèi)攝像頭數(shù)量前方最大探測(cè)距離1個(gè)424米“任何依賴激光的公司都可能無疾而終”等。圖表:特斯拉HW3.0和HW4.0對(duì)比?

HW4.0搭載超遠(yuǎn)距離雙目攝像頭,最遠(yuǎn)探測(cè)距離達(dá)424米。HW3.0HW4.0硬件成像2D圖像3D圖像攝像頭數(shù)量/像素

8個(gè)/120萬7個(gè)/500萬424米?

根據(jù)眾安保險(xiǎn)和中國公安部官網(wǎng),駕駛員的視野范圍會(huì)隨著車速提高而變窄,動(dòng)態(tài)視力也會(huì)隨著車速的增加而下降。當(dāng)車速是60km/h時(shí),最大視認(rèn)距離為240m;當(dāng)車速為80km/h時(shí),視認(rèn)距離為160m。具體取決于駕駛環(huán)境、光照條件、天氣狀況和個(gè)人視力等因素。250米最大探測(cè)距離芯片研發(fā)方案芯片數(shù)量/算力特斯拉自研雙FSD芯片/144TOPS

雙FSD芯片/720TOPS特斯拉自研14nm制造三星代工

7nm制造20個(gè)GDDR6芯片制造商及工藝

三星代工CPU內(nèi)核CPU內(nèi)存12個(gè)LPDDR4資料:汽車之家,國盛證券研究所392.1

感知層:雙目感知、鷹眼視覺、激光

,比人看得清2)純視覺路線的代表車企——小鵬的鷹眼視覺?

小鵬AI鷹眼視覺方案,

感知距離提升125%,識(shí)別速度提升40%。官方介紹比人眼還要清晰10倍。?

鷹眼視覺的LOFIC架構(gòu)(Lateral

OverFlow

Integration

Capacitor)和HDR功能(High

Dynamic

Range,高動(dòng)態(tài)范圍)

:LOFIC架構(gòu)是一種單像素橫向溢出集成電容架構(gòu),在傳統(tǒng)的像素電容的基礎(chǔ)上增加了一個(gè)溢出電容,用于承接由高亮度光源產(chǎn)生的溢出電荷,從而提升了動(dòng)態(tài)范圍,在強(qiáng)逆光環(huán)境下也能夠捕捉到清晰的圖像。?

從某種程度上說,小鵬AI鷹眼視覺方案在某些方面超越了人類生物體的視覺感知能力。LOFIC方案通過攝像頭將光信號(hào)轉(zhuǎn)換為電信號(hào)。當(dāng)光線過強(qiáng)或光差過大時(shí),人類視覺需要適應(yīng),但LOFIC方案通過特定的電容技術(shù)處理,在車輛載體上能夠很好地應(yīng)對(duì)各種光差,實(shí)現(xiàn)精準(zhǔn)的視覺感知。圖表:小鵬AI鷹眼視覺方案看得更準(zhǔn)、更清、更遠(yuǎn)圖表:小鵬鷹眼視覺比人眼清晰10倍資料:汽車之家、進(jìn)化加速度,國盛證券研究所402.1

感知層:雙目感知、鷹眼視覺、激光

,比人看得清2)純視覺路線的代表車企——小鵬的鷹眼視覺?

像素:在上一代的基礎(chǔ)上,升級(jí)了前視、后視、側(cè)視的攝像頭,尤其是前視和后視采用3顆800萬像素?cái)z像模組,構(gòu)建起車前、車后大角度高清監(jiān)控網(wǎng)絡(luò),為智能駕駛系統(tǒng)提供精準(zhǔn)、可靠的數(shù)據(jù)支持。圖表:小鵬AI鷹眼視覺方案資料:進(jìn)化加速度,國盛證券研究所412.1

感知層:雙目感知、鷹眼視覺、激光

,比人看得清3)激光方案——主流車廠的選擇圖表:各傳感器之間具有一定互補(bǔ)性隨著智駕等級(jí)的提升、激光?

廣汽:2024年,廣汽埃安RT就已經(jīng)在15萬價(jià)格帶實(shí)現(xiàn)了激光版匯集了城市NDA、高速智駕領(lǐng)航和自動(dòng)泊車三大功能,售價(jià)僅15.58萬元;650激光

的超長續(xù)航高階智駕,售價(jià)僅16.58萬元。版擁有同級(jí)唯一帶激光?

零跑:2025年,零跑發(fā)布LEAP

3.5架構(gòu),配備300米探測(cè)距離激光+12顆高精攝像頭。?

理想:在L系列的智駕煥新版車型上標(biāo)配禾賽的激光成本的下降,激光迎來了大規(guī)模量產(chǎn)的階段。上車。520激光+5顆毫米波。圖表:激光、毫米波、超聲波及攝像頭之間的比較圖表:頭部激光供應(yīng)商產(chǎn)品價(jià)格持續(xù)下降速騰聚創(chuàng)-激光價(jià)格:元禾賽-激光價(jià)格:元6000050000400003000020000100000489521395878133712235428181405520217007202220232024資料:中國信通院、ICV

Tank、灼識(shí)咨詢、速騰聚創(chuàng)招股書、速騰聚創(chuàng)業(yè)績(jī)公告、禾賽科技業(yè)績(jī)公告,國盛證券研究所42目錄▎1、軟件側(cè):從“模仿人類”到“超越人類”、從“聾啞司機(jī)”到“司機(jī)助理”1.1

從“模仿人類”到“超越人類”1.2

從“聾啞司機(jī)”到“司機(jī)助理”▎2、硬件側(cè):比人看得清、比人想得遠(yuǎn)、比人反應(yīng)快2.1

感知層:雙目感知、鷹眼視覺、激光,比人看得清2.2決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)2.3

執(zhí)行層:線控趨勢(shì)已成,比人反應(yīng)快432.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)?

VLA帶來了更高的車端算力挑戰(zhàn),解決方式呼之欲出?

在推理時(shí)長上,傳統(tǒng)rule-base(基于規(guī)則)方案下,智駕只能推理1秒鐘路況信息然后做出決策控制;端到端1.0階段系統(tǒng)能夠推理出未來7秒路況,而VLA能對(duì)幾十秒路況進(jìn)行推理。?

VLA模型的上車難度不小,車端模型參數(shù)變得更大,既要有高效實(shí)時(shí)推理能力,同時(shí)還要有大模型認(rèn)識(shí)復(fù)雜世界并給出建議的能力,對(duì)車端芯片硬件有相當(dāng)高要求。先進(jìn)芯片上車時(shí)間表:?

3

OrinX

OrinX圖表:地平線判斷隨著智能駕駛等級(jí)提升,所需車端算力持續(xù)增長254TOPS)的性能,預(yù)計(jì)2025Q2上車;預(yù)計(jì)2026年可能在車端實(shí)現(xiàn)3000T算力(多顆芯片)。?

理想:2025年5月,L系列智駕煥新版Max車型上搭載Thor-U(700TOPS)。?

蔚來:ET9于2024年12月上市、2025年3月底交付,搭載2顆自研的神璣NX9031,單顆算力超1000T。?

特斯拉:下一代車載計(jì)算平臺(tái)AI5性能預(yù)計(jì)顯著提升,馬斯克透露AI5算力為HW4的10倍。?

極氪:9X將搭載雙Thor芯片,預(yù)計(jì)在2025Q3上市。?

奇瑞:預(yù)計(jì)2025年9月搭地平線J6P,等效560TOPS。:車東西、地平線發(fā)布會(huì),國盛證券研究所資料442.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)圖表:智能駕駛和智能座艙芯片參數(shù)對(duì)比(不完全梳理,含待上市的產(chǎn)品)Al算力TOPS@int8存儲(chǔ)帶寬(GB/s)制造工藝(納米)估計(jì)價(jià)格(美元)CPU算力(DMIPS)廠家型號(hào)CPU核心數(shù)量CPU架構(gòu)代工廠臺(tái)積電12/16/24(估計(jì))ArmNEOVERSEV2英偉達(dá)Thor最高2000-5-500K以上英偉達(dá)英偉達(dá)Orin-XXavier

NX25432--128ArmA78AECarmel812三星臺(tái)積電400-500120-150227K96K等效于三顆Orin

X小鵬高通高通高通高通圖靈芯片SA8540+SA9000SA8650--------4核ArmCortex-X1+4核A55ArmCortex-X3(估計(jì))4核ArmCortex-X1+4核A553601003085557臺(tái)積電臺(tái)積電臺(tái)積電臺(tái)積電400-500200-250150-20075-85200K240K(估計(jì)

)77-8/12(估計(jì))SA829588200K105K4核ArmA76+4SA81558-核A55德州儀器德州儀器地平線地平線地平線地平線地平線地平線芯馳TDA4VMTDA4VHJ6P832--2818---8414ArmA72ArmA72ArmCortex

A78AE1616----16-臺(tái)積電臺(tái)積電50-60120-15025K100K410K137K100K20K+26K5601288010+1285205--------J6MJ6EJ6BJ5J3X9U---------ArmA55ArmA53ArmA55臺(tái)積電75-9025-3050-75--12K-1.2-資料:佐思汽車研究、懂車帝、鈦媒體、太平洋號(hào)、路咖汽車、虎嗅、智東西、GeekCar、快科技、汽車之家、創(chuàng)業(yè)邦、易車網(wǎng)、半導(dǎo)體芯聞、今日頭條觀察者網(wǎng)、車東西、黑芝麻智能招股說明書,國盛證券研究所452.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)圖表:智能駕駛和智能座艙芯片參數(shù)對(duì)比(不完全梳理,含一些待上市的產(chǎn)品,續(xù)表)Al算力TOPS@int82.52.5242417634存儲(chǔ)帶寬(GB/s)制造工藝(納米)估計(jì)價(jià)格(美元)CPU算力(DMIPS)廠家型號(hào)CPU核心數(shù)量CPU架構(gòu)代工廠MobileyeMobileyeMobileyeMobileyeMobileyeMobileye英特爾EyeQ4MEyeQ4HEyeQ5MEyeQ5HEyeQ

UltraEyeQ6HA3960-------4488-MIPSinterAptivMIPSinterAptivMIPSI6500-FMIPS16500-F2828775STST臺(tái)積電臺(tái)積電-35-4040-4550-5560-70-12K(估計(jì))12K(估計(jì))40K(估計(jì))40K(估計(jì))---4-ApolloLake4核A57+4核A53-14-內(nèi)部---50-6048K瑞薩R-CAR

H3E--816臺(tái)積電80-9049K瑞薩瑞薩V4HV3U34605134--ArmA76-712臺(tái)積電-45-50-49K96KFSD(HW3.0用兩顆)特斯拉特斯拉蔚來72681220-cortex

A72145三星星---150K300K(估計(jì))615KFSD

II-448-900276(估計(jì))--600(估計(jì))天璣NX9031-百度昆侖芯2MDC610256160512-----7------ARMCortex-A78ARMCortex-R52(MCU)-220K黑芝麻智能A2000250-1000-167---黑芝麻智能黑芝麻智能黑芝麻智能安霸A1000

ProA1000A1000L106+5816-37-111111-1616165臺(tái)積電臺(tái)積電臺(tái)積電--100--30K----CV3-AD685750224-220K資料:佐思汽車研究、懂車帝、鈦媒體、太平洋號(hào)、路咖汽車、虎嗅、智東西、GeekCar、快科技、汽車之家、創(chuàng)業(yè)邦、易車網(wǎng)、半導(dǎo)體芯聞、今日頭條觀察者網(wǎng)、車東西、黑芝麻智能招股說明書,國盛證券研究所462.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)?

軟硬耦合,基于成熟的軟件算法設(shè)計(jì)智能駕駛芯片硬件,性能提升明顯?

地平線機(jī)器人:創(chuàng)始人余凱認(rèn)為,在L5級(jí)自動(dòng)駕駛需求被滿足前,智能駕駛需要軟硬結(jié)合。?

特斯拉:自研的FSD芯片,在HW3.0的時(shí)代,單顆僅有72TOPS的算力,單車搭載2顆對(duì)應(yīng)144TOPS算力,仍有非常好的體驗(yàn)。?

小鵬:自研圖靈芯片的原因在于1)智駕對(duì)車端高算力提出更高要求,2)解決公版芯片大量通用算力被浪費(fèi)的問題。其圖靈芯片等效于3顆英偉達(dá)OrinX的性能,并且具有性價(jià)比。圖表:地平線走軟硬結(jié)合的路線圖表:地平線判斷軟硬結(jié)合帶來更高的效率資料:車東西,國盛證券研究所47目錄▎1、軟件側(cè):從“模仿人類”到“超越人類”、從“聾啞司機(jī)”到“司機(jī)助理”1.1

從“模仿人類”到“超越人類”1.2

從“聾啞司機(jī)”到“司機(jī)助理”▎2、硬件側(cè):比人看得清、比人想得遠(yuǎn)、比人反應(yīng)快2.1

感知層:雙目感知、鷹眼視覺、激光,比人看得清2.2

決策層:下一代智駕系統(tǒng)對(duì)芯片要求更高,比人想得遠(yuǎn)2.3

執(zhí)行層:線控趨勢(shì)已成,比人反應(yīng)快482.3

執(zhí)行層:線控趨勢(shì)已成,比人反應(yīng)快特斯拉

Cybercab

無人駕駛出租車亮相于2024年

10

月舉行的特斯拉“WE,

R

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論