人工智能行業(yè)專題(14):大模型發(fā)展趨勢(shì)復(fù)盤與展望_第1頁
人工智能行業(yè)專題(14):大模型發(fā)展趨勢(shì)復(fù)盤與展望_第2頁
人工智能行業(yè)專題(14):大模型發(fā)展趨勢(shì)復(fù)盤與展望_第3頁
人工智能行業(yè)專題(14):大模型發(fā)展趨勢(shì)復(fù)盤與展望_第4頁
人工智能行業(yè)專題(14):大模型發(fā)展趨勢(shì)復(fù)盤與展望_第5頁
已閱讀5頁,還剩89頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能行業(yè)專題(14)大模型發(fā)展趨勢(shì)復(fù)盤與展望投資評(píng)級(jí):優(yōu)于大市(維持)1模態(tài)路線的堅(jiān)持以及自研芯片的生態(tài),明年Tokens消耗有望繼續(xù)大幅提升;3)Anthropic:堅(jiān)持2B路線,在編2核心觀點(diǎn)?復(fù)盤美股科技巨頭過去三年股價(jià)走勢(shì),AI敘事不斷遞進(jìn)。23年OpenAI領(lǐng)先全球開啟AI加速度,微軟受益于OpenAI獨(dú)家合作,估值抬升明顯。24年市場(chǎng)低估模型進(jìn)步空間,敘事轉(zhuǎn)向推理側(cè),認(rèn)為應(yīng)用公司最優(yōu),Meta坐擁社交壟斷生態(tài)(潛在Agent入同年云廠商由于大幅增加資本開支但供給受限,云收入傳導(dǎo)有延遲,三大CSP估值略有所回落。25年模型差距與OpenAI明顯收斂,谷歌后來居上,生態(tài)優(yōu)勢(shì)為市場(chǎng)追逐。26年我們認(rèn)為ScalingLaw將持續(xù),模型廠商打開差異化應(yīng)用市場(chǎng),模型推理側(cè)需求或進(jìn)入放量拐點(diǎn)。模型和算力或?yàn)樽顑?yōu)投資方向。?25年四家巨頭Capex同比增長(zhǎng)50%以上,26年我們測(cè)算Capex將持續(xù)實(shí)現(xiàn)30%以上增速。25年北美四家巨頭Capex持續(xù)上修,從年初3200-3300億美元上修至年末接近4000億美元,各家全年Capex投入均處于50%以上同比增長(zhǎng)。巨額Capex投入數(shù)據(jù)中心建設(shè),或面臨電力瓶頸。24年北美數(shù)據(jù)中心容量約25GW,據(jù)GridStrategies估計(jì),至29年的五年時(shí)間將新增80GW需求,而考慮到煤電退役、配套變壓器建設(shè)周期長(zhǎng)等原因,電力缺口預(yù)計(jì)將成為主要矛盾。因此巨頭在建設(shè)數(shù)據(jù)中心過程中,算力能耗比或成為關(guān)鍵考量因素。?模型架構(gòu)繼續(xù)演化,Scalinglaw延續(xù),多模態(tài)+長(zhǎng)文本為Agent爆發(fā)提供基礎(chǔ)。23年迎來Scalinglaw紅利期,24年多模態(tài)、推理模型涌現(xiàn),25年算法工程與ScalingLaw并進(jìn)。長(zhǎng)期來看,實(shí)現(xiàn)AGI仍然需要模型架構(gòu)突破和Scaling做到極限。展望26年:1)架構(gòu)方面,下一代模型架構(gòu)目前需要解決兩大核心痛點(diǎn):①訓(xùn)練階段Transformer的計(jì)算量和內(nèi)存消耗瓶頸日益凸顯;②推理時(shí)模型的記憶能力有限,且模型參數(shù)無法跟隨記憶變化。海外目前已經(jīng)有谷歌的Titans架構(gòu)、以及Mamba架構(gòu),國(guó)內(nèi)則更多從成本效率優(yōu)化角度出發(fā),包括Qwen3-Next、DeepSeekV3.2都取得了明顯提升。2)Scaling方面,預(yù)計(jì)26年Scalinglaw仍將延續(xù),包括從預(yù)訓(xùn)練到后訓(xùn)練以及推理場(chǎng)景,而強(qiáng)化學(xué)習(xí)則將成為未來的重點(diǎn)突破方向;3)多模態(tài)、長(zhǎng)文本能力更加成熟,這為Agent的涌現(xiàn)提供技術(shù)基礎(chǔ)。目前中美模型差距在3-6個(gè)月,算力和算法是追趕的關(guān)鍵。?通用大模型能力暫未分勝負(fù),廠商商業(yè)化路徑有差異。1)OpenAI:盡管短期模型能力被反超,但下一代模型表現(xiàn)仍然值得期待,C端8億用戶是其核心壁壘,公司明年也將發(fā)力企業(yè)業(yè)務(wù);2)Gemini:當(dāng)前成為大模型的SOTA基準(zhǔn),得益于對(duì)原生多核心觀點(diǎn)?程領(lǐng)域能力突出,依靠2B的定價(jià)優(yōu)勢(shì)有望取得更好利潤(rùn)率水平,目前公司估值已達(dá)到3500億美元,25年初推出的AI編程產(chǎn)品年末ARR也已經(jīng)達(dá)到10億美元;4)Grok:信奉大力出奇跡,由于推理場(chǎng)景有限因此訓(xùn)練算力充足,結(jié)合特斯拉獨(dú)特?cái)?shù)據(jù)優(yōu)勢(shì),下一代原生多模態(tài)模型值得期待。?模型降低軟件開發(fā)門檻,需求天花板打開,但玩家重新洗牌。25年tokens消耗更多用于大模型企業(yè)內(nèi)部以及推薦系統(tǒng)的重構(gòu),但26年開始預(yù)計(jì)下游應(yīng)用的需求將持續(xù)增加,AI實(shí)際上打開了軟件需求的天花板,據(jù)IDC數(shù)據(jù),預(yù)計(jì)2029年全球SaaS市場(chǎng)將達(dá)到近1萬億美元規(guī)模(對(duì)比25年5800億美元有明顯增長(zhǎng)),但我們認(rèn)為其中玩家將重新洗牌。擁有數(shù)據(jù)壁壘,主要在垂類細(xì)分場(chǎng)景中布局,軟件定義工作流程較復(fù)雜,或?qū)?zhǔn)確度要求極高的行業(yè),被大模型替代的風(fēng)險(xiǎn)較小,比如醫(yī)療、能源、會(huì)計(jì)、安全等領(lǐng)域。同時(shí)我們觀察到大模型廠商已經(jīng)開始通過與B端軟件服務(wù)商合作開發(fā)更多行業(yè)需求,或與傳統(tǒng)SaaS廠商產(chǎn)生直面競(jìng)爭(zhēng)。?26年推理側(cè)需求有望爆發(fā),一級(jí)市場(chǎng)方面,編程場(chǎng)景、Agent爆發(fā)為主要應(yīng)用方向。從用戶量和創(chuàng)業(yè)公司的收入估值水平來看,當(dāng)前規(guī)模增長(zhǎng)較快的行業(yè)以AI編程、AIAgent、AI內(nèi)容創(chuàng)作為主,聚焦生產(chǎn)力提升,今年以來誕生了多個(gè)爆款應(yīng)用,其中AI編程軟件CursorARR已達(dá)到10億美元,AIagentManus則在8個(gè)月時(shí)間ARR達(dá)到1億美元,AI搜索工具Perplexity也在向Agent拓寬產(chǎn)品邊界,其ARR也已達(dá)到2億美元,因此明年辦公場(chǎng)景有望迎來更多產(chǎn)品落地。此外,我們認(rèn)為隨著模型能力的成熟,明年在端側(cè)的AI手機(jī)、AI眼鏡,以及協(xié)助大模型在企業(yè)落地的分銷商這些領(lǐng)域?qū)⒖吹矫黠@的增長(zhǎng)。?投資建議:建議關(guān)注算力基礎(chǔ)設(shè)施(芯片、云廠商),如阿里巴巴-W(9988.HK)、百度集團(tuán)-SW(9888.HK)、英偉達(dá)(NVDA.O)、谷歌(GOOGL.O);以及大模型廠商,如阿里巴巴-W(9988.HK)、谷歌(GOOGL.O)、騰訊(700.HK)等。?風(fēng)險(xiǎn)提示:宏觀經(jīng)濟(jì)波動(dòng),下游需求不及預(yù)期,核心技術(shù)水平升級(jí)不及預(yù)期的風(fēng)險(xiǎn),AI平權(quán)競(jìng)爭(zhēng)加劇影響云業(yè)務(wù)利潤(rùn)率風(fēng)險(xiǎn)。301美股科技巨頭股價(jià)和資本開支復(fù)盤展望 模型架構(gòu)繼續(xù)演化,Scalinglaw延續(xù),多模態(tài)+ 長(zhǎng)文本更成熟03模型廠發(fā)展路線分化,格局動(dòng)態(tài)演進(jìn)04推理需求有望爆發(fā),看好編程、Agent等應(yīng)用4美股科技巨頭走勢(shì)復(fù)盤:過去三年AI領(lǐng)漲敘事不斷演繹 增加資本開支但供給受限,云收入傳導(dǎo)有延遲,三大CS廠商供給逐步釋放,收入端呈現(xiàn)加速,AI需求景氣度持續(xù)。下和26年Capex預(yù)期,市場(chǎng)開始擔(dān)憂AI投資ROI,以及模型能力提升潛力,S 增加資本開支但供給受限,云收入傳導(dǎo)有延遲,三大CS廠商供給逐步釋放,收入端呈現(xiàn)加速,AI需求景氣度持續(xù)。下和26年Capex預(yù)期,市場(chǎng)開始擔(dān)憂AI投資ROI,以及模型能力提升潛力,S?26年預(yù)測(cè):ScalingLaw持續(xù),模型廠商打開差異化應(yīng)用-微軟亞馬遜谷歌Meta英偉達(dá)納斯達(dá)克指數(shù)17,8778,56911,4503,1913,59510,46673319769322881465244317442327,94815,70217,5559,09612,23215,01184339083545746449533402120263056%83%53%240%43%15%98%20%473%36%-7%27%42%-41%35%27,94815,70217,5559,09612,23215,01184339083545746449533402120263031,33923,24023,17814,83732,88819,3119776661098655105268632352123312812%48%32%63%29%16%71%31%43%39%-3%-13%0%-7%31,33923,24023,17814,83732,88819,3119776661098655105268632352123312836,23124,85837,94216,78545,57223,24211948631343761177683030292822262816%7%64%39%20%22%30%22%69%21%-5%-17%34%-3%-18%-1%5美股科技巨頭走勢(shì)復(fù)盤——英偉達(dá)2023-01-032023-02-032023-03-032023-04-032023-05-032023-06-032023-07-032023-08-032023-09-032023-10-032023-11-032023-12-032024-01-032024-02-032024-03-032024-04-032024-05-032024-06-032024-07-032024-08-032024-09-032024-10-032024-11-032024-12-032025-01-032025-02-032025-03-032025-04-032025-05-032025-06-032025-07-032025-08-032025-09-032025-10-032025-11-032025-12-032025/9,OpenAI連續(xù)0%5-200%-0 資料來源:Wind、彭博、國(guó)信證券經(jīng)濟(jì)研究所整理6?英偉達(dá)在23-25年的上漲過程更加敏感,但隨后英偉達(dá)均通過強(qiáng)勁的業(yè)績(jī)制出口風(fēng)險(xiǎn),③其他公司的競(jìng)爭(zhēng);2)24年中至25年4月持續(xù)震蕩,一方面業(yè)績(jī)繼續(xù)強(qiáng)推遲、競(jìng)爭(zhēng)問題(TPU等)、以及Deep2023-01-032023-02-032023-03-032023-04-032023-05-032023-06-032023-07-032023-08-032023-09-032023-10-032023-11-032023-12-032024-01-032024-02-032024-03-032024-04-032024-05-032024-06-032024-07-032024-08-032024-09-032024-10-032024-11-032024-12-032025-01-032025-02-032025-03-032025-04-032025-05-032025-06-032025-07-032025-08-032025-09-032025-10-032025-11-032025-12-032025/9,OpenAI連續(xù)0%5-200%-0 資料來源:Wind、彭博、國(guó)信證券經(jīng)濟(jì)研究所整理61600%納斯達(dá)克指數(shù)英偉達(dá)BEst市盈率跟Oracle、微軟簽訂巨額訂單,市場(chǎng)重新?lián)鷳n巨頭資本開支持續(xù)性和AI泡沫問題2024/4-5,Q1快速上漲后再次面臨高估擔(dān)憂,4月臺(tái)積電下調(diào)芯片市場(chǎng)增長(zhǎng)預(yù)期,導(dǎo)致英偉達(dá)單日暴跌10%24/5,財(cái)報(bào)發(fā)布打破市場(chǎng)質(zhì)疑,馬斯克xAI建設(shè)超級(jí)算力工廠,GPU需求高達(dá)10萬個(gè)2025/1,DeepseekR1發(fā)布,市場(chǎng)質(zhì)疑算力需求1400%1200%llll2023/10,美國(guó)進(jìn)一步限制向中國(guó)的出口管制l1000%關(guān)稅緩解;北美CSP繼續(xù)上修資本開支ll800%l2025/9,Blackwell進(jìn)度更新,將如期在Q4發(fā)貨ll2024/8,業(yè)績(jī)會(huì)確認(rèn)Blackwell存在設(shè)計(jì)缺陷,需要延遲發(fā)貨23Q2開始業(yè)績(jī)持續(xù)超預(yù)期,但Q1漲幅過高,市場(chǎng)認(rèn)為估值已透支未來,到年末整體呈區(qū)間震蕩l600%l23Q1在ChatGPT和GPT4的帶動(dòng)下開啟AI浪潮2025/4,特朗普關(guān)稅升級(jí),禁止包括H201600%納斯達(dá)克指數(shù)英偉達(dá)BEst市盈率跟Oracle、微軟簽訂巨額訂單,市場(chǎng)重新?lián)鷳n巨頭資本開支持續(xù)性和AI泡沫問題2024/4-5,Q1快速上漲后再次面臨高估擔(dān)憂,4月臺(tái)積電下調(diào)芯片市場(chǎng)增長(zhǎng)預(yù)期,導(dǎo)致英偉達(dá)單日暴跌10%24/5,財(cái)報(bào)發(fā)布打破市場(chǎng)質(zhì)疑,馬斯克xAI建設(shè)超級(jí)算力工廠,GPU需求高達(dá)10萬個(gè)2025/1,DeepseekR1發(fā)布,市場(chǎng)質(zhì)疑算力需求1400%1200%llll2023/10,美國(guó)進(jìn)一步限制向中國(guó)的出口管制l1000%關(guān)稅緩解;北美CSP繼續(xù)上修資本開支ll800%l2025/9,Blackwell進(jìn)度更新,將如期在Q4發(fā)貨ll2024/8,業(yè)績(jī)會(huì)確認(rèn)Blackwell存在設(shè)計(jì)缺陷,需要延遲發(fā)貨23Q2開始業(yè)績(jī)持續(xù)超預(yù)期,但Q1漲幅過高,市場(chǎng)認(rèn)為估值已透支未來,到年末整體呈區(qū)間震蕩l600%l23Q1在ChatGPT和GPT4的帶動(dòng)下開啟AI浪潮2025/4,特朗普關(guān)稅升級(jí),禁止包括H20等芯片出口400%2024/7,蘋果模型基于TPU訓(xùn)練而非英偉達(dá);媒體報(bào)道B系列發(fā)貨推遲;黃仁勛等高管集體減持;面臨訴訟200%2024/1,英偉達(dá)CES大會(huì)發(fā)布3款顯卡,推理打開算力需求空間,同時(shí)Sora推出多模態(tài)爆發(fā)50454035302520美股科技巨頭走勢(shì)復(fù)盤:25年AI敘事變化,擁抱最確定的方向DeepseekR1發(fā)布,780 納斯達(dá)克英偉達(dá)——微軟谷歌——亞馬遜META6040200-20-402025-01-022025-02-022025-03-022025-04-022025-05-022025-06-022025-07-022025-08-022025-09-022025-10-022025-11-022025-12-02資本開支回顧與展望:逐季度上修,26年預(yù)計(jì)仍將增長(zhǎng)30%以上250%OracleYoY亞馬遜微軟250%OracleYoY亞馬遜微軟微軟YoY谷歌谷歌YoYMetaMetaYoY亞馬遜YoYYoY160,000200%140,000150%120,000150%100,000100%80,00050%60,00050%40,0000%20,0000-50%2020年2021年2022年2023年2024年2025E2026E資料來源:Gemini、國(guó)信證券經(jīng)濟(jì)研究所整理8資本開支展望:電力成為制約CAPEX增長(zhǎng)的核心因素?隨著資本開支的持續(xù)增加,北美數(shù)據(jù)中心的用電需求急劇增加?電力供給無法與需求增量匹配帶來用電缺口:1)為了實(shí)現(xiàn)環(huán)保目標(biāo),北美有大量煤電廠需要退役;2)數(shù)據(jù)中心配套的變壓器施的建設(shè)周期長(zhǎng)達(dá)5-8年;3)電力需求要求冗余,這進(jìn)一步推高了對(duì)?面對(duì)電力缺口,目前各公司通過:1)與能源公司緊密綁定,例如谷歌收購(gòu)IntersectPower,亞馬遜收購(gòu)了Tal資料來源:GridStrategies、國(guó)信證券經(jīng)濟(jì)研究所整理資料來源:GridStrategies、國(guó)信證券經(jīng)資料來源:公司官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理 資料來源:GridStrategies、國(guó)信證券經(jīng)濟(jì)研究所整理資料來源:GridStrategies、國(guó)信證券經(jīng)資料來源:公司官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理 9公司方式具體手段谷歌收購(gòu)2025年12月以47.5億美元收購(gòu)了能源基建公司IntersectPower,繞開電網(wǎng)審批長(zhǎng)周期(平均4-5年),直接鎖定能源供應(yīng)。并計(jì)劃27年前在得州投資400億美元新建數(shù)據(jù)中心,配套Intersect的10GWh儲(chǔ)能與10.8GW發(fā)電項(xiàng)目。亞馬遜海外拓展歐洲、亞太地區(qū)有相對(duì)較多的電力冗余,亞馬遜在德國(guó)、西班牙、印度等區(qū)域加大數(shù)據(jù)中心建設(shè)投資力度。微軟海外拓展計(jì)劃四年內(nèi)在海灣國(guó)家投資80億美元租賃微軟通過提高融資租賃金額緩解買不到電的壓力01美股科技巨頭股價(jià)和資本開支復(fù)盤展望 模型架構(gòu)繼續(xù)演化,Scalinglaw延續(xù),多模態(tài)+ 長(zhǎng)文本更成熟03模型廠發(fā)展路線分化,格局動(dòng)態(tài)演進(jìn)04推理需求有望爆發(fā),看好編程、Agent等應(yīng)用模型發(fā)展趨勢(shì):23年從“技術(shù)奇點(diǎn)”向“產(chǎn)業(yè)爆發(fā)”嵌入ChatGPT產(chǎn)品,增加其圖像、視頻能力,谷歌的原生多模態(tài)模型Gemini也?基于Transformer架構(gòu)的大語言模型應(yīng)用場(chǎng)景以Chatbot為主。受限于推理能力和上下文長(zhǎng)碼能力,可處理中等難度問題,但仍然主要依賴網(wǎng)頁端一問資料來源:artificialana11模型發(fā)展趨勢(shì):23年從“技術(shù)奇點(diǎn)”向“產(chǎn)業(yè)爆發(fā)”?模型參數(shù)和訓(xùn)練數(shù)據(jù)量持續(xù)增長(zhǎng)。根據(jù)DeepMind團(tuán)隊(duì)22年提出的ChinchillaScaling法則,每增加1倍的參數(shù)量,對(duì)應(yīng)的訓(xùn)練數(shù)據(jù)量(Tokens)也應(yīng)該增加1倍,且最佳配比應(yīng)為每10億(1B)參數(shù),至少需要20型預(yù)訓(xùn)練的數(shù)據(jù)量得到持續(xù)提升,根據(jù)lifearchitect.ai,預(yù)計(jì)海外目前頭部模型最大參數(shù)量均已達(dá)Grok5將達(dá)到6萬億參數(shù),而對(duì)應(yīng)的訓(xùn)練數(shù)據(jù)也擴(kuò)張到100萬億以上。但在目前的部分論文中已證明(例如《AImodelsco2023/1/12023/3/12023/5/12023/7/12023/9/12023/11/12024/1/12024/3/12024/5/12024/7/12024/9/12024/11/12025/1/12025/3/12025/5/12025/7/12025/9/12025/11/170006000500040003000200010000阿里巴巴OpenAI2023/1/12023/3/12023/5/12023/7/12023/9/12023/11/12024/1/12024/3/12024/5/12024/7/12024/9/12024/11/12025/1/12025/3/12025/5/12025/7/12025/9/12025/11/170006000500040003000200010000阿里巴巴OpenAIGooglexAIAnthropic12000010000080000600004000020000阿里巴巴OpenAIGooglexAIAnthropic2023/1/12023/3/12023/5/12023/7/12023/9/12023/11/12024/1/12024/3/12024/5/12024/7/12024/9/12024/11/12025/1/12025/3/12025/5/12025/7/12025/9/12025/11/102023/1/12023/3/12023/5/12023/7/12023/9/12023/11/12024/1/12024/3/12024/5/12024/7/12024/9/12024/11/12025/1/12025/3/12025/5/12025/7/12025/9/12025/11/1模型發(fā)展趨勢(shì):24年多模態(tài)、推理模型開始涌現(xiàn)?24年OpenAI繼續(xù)引領(lǐng)了模能力并未完善,GPT-4o的生圖能力實(shí)際延期一年上線,同時(shí)OpenAI也在年初推出了視頻模型Sora,谷思維鏈(CoT)在給出最終答案前進(jìn)行內(nèi)部思考,利用推理時(shí)間的延長(zhǎng)提升模型能力上限,在數(shù)據(jù)、編程、推理等下文追蹤、工具調(diào)用能力不足,agent能力未落地(當(dāng)時(shí)SWEbench僅能修復(fù)1%-5%現(xiàn)實(shí)世界?Claude、Gemini、Llama等模型開始縮小與OpenAI的差距。在LMSYSChatbotArena榜單中,24年初Cla型的超越,此后開源模型Llama3、Gemini也達(dá)?編程能力提升,Cursor開始出圈。年中Claude3.5開始展現(xiàn)出在邏輯推理和編程方面的領(lǐng)先優(yōu)勢(shì),結(jié)合無基礎(chǔ)編程的破圈,Cursor的0ChatGPTClaudeGPT-4o上線G2023/12/252024/1/252024/2/252024/3/252024/4/252024/5/252024/6/252024/7/252024/8/252024/9/252024/10/252024/11/252024/12/252025/1/252025/2/252025/3/252025/4/252025/5/252025/6/252025/7/252025/8/252025/9/252025/10/252025/11/252023/12/252024/1/252024/2/252024/3/252024/4/252024/5/252024/6/252024/7/252024/8/252024/9/252024/10/252024/11/252024/12/252025/1/252025/2/252025/3/252025/4/252025/5/252025/6/252025/7/252025/8/252025/9/252025/10/252025/11/25資料來源:SimiliarWeb、國(guó)信證券經(jīng)濟(jì)研究所整理模型發(fā)展趨勢(shì):25年從“暴力美學(xué)”重新回歸“算法與工程”?25年開始,訓(xùn)練環(huán)節(jié)中RLVR(可驗(yàn)證獎(jiǎng)勵(lì)強(qiáng)化學(xué)習(xí))成為一種新的普遍使用的方法。其正式提出是在24年11月AllenInstituteforAI(Ai2)的研究團(tuán)隊(duì)發(fā)布的Tülu3項(xiàng)目報(bào)告中,業(yè)內(nèi)普遍認(rèn)為在24年9月的OpenAI首款推理模型o1中最早得到了使用。?RLVR帶動(dòng)了模型思維鏈的使用,推理模型進(jìn)一步實(shí)現(xiàn)了模型性能躍升。在RLVR出現(xiàn)以前,SFT主要是通過讓模型模仿人工編寫的思維鏈進(jìn)行思考,但是RLVR通過可驗(yàn)證的獎(jiǎng)勵(lì)函數(shù),逼迫模型自行尋找最佳的思維鏈(告訴模型一個(gè)推理問題和答案,模型不斷嘗試不同的思考過程直到正確回答問題),之前常用的RLHF是通過打分制去評(píng)分,模型不需要做到最準(zhǔn)確只要能獲得高分即可。因此相比原來后訓(xùn)練的SFT+RLHF,加入RLVR一方面降低了對(duì)人工編寫思維鏈的需求,冷啟動(dòng)的數(shù)據(jù)要求變少,另一方面由于需要更多進(jìn)行嘗試,算力需求增加,所以Karpathy(OpenAI聯(lián)合創(chuàng)始人)在其博客文章2025年度回顧指出:2025年AI的進(jìn)步很大程度上是因?yàn)閷?shí)驗(yàn)室把原本用于預(yù)訓(xùn)練(讀更多書)的算力,挪到了RLVR上。Raschka(AI領(lǐng)域極具影響力的教育家、研究員)在其博客文章中認(rèn)為2026年會(huì)看到更多RLVR相關(guān)的工作。目前RLVR主要用在數(shù)學(xué)和代碼上,下一步是擴(kuò)展到其他領(lǐng)域。?DeepseekR1通過工程和算法的創(chuàng)新證明了通過強(qiáng)化學(xué)習(xí)+思維鏈,能夠比單純的增大參數(shù)(暴力美學(xué))更有效率。DeepSeek提出了RLVR+GRPO,在RLVR的訓(xùn)練范式下,傳統(tǒng)的PPO算法需要一個(gè)價(jià)值模型,消耗大量顯存,采用GRPO算法,可以直接省去價(jià)值模型,通過在模型生成的回答中,提高得分高于平均分的答案生成的概率,來實(shí)現(xiàn)模型性能的提升,帶來了效率的極大提升。模型發(fā)展趨勢(shì):25年從“暴力美學(xué)”重新回歸“算法與工程”?OpenAI缺乏模型能力突破,Gemini引領(lǐng)原生多模態(tài)。全年來看,OpenAI的模型能力缺乏有效突破,從誕生起就系列開始成為市場(chǎng)中的SOTA基準(zhǔn),且谷歌的自研芯片+模型+應(yīng)?Coding發(fā)生質(zhì)變,Agent開始走向成熟。1)Coding方面,2月claude3.7發(fā)布,coding能力顯著提升,可通過Cursor工器自主拆分長(zhǎng)任務(wù)、完成工具調(diào)用,改變開發(fā)者對(duì)agentcoding的認(rèn)知。2025年3月Ge幻覺控制能力突出,成為科研論文寫作的關(guān)鍵工具。token消耗呈快速增長(zhǎng)(接近指數(shù)級(jí)),核心驅(qū)(同步開2-3個(gè)端口推進(jìn)任務(wù))、深度搜索功能使用。2)經(jīng)歷前兩年在 展望26年:后Transformer時(shí)代的模型架構(gòu)演化AlphaGo這樣的重大技術(shù)突破;2)大語言模型的Scaling中,緩存清空模型就會(huì)失憶,并且這種記憶能力(《Titans:LearningtoMemorizeatTestTime》年末在NeurIPS預(yù)計(jì)目前已經(jīng)全面應(yīng)用于Gemini的模型中。根據(jù)論文內(nèi)容,Titans保Attention機(jī)制,在傳統(tǒng)RNN里,記憶存放在一個(gè)固定的向量里,在Titans里,記是原封不動(dòng)把數(shù)據(jù)計(jì)入KVcahe,但是Titans是壓縮了信),展望26年:后Transformer時(shí)代的模型架構(gòu)演化),計(jì)算量低于Transformer,更高的推理速度與較低的顯存占用。根據(jù)SelectiveStateSpaces》,Mamba可以視為一種進(jìn)化版的RNN,但是在訓(xùn)練時(shí)可以利用并行關(guān)聯(lián)掃描算法RNN那樣排隊(duì)計(jì)算,此外還引入了選擇性機(jī)制,模型可以根據(jù)當(dāng)前的Token內(nèi)容,動(dòng)態(tài)地決定是“記住“重置”狀態(tài)。但在實(shí)際工程落地中仍面臨挑戰(zhàn),特別是其依賴的并行掃描操作主要受限于顯存帶寬Mamba-2:24年中推出,在其論文《TransformersareSSMs:GeneralizedModelsan?AI21Labs的Jamba:采用了一種交錯(cuò)結(jié)構(gòu),即每若干4.0系列模型中,采用了Mamba-2作為主要架Attention+MoE)在保持企業(yè)級(jí)任務(wù)所需的?AI21Labs的Jamba:采用了一種交錯(cuò)結(jié)構(gòu),即每若干4.0系列模型中,采用了Mamba-2作為主要架Attention+MoE)在保持企業(yè)級(jí)任務(wù)所需的展望26年:后Transformer時(shí)代的模型架構(gòu)演化混合注意力機(jī)制75%層使用GatedD),息被編碼進(jìn)一個(gè)數(shù)學(xué)上的“隱藏狀態(tài)”里,信息流過時(shí)))預(yù)估哪些歷史位置的Token與當(dāng)前Token最相關(guān)谷歌TitansMamba-2Qwen3-NextDeepseekV3.2上下文長(zhǎng)度(tokens)200萬+原生支持26萬+,可擴(kuò)展至100萬+128K速度序列長(zhǎng)度越長(zhǎng),比transformer的速度快的越多,當(dāng)序列長(zhǎng)度達(dá)到256K時(shí),Mamba-2層的訓(xùn)練速度比Transformer層快18倍訓(xùn)練上,80B參數(shù)的模型訓(xùn)練所需的GPUHours不到Qwen3-30A-3B的80%;推理上,長(zhǎng)文本情況下,吞吐量遠(yuǎn)超Qwen3,當(dāng)上下文長(zhǎng)度超過32k時(shí),吞吐提升更是達(dá)到10倍以上。成本降低titans在節(jié)省成本上并不像國(guó)產(chǎn)模型極致,但是增加了模型根據(jù)對(duì)話學(xué)習(xí)的能力長(zhǎng)文本情況下,計(jì)算成本比Transformer有明顯改善(見上頁)80B參數(shù)的模型比Qwen3-32B訓(xùn)練成本減少90%文本長(zhǎng)度的增加對(duì)邊際成本的影響很小,且當(dāng)文本長(zhǎng)度達(dá)到128K時(shí)輸入成本僅為0.2美元/百萬tokens,輸出僅為0.3美元/百萬tokens輸入價(jià)格(百萬tokens)Gemini3flash:0.5美元Qwen3Next80BA3B:0.5美元DeepSeekV3.2:0.28美元輸出價(jià)格(百萬tokens)Gemini3flash:3美元Qwen3Next80BA3B:2美元DeepSeekV3.2:0.4美元資料來源:artificialanalysis、GoogleResearch、Qwen、Deepseek、國(guó)信證券經(jīng)濟(jì)研究所整理展望26年:Scalinglaw遠(yuǎn)未見頂,強(qiáng)化學(xué)習(xí)是未來重點(diǎn)?預(yù)訓(xùn)練scaling仍未見頂:隨著Gemini3的發(fā)布,谷歌再次證明盡管可用數(shù)據(jù)正在逐漸減少,但預(yù)訓(xùn)練仍有scaling的空間,據(jù)Gemini預(yù)訓(xùn)練負(fù)責(zé)人SebastianBourjou,預(yù)訓(xùn)練通過合成數(shù)據(jù)和模型架構(gòu)的調(diào)整,能夠繼續(xù)實(shí)現(xiàn)scaling,且在接下來的著模型逐步轉(zhuǎn)向原生多模態(tài)模型,原本的視頻模型、圖像模型都可以作為教師模型的提升,包括垂直領(lǐng)域數(shù)據(jù)/私有數(shù)據(jù)、代碼數(shù)據(jù)等,或在該階段擴(kuò)展上下文長(zhǎng)度。例Training環(huán)節(jié),但在預(yù)訓(xùn)練后使用YaRN旋轉(zhuǎn)位置編碼技術(shù)擴(kuò)展了上下文長(zhǎng)度圖:模型訓(xùn)練環(huán)節(jié)?推理中的Scaling:主要是通過測(cè)試時(shí)計(jì)算(Test-TimeC),),們看到flash、pro、deepresearch模式下模型思考時(shí)間圖:模型訓(xùn)練環(huán)節(jié)DeepSeek-V3(2024-12)DeepS展望26年:Scalinglaw遠(yuǎn)未見頂,強(qiáng)化學(xué)習(xí)是未來重點(diǎn)的Grok4較Grok3在預(yù)訓(xùn)練環(huán)節(jié)計(jì)算量不?根據(jù)獎(jiǎng)勵(lì)來源包括:1)RLHF(),),DeepSeek24年末提出,能夠大幅節(jié)省督學(xué)習(xí)SFT能快速提升模型指令遵循的能答以找到最好的答案)。20展望26年:推理能力提升+多模態(tài)+長(zhǎng)文本=更成熟的Agent?推理能力提升+多模態(tài)+長(zhǎng)文本=更成熟的Agent。具備多模態(tài)能力和更強(qiáng)推理),中不會(huì)忘記前面的執(zhí)行步驟,因此伴隨模型在這阿里在9月推出了Qwen3-Omni,馬斯克在BaronCapital第32屆年度投資會(huì)議上提到的數(shù)據(jù)量遠(yuǎn)低于視頻內(nèi)容,如果各自全部轉(zhuǎn)化為tokens輸入模型,視頻內(nèi)容的tokens將遠(yuǎn)多于文甚至忽略,這是需要算法方面解決的問題,也90%80%70%60%50%40%30%20%10%0%Qwen3MaxQwen3VL32BQwen330BA3B2507Qwen3Omni30BA3BTerminal-BenchHard(AgenticCoding&TerminalUse)(AgenticToolUse)MMMUPro(VisualReasoning)資料來源:artificialana資料來源:artificialana21?長(zhǎng)文本:在當(dāng)前的模型架構(gòu)下,Transformer雖好,但自注意力機(jī)制下,每個(gè)token都要“關(guān)注”其他?長(zhǎng)文本:在當(dāng)前的模型架構(gòu)下,Transformer雖好,但自注意力機(jī)制下,每個(gè)token都要“關(guān)注”其他所有token,導(dǎo)致計(jì)算量和內(nèi)存消耗與序列長(zhǎng)度的平方成正比,在較長(zhǎng)任務(wù)執(zhí)行的過程中很難保持效率。而解決長(zhǎng)文本問題一方面可以通過在長(zhǎng)文本上做訓(xùn)練、或改善模型架構(gòu)實(shí)現(xiàn)。Mamba架構(gòu)以及谷歌的Titans架構(gòu)都在長(zhǎng)文本上實(shí)現(xiàn)了突破。資料來源:artificialana資料來源:artificialana22資料來源:artificialana國(guó)內(nèi)外模型差距:中美模型差距3-6個(gè)月,算力、算法是關(guān)鍵?算力:據(jù)EpochAI,美國(guó)掌握了全球大約70%的算力資源,中國(guó)只有15%-20%,尤其是對(duì)頭部模型廠商來說,算力的差距使得Goog同的模型架構(gòu)而不用擔(dān)心算力不足的問題(Titans架),?算法:目前在多模態(tài)領(lǐng)域,國(guó)內(nèi)尚未找到如何用一套統(tǒng)一的tokens表示不同內(nèi)容形態(tài)的方法,因此在原生多模態(tài)上與谷歌仍有領(lǐng)域海外并沒有明顯的算法能力上的領(lǐng)先,并且由于?數(shù)據(jù):模型訓(xùn)練中,數(shù)據(jù)的質(zhì)量和豐富度對(duì)模型性能影響至關(guān)重要,因此催生了ScaleAI、SurgeAI等數(shù)據(jù)標(biāo)注的公司,但國(guó)內(nèi)的數(shù)據(jù)團(tuán)隊(duì)以及垂類應(yīng)用場(chǎng)景,無論數(shù)據(jù)質(zhì)量還是豐富資料來源:artificialanalysis.、國(guó)信證券經(jīng)濟(jì)研究所整理美股科技巨頭股價(jià)和資本開支復(fù)盤展望模型架構(gòu)繼續(xù)演化,Scalinglaw延續(xù),多模態(tài)+長(zhǎng)文本更成熟模型廠發(fā)展路線分化,格局動(dòng)態(tài)演進(jìn)推理需求有望爆發(fā),看好編程、Agent等應(yīng)用24OpenAI:C端份額領(lǐng)先,明年將發(fā)力企業(yè)業(yè)務(wù)25年4月發(fā)布GPT-4.1,上下文處理能力更強(qiáng);發(fā)布O3、O4-mini,首次實(shí)現(xiàn)了"用圖像思考"25年4月發(fā)布GPT-4.1,上下文處理能力更強(qiáng);發(fā)布O3、O4-mini,首次實(shí)現(xiàn)了"用圖像思考"的能力25年8月GPT-5幻覺率大幅降低,8實(shí)現(xiàn)了無需用戶切★24年5月GPT-4o支持文本/音頻/圖像輸入,實(shí)現(xiàn)了真正意義上的原生多模態(tài)處理25年1o3-mi24年1月ChatGPTTeam:面向小型團(tuán)隊(duì),$30/用戶/月(按月$25/用戶/月(按年);GPTs★24年5月GPT-4o支持文本/音頻/圖像輸入,實(shí)現(xiàn)了真正意義上的原生多模態(tài)處理25年1o3-mi24年1月ChatGPTTeam:面向小型團(tuán)隊(duì),$30/用戶/月(按月$25/用戶/月(按年);GPTs和24年7月GPT-4oMini增強(qiáng)版3.5",支持多模態(tài)6STEM優(yōu)化的推理模型Operator發(fā)布24年10月ChatGPT搜索功能發(fā)布Canvas:寫作與編程協(xié)作界面24年12月o1:支持圖像輸入且響應(yīng)更快,開啟了AI推理能力的新紀(jì)元;ChatGPTPro:$200/新增Go和JavaSDK的官方支持23年3月GPT-4新增圖像輸入支持,推理更強(qiáng),是424年6月Mac版ChatGPT發(fā)布,將ChatGPT集成到蘋果系統(tǒng)生態(tài)中月的開端正式上線;ChatG★23年8月的開端正式上線;ChatG★23年8供代碼 PT23年1ChatG釋器 PT23年1ChatG釋器面向大企業(yè)起價(jià)、收費(fèi)模式ChatGP024022402240324042405240624072408240924102411241225Q12505同而異25OpenAI:25年收入預(yù)計(jì)達(dá)到130億美元,2028年目標(biāo)1000億美元26?OpenAI當(dāng)前收入仍以C端訂閱26單位:百萬美元2024A2025E2026E2027E2028E2029E2030EOpenAI收入YoY訂閱AgentAPI調(diào)用直接調(diào)用通過Azure調(diào)用其他收入(廣告、電商抽傭)營(yíng)業(yè)成本收入分成(20%)云服務(wù)成本(推理成本)占收比毛利毛利率銷售&管理費(fèi)用費(fèi)用率研發(fā)費(fèi)用(主要為訓(xùn)練算力成本)費(fèi)用率3,7002,700-1,00080080%2007401,00027%13,000251%7,9762,9902,0351,62880%40710,1582,6007,55858%2,84222%6,04747%20,256156%30,000131%16,6087,4933,5342,82780%7072,36523,4006,00017,40058%6,60022%810027%60,000100%27,00013,3006,8505,48080%1,37012,85045,60012,00033,60056%14,40024%11400100,00067%38,00020,90012,4509,96080%2,49028,65072,00020,00052,00052%28,00028%13000150,00050%49%200,00033%經(jīng)營(yíng)利潤(rùn)-23,460OPM-180%Gemini:技術(shù)積累+高質(zhì)量數(shù)據(jù)+算力=SOTA并且在目前其他廠商(例如Grok)將大量資源投入到后訓(xùn)練情況下,Gemini預(yù)訓(xùn)練負(fù)責(zé)人認(rèn)為預(yù)?2)豐富的高質(zhì)量數(shù)據(jù)資源:谷歌搜索擁有Wiki這樣的高質(zhì)量文本數(shù)據(jù)(且搜索內(nèi)容質(zhì)量相對(duì)高于口語/網(wǎng)絡(luò)用語較多的社交媒體數(shù)據(jù))以及Youtube這樣高質(zhì)量的視頻數(shù)據(jù),且由于一開始就堅(jiān)持多模態(tài),因此對(duì)視頻數(shù)據(jù)的預(yù)處理也做的相對(duì)較好,02024/4/12024/5/12024/6/12024/7/12024/8/12024/9/12024/10/12024/11/12024/12/12025/1/12025/2/12025/3/12025/4/12025/5/12025/6/12025/7/12025/8/12025/9/12025/10/1Anthropic:Coding能力突出,是代碼開發(fā)場(chǎng)景的首選?Coding能力突出,是代碼開發(fā)場(chǎng)景的首選。Anthropic的勢(shì)頭起于2024年6月發(fā)布的ClaudeSonnet3.5,到了2025年2月的ClaudeSonnet3.7更是首次展示出“Agent優(yōu)先”的LLM雛形。到2025年5月,隨著ClaudeSonnet4、Opus4以及ClaudeCode的推出,其領(lǐng)先優(yōu)勢(shì)已被徹底坐實(shí)。根據(jù)Anthropic數(shù)據(jù),44%的流量都是與計(jì)算機(jī)和數(shù)學(xué)類職業(yè)相關(guān),細(xì)分的使用場(chǎng)景中前三名的分別是調(diào)試Web應(yīng)用程序、解決技術(shù)問題以及構(gòu)建專業(yè)商業(yè)軟件。此外,根據(jù)MenloVentures,目前Anthropic在企業(yè)大模型API市場(chǎng)份額達(dá)到32%,Coding市場(chǎng)份額則達(dá)到42%。?Anthropic的逐步趕超尤其是在編程領(lǐng)域的優(yōu)勢(shì)主要得益于1)創(chuàng)始人Amodei對(duì)于編程場(chǎng)景的重視;2)編程和推理場(chǎng)景由于有確定性的答案,因此尤其在RLVR出現(xiàn)后能得到明顯的能力提升。Amodei認(rèn)為代碼能力=頂級(jí)邏輯能力,在代碼中磨練出的“解決復(fù)雜問題的能力”,可以直接遷移到生物醫(yī)學(xué)、法律、數(shù)學(xué)和金融等嚴(yán)謹(jǐn)學(xué)科中。50%45%40%35%30%25%20%15%10%5%0%Claude.ai占比1PAPI占比計(jì)算機(jī)與數(shù)學(xué)辦公與行政支持教育、培訓(xùn)與圖書館生命、物理與社會(huì)科學(xué)藝術(shù)、設(shè)計(jì)、娛樂、體育與媒體商業(yè)與財(cái)務(wù)運(yùn)營(yíng)銷售及相關(guān)管理計(jì)算機(jī)與數(shù)學(xué)辦公與行政支持教育、培訓(xùn)與圖書館生命、物理與社會(huì)科學(xué)藝術(shù)、設(shè)計(jì)、娛樂、體育與媒體商業(yè)與財(cái)務(wù)運(yùn)營(yíng)銷售及相關(guān)管理△05900000△05900000△△△ a?首款Claude模型上線于23年3月,并在24年3月Claude3開始分為不同尺寸的版本,并且在Claude3Opus首次全面超越同時(shí)期的GPT-4。25年2月發(fā)布AI編程應(yīng)用ClaudeSparkCapital領(lǐng)投,谷歌、SVentures、SoundVentures、ZoomVentures等LightspeedVenturePartnersNVIDIA(100億),Micro資料來源:Anthropic、CBInsights、國(guó)信證券經(jīng)濟(jì)研究所整理首款商用模型;引入“憲法AI”Agent時(shí)代開啟;支持“擴(kuò)展思考”Anthropic:堅(jiān)持2B路線毛利率更優(yōu),最早有望27年迎來現(xiàn)金流轉(zhuǎn)正?Anthropic堅(jiān)持2B路線,主要服務(wù)于對(duì)穩(wěn)定性要求更高的客戶,是定價(jià)最貴的模型,百萬tokens輸出價(jià)格為25美元,遠(yuǎn)高于其他廠商的SOTA模型,因此Anthro練成本(研發(fā)費(fèi)用)占比將持續(xù)下降,預(yù)計(jì)27年Anthropic有望資料來源:artificialanaAnthropic:堅(jiān)持2B路線毛利率更優(yōu),最早有望27年迎來現(xiàn)金流轉(zhuǎn)正270億美元,Anthropic與多家云廠合作,亞馬遜ProjectRainier為公司提供約100萬顆Trainium芯片的算力支持,2), 資料來源:Theinformation、國(guó)信證券經(jīng)濟(jì)?商業(yè)化進(jìn)展:據(jù)AnthropicCEODarioAmodei,Anthropic過去三年收入每年增長(zhǎng)10倍,預(yù)計(jì)今年底將達(dá)到80億至100億美元ARR。據(jù)路 資料來源:Theinformation、國(guó)信證券經(jīng)濟(jì)單位:百萬美元單位:百萬美元2024A2024A25Q125Q125Q225Q225Q325Q325Q4E25Q4E2025E2025E2026E2026E2027E2027E2028E2028EARR1,6003,2005,0009,000收入3814008001,2502,2504,70015,20038,90070,000YoY223%156%80%營(yíng)業(yè)成本7392004006251,1252,3506,08011,67017,500營(yíng)業(yè)成本中云服務(wù)占比(推理成本)75%75%75%75%75%75%75%75%75%云服務(wù)成本(云廠收入)3004698441,7634,5608,75313,125毛利率-94%50%50%50%50%50%60%70%75%毛利潤(rùn)-3582004006251,1252,3509,12027,23052,500研發(fā)費(fèi)用(主要為訓(xùn)練算力成本)1,5004,0008,00012,83715,400研發(fā)費(fèi)用率394%85%53%33%22%銷售&管理費(fèi)用1,1753,0405,8357,000銷售&管理費(fèi)用率30%25%20%經(jīng)營(yíng)利潤(rùn)-1,972-2,825-1,9208,55830,100OPM-518%-60%-13%22%43%Grok:堅(jiān)持大力出奇跡,與特斯拉形成協(xié)同在于1)資金能力;2)協(xié)同條件(Grok今年已集成進(jìn)特斯拉迅速將算力資源投入到后訓(xùn)練,用10倍后訓(xùn)練算力投入推出了Grok4,迅速向SOTA基準(zhǔn)的看齊。并且馬斯克此前宣稱26年將主要聚焦GPU規(guī)模擴(kuò)張+電力設(shè)施自建,目標(biāo)2025年實(shí)現(xiàn)30萬GB200芯片集群(此目標(biāo)下僅GPU3,5003,0002,5002,0003,5003,0002,5002,0001,5001,0005000參數(shù)量(B)訓(xùn)練數(shù)據(jù)量(B)90,00080,00070,00060,00050,00040,00030,00020,00010,0000Grok-1Grok-1.5Grok-2Grok-3Grok4Grok4.1美股科技巨頭股價(jià)和資本開支復(fù)盤展望模型架構(gòu)繼續(xù)演化,Scalinglaw延續(xù),多模態(tài)+長(zhǎng)文本更成熟模型廠發(fā)展路線分化,格局動(dòng)態(tài)演進(jìn)推理需求有望爆發(fā),看好編程、Agent等應(yīng)用?推理需求主要反映在tokens消耗的增長(zhǎng)上,根據(jù)大模型聚合平臺(tái)OpenRouter數(shù)據(jù),25年的周?推理需求主要反映在tokens消耗的增長(zhǎng)上,根據(jù)大模型聚合平臺(tái)OpenRouter數(shù)據(jù),25年的周tokens消耗量已從年初的5000億增長(zhǎng)至年末的3.67萬億。從tokens消耗結(jié)構(gòu)看,編程是主要驅(qū)動(dòng)因素,并且從單次請(qǐng)求的tokens結(jié)構(gòu)來看,編程也是主要的增長(zhǎng)驅(qū)動(dòng)力,與編程相關(guān)的任務(wù)一直需要圖:OpenRouter周度tokens消耗情況最大的輸入上下文。推理側(cè)需求:25年更多使用場(chǎng)景聚焦在大模型企業(yè)內(nèi)部?盡管外部需求快速增長(zhǎng),但從結(jié)構(gòu)上看,25年各模型廠商的消耗更多還是聚焦于自身業(yè)務(wù)發(fā)展。例如谷歌Gemini,我們測(cè)算其內(nèi)部消耗占比約90%,OpenAI的模型tokens消耗則更多用于ChatGPT,國(guó)內(nèi)阿里、字節(jié)Tokens消耗也都以內(nèi)部場(chǎng)景占比更多。資料來源:Gemini、國(guó)信證券經(jīng)濟(jì)研究所整理測(cè)算資料來源:豆包、國(guó)信證券經(jīng)濟(jì)研究所整理?展望26年,1)隨著模型在多模態(tài)領(lǐng)域的突破,在視頻、音頻等場(chǎng)景的用量增加,預(yù)計(jì)推理側(cè)將迎來Tokens的進(jìn)一步大幅增長(zhǎng)(文本1個(gè)漢字大約消耗1個(gè)token,1秒1080p24幀視頻消耗2.5萬個(gè)tokens,1張圖像大約消耗4000個(gè)tokens資料來源:Gemini、國(guó)信證券經(jīng)濟(jì)研究所整理測(cè)算資料來源:豆包、國(guó)信證券經(jīng)濟(jì)研究所整理推理側(cè)需求:大模型降低軟件開發(fā)壁壘,成熟SaaS企業(yè)收入持續(xù)降速2015Q12015Q32016Q12016Q32017Q12017Q32018Q12018Q32019Q12019Q32020Q12020Q32021Q12021Q320222015Q12015Q32016Q12016Q32017Q12017Q32018Q12018Q32019Q12019Q32020Q12020Q32021Q12021Q32022Q12022Q32023Q12023Q32024Q12024Q32025Q12025Q3(預(yù)測(cè))2026Q1(預(yù)測(cè))推理側(cè)需求:需求上升,玩家重構(gòu),29年全球SaaS市場(chǎng)空間或達(dá)1萬億美元?SaaS代表的AI應(yīng)用市場(chǎng)長(zhǎng)期有望達(dá)到1萬億美元。據(jù)IDC數(shù)據(jù),預(yù)計(jì)2025年全球SaaS市場(chǎng)將達(dá)到5800億美元,同比+16%,并且2029年將達(dá)到近1萬億美元規(guī)模,長(zhǎng)期來看,SaaS市場(chǎng)都將成為AI應(yīng)用,但存在路徑的分化,部分公司被大模型替代,部分公司完成AI轉(zhuǎn)型,還有部分原生AI應(yīng)用貢獻(xiàn)增量。02020年2021年2022推理側(cè)需求:通用型、準(zhǔn)確度要求低的SaaS將被大模型替代?我們預(yù)計(jì)大模型會(huì)顛覆輕量級(jí)的工具,以及對(duì)準(zhǔn)確度要求沒有那么高的工具,比如營(yíng)銷工具、翻譯工具、郵件回復(fù)機(jī)器人等。?例如根據(jù)maginative,營(yíng)銷SaaSJasper在21年推出后,18個(gè)月達(dá)到15億美元估值,但是在ChatGPT推出后面臨巨大沖擊,只能通過裁員和戰(zhàn)略調(diào)整,將重心全面轉(zhuǎn)向大型企業(yè)客戶,通過深挖品牌定制構(gòu)筑護(hù)城河。 推理側(cè)需求:編程和企業(yè)Agent商業(yè)化落地最快公司業(yè)務(wù)簡(jiǎn)介AI相關(guān)進(jìn)展Duolingo語言學(xué)習(xí)App,以游戲化課程設(shè)計(jì)著稱25Q3DuolingoMax滲透率達(dá)到9%Salesforce企業(yè)級(jí)CRM與云計(jì)算服務(wù)提供商AI平臺(tái)Agentforce25Q3ARR突破5億美元,調(diào)用openai公司業(yè)務(wù)簡(jiǎn)介AI相關(guān)進(jìn)展Duolingo語言學(xué)習(xí)App,以游戲化課程設(shè)計(jì)著稱25Q3DuolingoMax滲透率達(dá)到9%Salesforce企業(yè)級(jí)CRM與云計(jì)算服務(wù)提供商AI平臺(tái)Agentforce25Q3ARR突破5億美元,調(diào)用openaitokens超過1萬億,Shopify全球電商平臺(tái),為中小企業(yè)提供建站與支付解決方案使用ShopifyMagic和Sidekick的商家,平均客單價(jià)(AOV)通常能提升15-20%,同時(shí)運(yùn)營(yíng)成本可降低30%Canva在線圖形設(shè)計(jì)平臺(tái),整合AI圖像生成與排版AI工具每月產(chǎn)生超過8億次交互Datadog云監(jiān)控與數(shù)據(jù)可視化平臺(tái)25Q3AI原生客戶貢獻(xiàn)了總收入的12%資料來源:Grandviewres推理側(cè)需求:從用戶量看,chatbot、內(nèi)容創(chuàng)作、AIcoding是主流應(yīng)用?據(jù)Similiarweb數(shù)據(jù),11月AI應(yīng)用網(wǎng)站流量數(shù)據(jù)來看,目前主要應(yīng)用場(chǎng)景集中在chatbot、coding、內(nèi)容創(chuàng)作(視頻、圖像、寫作生成編輯)、教育、搜索、AI角色陪伴等。流量排名前100的網(wǎng)站中,Chatbot類占比16%,Coding占Chatbot和內(nèi)容創(chuàng)作類產(chǎn)品為主,11月MAU超過2000萬的產(chǎn)品中,chatbotAIAICharacterAIAICharacter其他agent7%AIchatbots33%Generator7%AI視頻7%AISearchAI圖片26%9%2%2%2%9%3%3%9%3%4%6%6%5%4%5%5%AIChatBotsAICodeassistantAIImageGeneratorAICharacterGeneratorAIToolsforEducationAIVideoGeneratorsAISearchEngineAIWriterGeneratorAIPresentationMakerAIAgentAIContentDetectorProductivityAICustomerSupport其他40Cursor:AI編程龍頭,ARR達(dá)10億美元,估值近300億美元?Cursor是一款基于AI的代碼編輯器,由Anysphere團(tuán)隊(duì)在5、Claude、Gemini、Grok幾個(gè)目前最強(qiáng)模型,其自研模型Composer1于?商業(yè)化方面,根據(jù)公司官方數(shù)據(jù)及CBinsights,Curs864202023/122024/12024/22024/32024/42024/52024/62024/72024/82024/92024/102024/112024/122025/12025/22025/32025/42025/52025/62025/72025/82025/92025/102025/112023/122024/12024/22024/32024/42024/52024/62024/72024/82024/92024/102024/112024/122025/12025/22025/32025/42025/52025/62025/72025/82025/92025/102025/1141Manus:通用Agent,上線8個(gè)月ARR達(dá)到1億美元?Manus是一款通用Agent,其功能包括網(wǎng)站開發(fā)、PPT制作、圖Manus能夠直接執(zhí)行任務(wù)并交付結(jié)果,而非僅提供建議,設(shè)定目標(biāo)后自主規(guī)劃路徑,無需持續(xù)監(jiān)督,并且直接生42?25年3月發(fā)布,5月開放注冊(cè)后首日用戶突破100萬。10月Manus1.5發(fā)布,任務(wù)完成時(shí)間從15分鐘縮短到4分鐘以下。商業(yè)模式上結(jié)42$20/月?每月4,000積分?每天300刷新積分?日常任務(wù)深度研究?標(biāo)準(zhǔn)輸出專業(yè)網(wǎng)站$40/月?每月8,000積分?可定制使用量?滿足變化需求?Beta功能早期訪問$200/月?每月40,000積分?大規(guī)模任務(wù)處理?數(shù)據(jù)分析與批量生產(chǎn)?持續(xù)重度使用?企業(yè)級(jí)安全性?行業(yè)標(biāo)準(zhǔn)認(rèn)證?團(tuán)隊(duì)協(xié)作與管理?專屬支持服務(wù) Perplexity:從AI搜索到AIAgent,ARR接近2億美元然語言回答你的問題,并為每一個(gè)結(jié)論提供透明的引文來源。2025年7月,Perplexity推出了基于Chromium內(nèi)核的AI瀏搜索引擎可以執(zhí)行各種任務(wù),例如生成文章摘要、描述圖像、進(jìn)行主題研究、撰寫電子郵件、以及幫助電商購(gòu)物。10向全球全量上線,帶動(dòng)了Perplexity的訪問量達(dá)到峰值,但是伴隨競(jìng)爭(zhēng)),?Perplexity的商業(yè)模式包含廣告和訂閱,訂閱服務(wù)下,PerplexityPro的權(quán)益包括回答中更多的引用量、更新的外部模型以及圖像視資料來源:Comet、國(guó)信證券經(jīng)濟(jì)研究所整理資料來源:Comet、國(guó)信證券經(jīng)濟(jì)研究所整理02024年7月2024年8月2024年9月2024年10月2024年11月2024年12月2025年1月2025年2月2025年3月2025年4月2025年5月2025年6月2025年

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論