傳媒行業(yè)深度報告:海外AI年度復(fù)盤及財報綜述:狂歡將盡還是新周期開啟_第1頁
傳媒行業(yè)深度報告:海外AI年度復(fù)盤及財報綜述:狂歡將盡還是新周期開啟_第2頁
傳媒行業(yè)深度報告:海外AI年度復(fù)盤及財報綜述:狂歡將盡還是新周期開啟_第3頁
傳媒行業(yè)深度報告:海外AI年度復(fù)盤及財報綜述:狂歡將盡還是新周期開啟_第4頁
傳媒行業(yè)深度報告:海外AI年度復(fù)盤及財報綜述:狂歡將盡還是新周期開啟_第5頁
已閱讀5頁,還剩162頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

增持(維持)但我們認為,AI領(lǐng)域僅存在局部泡沫,而非系統(tǒng)性崩盤。AI基礎(chǔ)設(shè)施的實際使用生命周期遠超市場擔憂,推理需求爆發(fā)、Agent模式普及以生態(tài)位和優(yōu)劣勢;并按照橫向拆分為“OpenAI反應(yīng);與之相對,我們看好谷歌的全棧整合優(yōu)勢、原生多模態(tài)優(yōu)勢,業(yè)分化加劇、商業(yè)閉環(huán)驗證的關(guān)鍵年份,投資邏輯將從泛AI概念普漲轉(zhuǎn)向精選真實變現(xiàn)能力、成本優(yōu)勢與護城河的結(jié)構(gòu)性機會。偉達的傳統(tǒng)護城河帶來挑戰(zhàn)。英偉達通過收購Gv7全棧優(yōu)勢顯著,TCO遠低于英偉達方案,已向大規(guī)模輸出。亞馬遜Trainium2擴張最激進,計劃百萬級簽訂單已超Q3全季。盈利能力方面,2025Q3谷歌云利潤率提升至高估值、高負債與回款壓力交織,財報后股價大幅回調(diào)。CoreWeave放和大模型公司自建算力,正被兩端擠壓。主要依靠后訓(xùn)練優(yōu)化,用戶體驗改善有限甚至出現(xiàn)情感智能退化。而Gemini3Pro憑借原生多模態(tài)架構(gòu)與TPU硬件突破實現(xiàn)較明執(zhí)業(yè)證書:S0600525070007《25Q3業(yè)績綜述:利潤同比增長等新架構(gòu)探索長期記憶與推理時學(xué)習(xí)能力;推理模型消耗token量通模型5.5倍,Agent模式多模型并行調(diào)用進一步推高算力集中與執(zhí)行力優(yōu)勢,正推動中國從追趕向并跑轉(zhuǎn)變。編程與角色陪伴因數(shù)據(jù)閉環(huán)與情感粘性存活頑強。編程工具(Cursor、持貨幣化率,搜索收入增速企穩(wěn)回升;亞馬遜通過AI優(yōu)化物流效率、機器人部署;百度、阿里、騰訊將AI嵌入原有生態(tài)。這些價值難以量化,但直接轉(zhuǎn)化為全要素生產(chǎn)率提升。會正在浮現(xiàn)。投資邏輯不再是泛AI概念普漲,而是聚焦具備真實變現(xiàn)能力、成本優(yōu)勢與長期護城河的核心標的。我們維持看好AI產(chǎn)業(yè)鏈,合,展現(xiàn)強利潤韌性;亞馬遜則通過Trainium百萬級部署與AWS規(guī)模注MiniMax-WP與智譜。前者在多模態(tài)及角色陪伴場景實現(xiàn)較強商業(yè)化,后者搶占B端市場。港股互聯(lián)網(wǎng)公司中,我們推薦AI深度嵌入將驅(qū)動存量業(yè)務(wù)效率躍升與新增長曲線。緣政治導(dǎo)致算力約束進一步加劇 7 7 8 8 3.2.三巨頭的差異化:亞馬遜份額領(lǐng) 3.3.Neocloud的困局:居高不下 4.1.2025年:神話退場推理確立范式,工 4.2.2026年展望:深度打磨與 4.5.2.文本、編程、多模態(tài)各項 7 8 9 圖42:AIoverview的滲透 9 表3:三大云巨頭的折舊年限(年) 圖1:2025Q3關(guān)于AI泡沫的討論激增數(shù)據(jù)來源:GoogleTrend,DeutscheBankResearch,東吳證券研究所投資主要用于內(nèi)部生態(tài)優(yōu)化,對收入的拉動不夠清晰。Nebius以及IrisEnergy等二線算力公司的股價在財報季均遭遇了雙位數(shù)下跌,其中確定性盈利能力的軟件龍頭與云基礎(chǔ)設(shè)施巨圖2:科技公司財報披露先后的股價變化數(shù)據(jù)來源:wind,東吳證券研究所注:藍色底表示財報發(fā)布日我們認為,AI行情里存在泡沫成分,但AI產(chǎn)業(yè)本身不是泡沫。當下更像一輪由會把一部分標的推到偏熱的位置;但它并不等同于90年代末互聯(lián)網(wǎng)泡沫。的高額投入、2022-2023年的放緩與消化,以及2024年至今因GenAI需求而加速增在2023-2024年市場情緒樂觀時,業(yè)界普遍認為CapE舊壓力,質(zhì)疑折舊能否轉(zhuǎn)化為相應(yīng)收入,以及現(xiàn)金流是否足以支撐。如果現(xiàn)金流不足,圖3:海外大廠Capex(十億美元)0數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所表1:海外大廠Capex(億美元)2024A2025E2026E24Q124Q224Q324Q425Q125Q225Q325Q4E合計2504404247758364979577395811331177yoy61%62%64%75%Amazon830繼續(xù)增長226278250322351327yoy68%83%756持續(xù)增長200226214242349357yoy27%75%Alphabet920大幅增長224240284yoy75%70%83%99%392710顯著增長209yoy81%數(shù)據(jù)來源:公司公告,東吳證券研究所注:微軟財季分別為FY24Q3-FY26Q2E注2:2025年預(yù)計值按照公司指引區(qū)間的中值計算。25Q4E按照25年指引中值減掉25Q1-Q3累計值計算注3:2026年預(yù)測來自各公司業(yè)績電話會表述明確指出GPU供需平衡點將延至2026年年中,且未來兩年數(shù)據(jù)中心面積將翻倍。舊壓力將顯著加大。Meta管理層的判斷是:算力供不應(yīng)求,無論是核心業(yè)務(wù)還是新項微軟的策略更為務(wù)實。CapEx背后有明確的客戶需求支撐,F(xiàn)Y2谷歌的CapEx相對克制但增長確定,公司預(yù)計其2025年抵消資本壓力,通過軟件層面的持續(xù)優(yōu)化,以更少的硬件投入支撐更大的業(yè)務(wù)規(guī)模。表2:海外大廠Capex占收入和占OCF的比例24Q124Q224Q324Q425Q125Q225Q3Capex(百萬美元)Amazon14925176202262027834250193218335095Microsoft14000190002000022600214002420034900Alphabet12012131861306114276171972244623953Meta67158472920214836136921701219374Oracle1674279823033970586290808502capex/收入AmazonMicrosoft23%29%30%32%31%32%45%Alphabet23%23%Meta22%23%31%32%36%38%Oracle20%28%41%57%57%capex/經(jīng)營性現(xiàn)金流Amazon79%70%87%61%147%99%99%Microsoft44%51%59%101%58%57%77%Alphabet42%49%43%36%48%81%49%Meta35%44%37%53%57%67%65%Oracle31%46%31%304%99%147%104%數(shù)據(jù)來源:公司公告,東吳證券研究所注:微軟財季分別為FY24Q3-FY26Q1CapEx增長的驅(qū)動力主要源于訓(xùn)練端和推理端oftheart相較于2023-2024年更新迭代的頻率明顯加快。盡管OpenAI在2023-2024技術(shù)代差已顯著縮短,各家模型在智能指數(shù)上的分布日益密集。對于Meta和xAI等追趕者而言,需要依靠大規(guī)模算力投入來快速跟上一線實驗必須探索新的技術(shù)范式以保持領(lǐng)先優(yōu)勢,例如在Transformer架構(gòu)之后的下一代架構(gòu)。圖4:各家頭部廠商在榜單上的排名頻繁更迭數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所注:這張圖的縱軸代表ArtificialAnalysisIntelligenceIndex(人工智能分析智能指數(shù)是一個量化模型綜合能力的復(fù)合指標。該指數(shù)并非單一測試結(jié)果,而是匯總了10項評測集(包括GDPval-AA,GPQADiamond,SciCode,Humanity'sLastExam等重點考核模型在編程、復(fù)雜邏輯推理、科學(xué)計算以及專業(yè)領(lǐng)域知識上的表現(xiàn)。圖5:推理模型大量的tokens用于“打草稿”過程數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所注:這張圖表主要量化了不同AI模型在執(zhí)行同一套評測標準(ArtificialAnalysisIntelligenceIndexv3)時所消耗的“輸出Token”總量,展示了“推理模型”與“普通模型”在算力消耗上的差異。左側(cè)灰色背景區(qū)域聚集了Grok4、Gemini2.5Pro等推理模型,它們的平均算力消耗為77MTokens,其中淺色部分代表模型內(nèi)部進行邏輯推演的“推理Token”(即思維鏈深色部分才是最終呈現(xiàn)的“回答Token”;相比之下,右側(cè)白色區(qū)域的普通模型平均算力消耗為14MTokens,表明推理模型為了換取更強的邏輯解題能力,在生成過程中付出了普通模型數(shù)倍的算力消耗。圖6:OpenRouter平臺上推理模型的tokens消耗占比持續(xù)增長數(shù)據(jù)來源:OpenRouter,東吳證券研究所圖7:deepseekv3.2的交錯思維鏈數(shù)據(jù)來源:deepseek官網(wǎng),東吳證券研究所圖8:minimaxm2的交錯思維鏈數(shù)據(jù)來源:機器之心Pro,東吳證券研究所之所以要花費更多tokens在“思考”環(huán)節(jié),核心是因為推理算力定律(Test-time圖9:GPT-5.2通過消耗更多tokens來提升模型智能數(shù)據(jù)來源:新智元,東吳證券研究所成為Token消耗的主力。比如Cursor推出的多Agent模式,可以同時調(diào)用Sonnet、消耗模式將成為常態(tài),進一步推高對算力基礎(chǔ)設(shè)施的需求。圖10:cursor的多agent模式數(shù)據(jù)來源:cursor截圖,東吳證券研究所圖11:新發(fā)布的模型大多優(yōu)化了agent能力數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所圖12:OpenRouter上的tokens周度消耗量數(shù)據(jù)來源:OpenRouter官網(wǎng),東吳證券研究所市場擔心,在芯片快速迭代的背景下,6年折舊期或許過于樂觀每季度的折舊費用,高估了EPS和利潤率。表3:三大云巨頭的折舊年限(年)Amazon(AWS)333445566Alphabet(GoogleCloud)444444666444444666數(shù)據(jù)來源:cuberesearch,東吳證券研究所然而CubeResearch提出了一個有趣的觀點:AI基礎(chǔ)設(shè)施的生命周期邏輯通用服務(wù)器完全不同,頂級GPU不再用于訓(xùn)練最前沿模型時,并不會變成電子垃圾。AI基礎(chǔ)設(shè)施的生命周期可以分為三個階段:第一階段0-2年用于頂級模型訓(xùn)練;第二階段3-4年用于次級訓(xùn)練或微調(diào);第三階段5-6年以上用于推理。推理對顯存帶寬和精度的要求低于訓(xùn)練。隨著AI應(yīng)用爆發(fā),推理需求是訓(xùn)練的數(shù)倍。現(xiàn)在的H100表4:2025年六大云廠商的折舊年限Amazon(AWS)Alphabet(Google)Microsoft(Azure)Nebius數(shù)據(jù)來源:cuberesearch,東吳證券研究所圖13:OpenAI相關(guān)的合作(截至2025年11月)數(shù)據(jù)來源:CNBC,東吳證券研究所表5:OpenAI相關(guān)合作(部分)NVIDIAOpenAI承諾在未來五年內(nèi)購買價值約3000億美元的計算能力,平均每年約600雙方簽署戰(zhàn)略協(xié)議,OpenAI使用penAI,英為財經(jīng),CNBC,東吳證券研究所的形式租給AI公司。第四,AI公司如O債務(wù)讓循環(huán)訂單變得更加危險。在2023至2024年間,AI產(chǎn)業(yè)主要依靠股權(quán)融溫和上升態(tài)勢。而新興AI公司的融資成本在飆升。例如xAI率反映出市場對新興AI公司盈利能力的懷疑??刂茩?quán)讓渡等限制性條款。這種向影子融資體系的遷移,是一個危險的信號。其余80%資金來自外部投資者或國家資本。這種表外融資方式既降低了自身從根本上改變整個行業(yè)的融資結(jié)構(gòu),但同時也可能將風(fēng)險擴散到更廣泛的金融體系中。表6:2025年海外AI公司發(fā)債情況總結(jié)元股權(quán)融資和125億美元的債務(wù)融資。債務(wù)部分Alphabet準普爾溝通確保不影響公司投資評級。數(shù)據(jù)來源:智通財經(jīng),澎湃新聞,第一財經(jīng),證券時報網(wǎng),東吳證券研究所證周期(可能更長)之間的錯配。市場既擔心投入無法來看,上游硬件環(huán)節(jié)基本不存在泡沫,云服務(wù)層面的云巨頭(Hyperscaler新云公司(Neocloud)風(fēng)險較高,與此同時,OpenAI的戰(zhàn)略缺乏聚焦,從最初的toC訂閱轉(zhuǎn)向同時布局toB、企業(yè)第二個陣營以Anthropic和谷歌為代表,策略更加穩(wěn)健和聚焦。Anthropic是從金流。正是因為Anthropic選擇了更聚焦的戰(zhàn)略,主攻toB市場,專注于編程能力。作圖14:OpenAIARR(十億美元)圖15:AnthropicARR(十億美元)數(shù)據(jù)來源:ARRClub,東吳證券研究所數(shù)據(jù)來源:ARRClub,東吳證券研究所圖16:OpenAI收入和自由現(xiàn)金流預(yù)測(十億美元)圖17:Anthropic收入和自由現(xiàn)金流預(yù)測(十億美元)數(shù)據(jù)來源:Fortune,東吳證券研究所注:2025-2030年為預(yù)測值,由Fortune根據(jù)openAI管理層相關(guān)表述進行預(yù)測數(shù)據(jù)來源:Fortune,東吳證券研究所注:2025-2030年為預(yù)測值,由Fortune根據(jù)anthropic管理層相關(guān)表述進行預(yù)測價開始顯著顯現(xiàn)。表7:AI產(chǎn)業(yè)鏈各環(huán)節(jié)的商業(yè)模式一旦成本曲線顯著下移,模型公司的高毛利潛力將迅速釋放,利潤彈性可觀。的先行優(yōu)勢和深厚的軟件生態(tài),長期占據(jù)市場主導(dǎo)地位。然而,隨著AI應(yīng)用大規(guī)模落偉達看似穩(wěn)固的護城河之下,已開始出現(xiàn)裂痕。時代的基礎(chǔ)設(shè)施提供商,如同電力公司”。明確的時間表。這種持續(xù)的“供不應(yīng)求”狀態(tài),短期雖能維持其定價優(yōu)提升。這標志著AI產(chǎn)業(yè)正從集中式的模型訓(xùn)練階段,進入大規(guī)模、分布式的應(yīng)用推理折點。因為推理場景恰恰是ASIC最所有冗余模塊,從而在相同制程下實現(xiàn)更高的能效比和更低的單位成本。片初創(chuàng)公司Groq的核心資產(chǎn)和技術(shù)知識協(xié)議,將核心技術(shù)、專利和包括創(chuàng)始人Ross在內(nèi)的多名高管團隊轉(zhuǎn)向英偉達。在對手轉(zhuǎn)化為自身優(yōu)勢。黃仁勛表示,將把Groq處理器融入展對實時推理負載的支持。這種“既進攻又防守”的布局,不僅消除了一個獨立競爭者,還通過挖角TPU核心團隊,進一步強化生態(tài)壁壘。類似于當年收購M技術(shù)參數(shù),而是將其融入公司整體AI基礎(chǔ)設(shè)的v7Ironwood,其能效比前代提升一倍。谷歌不將TPU作為獨立商品出售,而深度整合為云服務(wù)競爭力的基石。Gemi谷歌云業(yè)務(wù)2025Q3營收增長35%,營業(yè)利潤率在折舊增加的背景下逆勢提升至交付周期焦慮時,谷歌已握有供應(yīng)鏈安全與成本優(yōu)化的雙重主動權(quán)。2025年11月,SemiAnalys從硬件規(guī)格看,TPUv7在峰值算力、內(nèi)存帶寬與容量(采用8-HiHBM3E)等關(guān)鍵指標上,已基本追平英偉達Blackwell架構(gòu)GPU,僅通用可用性落后約一年。其設(shè)計強視角看,其全成本比英偉達GB200服務(wù)器低約44%;對外部GCP客戶而言,成本仍低息的推理場景中,TPU在內(nèi)存帶寬的性價比與實際利用率方面表現(xiàn)突出。表8:TPUv7對比GB200/GB300芯片數(shù)據(jù)來源:semianalysis,東吳證券研究所用,整體交易規(guī)模巨大。此舉為Anthropic顯著節(jié)約了資本支出,并帶動了Neocloud服務(wù)商與數(shù)據(jù)中心供應(yīng)商的協(xié)同合作。其他新客戶還包括Meta、SafeSuperintelligence、示谷歌正積極將其硬件優(yōu)勢向外輸出。本與全棧優(yōu)化上的優(yōu)勢,已開始動搖英偉達長期依賴的開發(fā)者生態(tài)壁壘。果說英偉達是向所有淘金者“賣鏟子”,那么谷歌則圖18:Anthropic公司在算力硬件(計算資源)組合上的演變趨勢數(shù)據(jù)來源:semianalysis,東吳證券研究所在三大云巨頭中,亞馬遜對自研芯片的推進最為激進,姿態(tài)也最為高調(diào)。CEO在非常清晰:為客戶提供選擇權(quán),讓工作負載運行在最合適的芯片上。微軟在AI時代圍繞能源、芯片與數(shù)據(jù)中心展開程度上來自于其戰(zhàn)略核心建立在對OpenAOpenAI的需求發(fā)生變化或進展放緩時,微軟龐大的基為支撐AzureAI基礎(chǔ)設(shè)施,其在2025財年豪擲約800億美元資本支出,大部分用于數(shù)據(jù)中心擴張與能源保障。微軟已從被動采購轉(zhuǎn)向主動掌控,與Brook獨享其835兆瓦的電力輸出。此外,微軟還探索現(xiàn)場燃氣發(fā)電、直連電廠的的最大瓶頸,迫使微軟深度介入能源供應(yīng)鏈的源頭。定等問題,推遲到至少2026年,其能否有效抗衡英偉達B軟已調(diào)整路線圖,降低了后續(xù)芯片的激進目標,轉(zhuǎn)向更可靠的迭代(如202遲不敏感的推理任務(wù)。標志性項目包括,投資超70億美元的威斯康星州Fairwater超級史無前例的程度,整個芯片行業(yè)都被調(diào)動起來:傳統(tǒng)玩推動推理硬件向邊緣設(shè)備下沉。例如中國KimiK2模型,已經(jīng)能在普通MacBook上復(fù)這與英偉達開放的CUDA生態(tài)形成了鮮明對比。像TPU這樣的廠商內(nèi)部專用芯片,雖是規(guī)模差異,更深層次地反映了商業(yè)模式的本質(zhì)差異和產(chǎn)業(yè)鏈價值分配的殘酷現(xiàn)實。客戶為了確保未來幾年的競爭力,愿意接受更高的價格并提前簽訂長期合同。級AI需求的爆發(fā),且其加權(quán)平均期限僅為2年,意味著這些海量積壓訂單將在短期報中,雖然RPO為2000億美元,但10月份未計入統(tǒng)計的新交易量已超過整個Q3表9:云廠商儲備訂單余額大增云廠商季度RPO增速備注OracleFY26Q25230億美元yoy+438%qoq+15%本季度RPO的爆發(fā)式增長主要由Meta和NVIDIA等大客戶的新合同驅(qū)動。此外,通過與AWS、Azure和GoogleCloud的深度合作,多云數(shù)據(jù)庫消費同比增長了817%。微軟FY26Q13920億美元yoy+51%AI需求強勁,尤其是在Azure云服務(wù)方面,需求持續(xù)超谷歌CY25Q31557億美元yoy+82%qoq+46%谷歌云在Q3簽署了比過去兩年總和還要多的10億美元以上大單。增長主要與企業(yè)級AI需求相關(guān)。AWSCY25Q32000億美元qoq+2.6%增速相對平穩(wěn),10月新簽訂單已超過Q3總和,顯示出強勁的后續(xù)勢頭。數(shù)據(jù)來源:公司公告,東吳證券研究所收入增長方面,三家公司都實現(xiàn)了超預(yù)期表現(xiàn)。谷強的市場統(tǒng)治力。微軟的Azure及其他云服務(wù)收入增長39%,大幅超出管理層此前給圖19:云業(yè)務(wù)收入同比增速對比:微軟Azure/GoogleCloud/亞馬遜AWS數(shù)據(jù)來源:appeconomyinsights,東吳證券研究所顯著提升,營業(yè)利潤同比增長192%。這種盈利能力的快速改善,利潤率達到49%,但微軟云的毛利率卻在下降,第三季度為68%,第四季度指引進一步降至66%。管理層將此歸因于對AI的持續(xù)投資以及向Azur力,是微軟區(qū)別于純基礎(chǔ)設(shè)施提供商的核心競爭力。圖20:2025Q3全球云服務(wù)市場市場份額數(shù)據(jù)來源:SynergyResearchGroup,新智元,東吳證券研究所還不包括2025年10月的幾筆大單的是務(wù)實的技術(shù)路線——Trainium2自研芯片已成為Anthropic微軟的差異化在于企業(yè)級生態(tài)的深度綁定。Office套件全球超10億用戶、Azure品天然具備分發(fā)優(yōu)勢。Copilot能在短時間內(nèi)覆蓋數(shù)千萬企業(yè)用戶,不是因為產(chǎn)品有多個Office加Azure體但OpenAI深度綁定是把雙刃劍。一方面,2500億美元Azure訂單鎖定了未來5-7年的現(xiàn)金流,GPT系列模型的領(lǐng)先地位為微軟提供了技術(shù)支撐。另一方面,微軟些分成收入相對于微軟確認的41億美元權(quán)益法虧損而言微不足道,說明微軟在反而暴露出大而全的遲鈍。單明了的GPU租賃清單。這種模式精準擊中了AI公司的核心痛點——“我不需要200項服務(wù),我只需要最新最快的GPU”。圖21:Coreweave和Lambda官網(wǎng)界面是一目了然的算力租賃清單數(shù)據(jù)來源:CoreWeave官網(wǎng),Lambda官網(wǎng),東吳證券研究所CoreWeave能夠快速崛起,主要是因為抓住了一個時間窗口:AI大模型訓(xùn)練對GPU算力的需求爆發(fā)式增長,但傳統(tǒng)云計算巨頭的GPU供應(yīng)來不及響應(yīng)。在這個供占了市場份額。即便是自己擁有龐大云基礎(chǔ)設(shè)施的微軟,也不得不與CoreWeave簽訂CoreWeave的盈利模式與房地產(chǎn)開發(fā)商高度相似:房地產(chǎn)開發(fā)商拿地建房賣房,而CoreWeave采購GPU建數(shù)據(jù)中心出租算力。關(guān)鍵區(qū)別在于:房子可以這種商業(yè)模式本質(zhì)上是在對賭三個變量:GPU供應(yīng)持續(xù)緊張才能維持高租金、AI圖22:Coreweave的商業(yè)模式數(shù)據(jù)來源:Coreweave25Q2earningsdeck,東吳證券研究所全年指引的中值倒推,2025Q4的財務(wù)圖23:Coreweave財務(wù)表現(xiàn)百萬美元24Q124Q224Q324Q425Q125Q225Q325Q4E收入189395584747982121313651541YOY207%QOQ28%31%24%經(jīng)調(diào)整Capex25742237241129376355630%651%383%323%242%412%QOQ-13%8%-23%-37%244%折舊和攤銷8024336544355963042%41%42%49%45%46%46%利息費用26426731122%20%27%22%23%經(jīng)調(diào)整經(jīng)營利潤2585200217利潤率21%21%8%經(jīng)調(diào)整凈利潤-240-36-150-131-41利潤率-13%-1%0%-5%-15%-11%-3%數(shù)據(jù)來源:Wind,東吳證券研究所注:25Q4E數(shù)據(jù)根據(jù)公司全年指引的中值,減掉25Q1-25Q3合計值計算得到Nebius面臨著與CoreWeav圖24:Nebius財務(wù)表現(xiàn)24Q124Q332165%2269%2473%-81-251%24Q124Q332165%2269%2473%-81-251%-28-87%24Q27%973%90%-96-792%-38-313%24Q43827%3388%-149-394%-85-224%25Q2769%90%7571%7572%-111-106%-59-56%25Q155389%46%2647%4989%-130-234%-70-127%25Q3355%39%71%9968%-130-89%-82-56%收入yoyqoq322%322%978%-81-715%-73-644%利潤率折舊攤銷占比收入經(jīng)營利潤利潤率經(jīng)調(diào)整凈利潤利潤率數(shù)據(jù)來源:Wind,東吳證券研究所第一,對于Hyperscaler而言,AI不是全部業(yè)務(wù),而CoreWeave、Nebius這類第二,Neocloud公司的融資成本顯著高于Hyperscaler。根據(jù)semianalysis,第三,Neocloud公司缺乏可持續(xù)的算力市場,這幾乎是不可能的任務(wù)。先收錢后發(fā)貨,現(xiàn)金流非常健康;而CoreWeave是先采購GPU、建數(shù)據(jù)表10:三類云廠商的商業(yè)模式對比數(shù)據(jù)來源:semianalysis,東吳證券研究所和下游的OpenAI等大模型公司之間,既要承受英偉達的高圖25:Coreweave兩次財報后股價大跌(美元)數(shù)據(jù)來源:Wind,東吳證券研究所我們認為云服務(wù)市場既是AI革命最直接的受益者與基礎(chǔ)設(shè)施支柱,同時也正在從成熟寡頭階段邁向新一輪劇烈變革的戰(zhàn)場。當前云市場已經(jīng)被AWS、Microsofttoken計費天然匹配云的彈性擴展能力:用戶只需為實際消耗的智能付費,無需提前采購固定算力。這種模式不僅提高了云服務(wù)的粘性,還讓云廠商能夠直接捕捉AI應(yīng)用層前沿的模型和最優(yōu)的推理價格。三大云已經(jīng)在搶占這一高地“模型+云”的捆綁策略,進一步強化了云廠商的護城河,讓新興玩家很難從零開始挑期看,一旦這些專用芯片的供應(yīng)放量、生態(tài)開放,云市場整體的推理價格會加速下降,模型大幅降低了企業(yè)構(gòu)建AI應(yīng)用的門檻,更多公司會選擇在云上部署開源模型進行微服務(wù),還通過開源模型和自主芯片構(gòu)建了相對獨立的AI生態(tài)。這的成功證明了低成本路線的可行性,推高了對推理效率的重視。展望20歸;Anthropic在B端編程領(lǐng)域建立壁壘。中國仍處群市場份額迅速增長,正對海外高定價模式形成圖26:新模型發(fā)布節(jié)奏越來越快,SOTA模型的競爭仍然激烈數(shù)據(jù)來源:《2025GlobalscapeReport》,東吳證券研究所個行業(yè)心態(tài)的轉(zhuǎn)變。這一年,行業(yè)從追逐神話般的AGI突破,轉(zhuǎn)向了扎扎實實的工程與此同時,市場期待已久的GPT-5并未帶來想象中的質(zhì)變,打破了很多人對指數(shù)級躍遷的幻想。SamAltman本人也在多個場合坦承,當前不會出現(xiàn)巨大的突變。對有聲視頻生成的突破引發(fā)了行業(yè)追逐戰(zhàn)。Google的優(yōu)勢在于垂直整合能力——自研形成了獨特的協(xié)同效應(yīng)。OpenAI則越來越像一家產(chǎn)品公司,Sora2的成功更多依賴SamAltman的個人IP和產(chǎn)品封裝能力,技術(shù)代差其實沒有市場認知中那么大。中國市場這一年最顯著的特征是開源生態(tài)的興起。DeepSeek和通義千問引領(lǐng)的開besodifferent.Like,itwouldbedifferentforsure.Butisthebresearchagain,justwithbigcomputers.”)代(ageofresearch當前最缺的是新的idea、新的學(xué)習(xí)范式、更好的泛化機制(比如遇了持續(xù)挫折。原本計劃作為GPT-5基礎(chǔ)的Orion項目訓(xùn)練時間嚴重超4.2也毫不違和。這進一步印證了單純在現(xiàn)有范式上繼續(xù)scaling后訓(xùn)練的邊際收益正在圖27:SemiAnalysis披露:chatgpt在GPT-4o之后沒有在預(yù)訓(xùn)練環(huán)節(jié)實現(xiàn)突破數(shù)據(jù)來源:SemiAnalysis,東吳證券研究所與此同時,得益于TPUv7硬件的突破以及原生多模態(tài)架構(gòu)pro在推理深度、長上下文連貫性、多模態(tài)整合以及復(fù)雜問題泛化能力上實現(xiàn)了較為明拉開了與同期OpenAI模型的差距,許多實測用戶反饋其響應(yīng)質(zhì)量和實用性更勝一籌,預(yù)訓(xùn)練研究與scaling并重,而在關(guān)鍵節(jié)點實現(xiàn)了相對更大的突破。這正呼應(yīng)了Ilya2026年大語言模型的核心任務(wù)不再是及針對長程依賴的專項訓(xùn)練。的AIAgent需要具備:任務(wù)分解與規(guī)劃能力,把復(fù)雜目標拆解為可執(zhí)行步驟;工具調(diào)能力,發(fā)現(xiàn)問題后能自我糾正而非一條路走到黑。2025年我們看到了Claude的ComputerUse、GPT的CodeInterpreter等早期嘗試,2026年可能會出現(xiàn)更成熟的Agent框架,模型與外部系統(tǒng)的交互將從單次調(diào)用進化為持續(xù)協(xié)作。圖28:模型的agent能力持續(xù)提升數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所注:縱軸為模型的agent能力評分說八道都可能造成嚴重后果。2026年的應(yīng)對策略可能包括:檢索增強生成RAG的深正像助理而不是像搜索框,意圖識別會比再提升一點benchmark分數(shù)更重要。5)思維鏈的演化。從早期的chainofthought走向treeofthought——不再沿單一的繼續(xù)擴展。國內(nèi)也出現(xiàn)“交錯思維鏈”的實踐:每一輪工具調(diào)用前后都插入短思考,把“思考—調(diào)用—再思考”的循環(huán)訓(xùn)練得更穩(wěn)定、更可控。6)更高的性價比。新的競爭維度正在變成“單位token的能力”——同樣的效果,到推理成本的大幅下降,Claude4.5Opus相比Claude4.1Opus成本降低80%以上。及硬件層面的推理優(yōu)化,特別是針對Transformer一個數(shù)量級,AI的定價模型就能從按次收費逐步走向被產(chǎn)品化、被打包、被嵌入到現(xiàn)去,現(xiàn)金流的改善反過來又能支撐下一輪算力投入。圖29:同等智能程度的模型的Token定價快速下降。數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所規(guī)模(例如20–30T量級)與訓(xùn)練穩(wěn)定性、收益回報之間的矛盾會更突過與環(huán)境的持續(xù)交互、自我試錯與知識內(nèi)化,實現(xiàn)能力躍升。這不僅能突破數(shù)據(jù)瓶頸,也將大幅提升模型在長上下文、復(fù)雜任務(wù)上的表2025年11月,谷歌團隊發(fā)布論文NestedLearning:AnewMLparadigmforcontinual圖30:NestLearning技術(shù)原理示意圖數(shù)據(jù)來源:IntroducingNestedLearning:AnewMLparadigmforcontinuallearning,東吳證券研究所圖31:HOPE在語言建模和常識推理任務(wù)上表現(xiàn)出更低的困惑度和更高的準確率數(shù)據(jù)來源:IntroducingNestedLearning:AnewMLparadigmforcontinuallearning,東吳證券研究所左圖中:左側(cè)分組的縱軸代表困惑度(Perplexity,PPL在語言建模任務(wù)中,困惑度是衡量概率模型預(yù)測樣本好壞的指標。數(shù)值越低,代表模型對下一個token的預(yù)測越確定,生成的文本越自然流暢。這里的縱軸數(shù)值(約10-20之間)表示模型在1.3B參數(shù)或100B訓(xùn)練量下的困惑度得分。右側(cè)分組的縱軸代表準確率(Accuracy/%),這部分展示的是模型在常識推理任務(wù)上的表現(xiàn)。此時縱軸的數(shù)值(約50-60之間)代表模型回答正確的比例。右圖:展示了不同模型架構(gòu)在“大海撈針”(Needle-In-A-Haystack,NIAH)任務(wù)上的表現(xiàn)??v軸的數(shù)值范圍從0到100,代表的是檢索成功的百分比或準確率。具體來說,NIAH測試是在極長的文本(Haystack)中插入特定的信息(Needle然后要求模型將其找出來。圖中的三個分組(NIAH-PK,NIAH-H,NIAH-W)分別代表不同類型的查找任務(wù)(如Pass-key密鑰查找、Number數(shù)字查找、Word單詞查找)??v軸數(shù)值越高(越接近100說明該模型在長上下文語境中丟失信息的情況越少,記憶和檢索能力越強。NestedLearning為AI開辟了一個全新設(shè)計就可能觸發(fā)權(quán)重更新,相當于在推理階段引入了類似在線學(xué)習(xí)的梯度計算,這谷歌從2025年4月開始的加速趨勢,以及國內(nèi)豆包兩個月內(nèi)日消耗增長20萬但允許用戶輸入知識并讓模型“永久記住”也帶來了新的風(fēng)險。人類用戶可能故意輸入錯誤、有害或極端偏見的內(nèi)容,一旦被深層記憶接納,就可能造成難以逆轉(zhuǎn)的污染,這比通過上下文臨時引入錯誤信息要更危險。③技術(shù)難度:多層級、多時間尺度的記憶網(wǎng)絡(luò)更新如何實現(xiàn)?在實踐中如何確定更新頻率、如何區(qū)分哪些信息值得進入中層或深層記憶、如何防止淺層噪聲向上污染,都還沒有清晰、可規(guī)?;墓こ谭桨?。大多數(shù)討論仍停留在概念驗證供方共同承擔“千人千面”小模型的維護成本,把個性后才允許進入深層記憶,從而把數(shù)據(jù)污染風(fēng)險控制在可接受范圍內(nèi)。是2026年的主流,但它讓我們看到了一個非常重要的可能性:讓AI從“一次性訓(xùn)靜態(tài)統(tǒng)計機器”真正向“能持續(xù)成長的認知系統(tǒng)”邁進。在這個意義上,我們對這一方向人角色。圖32:多模態(tài)大模型和全模態(tài)大模型的區(qū)別數(shù)據(jù)來源:QuestMobile,東吳證券研究所根據(jù)2025年4月發(fā)布的論文ScalingLawsforNativeMultimodalModels,晚期融合圖33:原生多模態(tài)模型的Scaling特性數(shù)據(jù)來源:ScalingLawsforNativeMultimodalModels,東吳證券研究所注:左圖的縱軸ValidationLoss代表驗證集損失,是衡量模型性能的核心指標(數(shù)值越低越好它反映了模型預(yù)測結(jié)果與真實結(jié)果之間的差距;圖表展示了隨著計算量(FLOPs)的增加,不同架構(gòu)模型的錯誤率都在遵循特定的冪律曲線穩(wěn)步下降。右圖的縱軸N/D則代表最優(yōu)模型參數(shù)量(N)與訓(xùn)練數(shù)據(jù)量(D)的比值。這是一個用于指導(dǎo)“資源配置”的關(guān)鍵指標,它回答了這個問題:當我有更多的算力預(yù)算時,應(yīng)該優(yōu)先把模型做得“更大”(增加N還是應(yīng)該讓它學(xué)得“更多”(增加D)。圖中可以看出,MoE架構(gòu)(綠色虛線)的走勢與其他架構(gòu)不同,隨著算力規(guī)模擴大,其比值顯著下降,這意味著對于MoE模型來說,在擴大規(guī)模時,大幅增加訓(xùn)練數(shù)據(jù)量(D)比單純增加參數(shù)(N)更具性價比。2024年Sora的發(fā)布是世界模型的早期信號——它不是簡單地生成視頻,而是在表11:世界模型進展模型NVIDIA騰訊圖片生成完整的、可交互的360°全景3D世界度一致性與細節(jié)記憶能力(預(yù)覽版)(正式商用)騰訊數(shù)據(jù)來源:華爾街見聞,36氪,澎湃新聞,觀察者網(wǎng),騰訊混元官網(wǎng),東吳證券研究所在新環(huán)境中的適應(yīng)成本,讓機器人能夠像人類一樣通過常識推理來應(yīng)對未見過的情況。同步,NeurIPS等頂級會議的主題和機構(gòu)分析同樣顯示,機器人研究正2025年,盡管文本生成和圖像生成仍是Hug從第41位躍升至第6位。這類模型在統(tǒng)一架構(gòu)下同時處理多種輸入優(yōu)化。這種轉(zhuǎn)變不僅體現(xiàn)在開源社區(qū)的模型發(fā)布動態(tài)中,也與學(xué)術(shù)會議熱點高度重合。合這些交叉領(lǐng)域。圖34:2022-2025年huggingface上各類別模型數(shù)量排行榜數(shù)據(jù)來源:huggingface,東吳證券研究所圖35:LMArena上的模型綜合排行榜(截至2025年12月30日)數(shù)據(jù)來源:LMArena,東吳證券研究所注:不同于其他排行榜,LMArena的特點在于它的結(jié)果是根據(jù)用戶測評和投票結(jié)果統(tǒng)計出來的。這種機制可以規(guī)避模型因“刷題”導(dǎo)致的榜單排名與用戶實際體驗不一致的問題。因此,它相對更貼近用戶的實際體驗。策略和Agent化轉(zhuǎn)型來實現(xiàn)。OpenAI顯然意識到了這一點,正在將ChatGPT從單純的對話工具轉(zhuǎn)變?yōu)槿苤郑伤阉?、文件處理、代碼執(zhí)行、圖像生成等多種功能。圖36:ChatGPT全球月度活躍用戶數(shù)(百萬人)數(shù)據(jù)來源:財經(jīng)M平方,東吳證券研究所甚至引發(fā)了大量的用戶吐槽,主要集中在:械地執(zhí)行指令,而4o版本則能夠在保持理性的同時提供情感驗證。這說明u在基礎(chǔ)能力層面也出現(xiàn)了倒退。簡單的字母計數(shù)問題成了翻車重災(zāi)區(qū),問和競品。一刀切了,然后在用戶的一片吐槽聲中又把圖37:SimpleBench的大語言模型排行榜(截至2025/12/30)數(shù)據(jù)來源:simplebench,東吳證券研究所注:SimpleBench是一個由AIExplained推出的基準測試,專門測AI的常識推理能力,包括時空推理、社會常識、語言陷阱題等,總共200多道多選題。它設(shè)計得相對“簡單”,高中生水平就能輕松答對(人類基準:83.7%但AI模型常栽跟頭,因為它們靠記憶和近似推理,容易忽略現(xiàn)實邏輯或上當。不同于MMLU/GPQA那種AI能刷高分的學(xué)術(shù)題,SimpleBench更接地氣,測的是“像人一樣思考”而不是死記硬背。解方面做得更好。OpenAI可能過于追求效率和推理速度,而犧牲了回答的完整性和可圖38:2023-2025全球主要AI平臺的訪問量份額數(shù)據(jù)來源:Similarweb,東吳證券研究所圖39:2025年通用chatbot的網(wǎng)頁訪問量增速數(shù)據(jù)來源:Similarweb《globalAItracker》,東吳證券研究所注:12wkchange指的是當期兩周訪問量相較于三個月前的兩周訪問量增速外還有硬件等新業(yè)務(wù)探索。強、客單價更高,這條路徑的ARR敘事更加清晰可驗證。遷移成本就會變得很高,這為Anthropic提供了穩(wěn)定的收入基礎(chǔ)。圖40:不到一年時間,ClaudecodeARR已達10億美元數(shù)據(jù)來源:ARRClub,東吳證券研究所訓(xùn)練方法、產(chǎn)品設(shè)計上持續(xù)優(yōu)化的結(jié)果。在Open圖41:openrouter平臺上編程場景中各個模型的tokens消耗份額數(shù)據(jù)來源:OpenRouter,東吳證券研究所接在一起,而是從底層就將文本、圖像、視頻統(tǒng)一到一個向量空間進行訓(xùn)練。3D理解、視覺推理等場景中形成了稀缺性壁壘。在世界模型方向上,DeepMind發(fā)布的Genie展現(xiàn)了通向AGI的另一條可能路徑。經(jīng)驗在世界模型的構(gòu)建中將發(fā)揮重要作用。我們認為Gemini在搜索和廣告場景的嵌入將進一步帶來收入增長。GoogleAIOverviews(以下簡稱AIO)是谷歌基于Gemin(對話式搜索界面)和多模態(tài)響應(yīng)(如圖像、部分場景下高達34.5%甚至更多,尤其對信食品飲料、新聞)流量波動較大,而交易型和本地查詢受影響相對較小。圖42:AIoverview的滲透率持續(xù)增長,其中commercial/transaction/navigationalinformation滲透率仍有提升空間數(shù)據(jù)來源:Advancedwebtracking,東吳證券研究所此外,近期Google還發(fā)布了新瀏覽器Disco(截至202圖43:谷歌disco瀏覽器界面數(shù)據(jù)來源:googlelabs官網(wǎng),東吳證券研究所Apple和微軟在模型側(cè)的策略更加務(wù)實。A微軟則通過戰(zhàn)略投資OpenAI獲得了模型能是模型的直接競爭者。這種定位讓微軟既能享受AI浪潮帶來的域的業(yè)務(wù)積累,也為千問提供了豐富的應(yīng)用場景和數(shù)據(jù)來源。這種全方位的資源支持,DeepSeek則是在算法創(chuàng)新上走在前面,稀疏注意力機制的應(yīng)用讓它在成本控制上有優(yōu)勢,同時保持了較好的性能。傳統(tǒng)的注意力機制需要計算每個token與所有其他token的關(guān)系,計算復(fù)雜度是平方級的。而稀疏注意力機制通過各種方法只計算最重要存儲與動態(tài)計算分離,來增強Transformer骨干網(wǎng)絡(luò)。DeepSeek把稀疏性從條件計算模型的差距。圖44:Deepseek系列模型發(fā)布時間線數(shù)據(jù)來源:AheadofAI,東吳證券研究所表12:Deepseek系列模型的關(guān)鍵創(chuàng)新點V3MLA(多頭潛在注意力)解決了長文本推理時KVCache顯存占用過大的問),解決了傳統(tǒng)MoE專家顆粒度粗導(dǎo)致的參數(shù)利用率低和知識掌握不MTP(多token預(yù)測)解決了傳統(tǒng)“預(yù)測下一個詞”模式訓(xùn)練信號稀疏的問題,并通投機采樣加速了推理生成速度解決了超大規(guī)模模型訓(xùn)練時的顯存墻和通信瓶頸,大幅降低了訓(xùn)練解決了模型對昂貴人工標注數(shù)據(jù)的依賴,證明了僅靠規(guī)則激勵即可解決了模型在長鏈條推理中注意力分散的問題,讓模型能動態(tài)聚焦V3.2DSA(稀疏注意力)解決了標準注意力機制在處理超長文本時計算復(fù)雜度呈二次方增長解決了稀疏注意力機制中的冷啟動和動態(tài)索引開銷問題,實現(xiàn)了長視覺光學(xué)壓縮數(shù)據(jù)來源:新智元,aheadofai,kilitechnology,alliedinsight,東吳證券研究所月之暗面的KimiK2thinking/百萬tokens;如果購買套餐,則是2元人民幣/便宜的方案。圖45:智譜codingplan定價(2026/1/4)數(shù)據(jù)來源:智譜官網(wǎng),東吳證券研究所從模型能力來看,豆包屬于第二梯隊(從用戶數(shù)來看屬于第一梯隊原因是字節(jié)的是如何將AI能力快速融入到現(xiàn)有產(chǎn)品中,為圖46:國內(nèi)AI應(yīng)用周度活躍用戶數(shù)(萬人2025/12/8-12/14)數(shù)據(jù)來源:questmobile,東吳證券研究所了對全球AI格局的看法,并對中國的AI模型和市場給予積極評價社會和政界應(yīng)該對中國AI的發(fā)展持有更樂觀的態(tài)上具備先發(fā)優(yōu)勢。在大語模型領(lǐng)域,Marc特別點名了Kimi模型,尤其是KimiK2版本,認為其推理了獨特路徑,這與美國主流的“越大越好、云端巨集群”的思路形成了對比。六家頭部玩家——包括阿里巴巴的Qwen、通義千問系列、月之暗面的Kimi、騰訊、字在硬件和底層基礎(chǔ)設(shè)施層面,Marc專門提到華為等中國本土企業(yè)在芯片設(shè)計和制造上的巨大投入。盡管面臨外部限制,中國團隊依然在自主可控的道路上持續(xù)推進,國市場的規(guī)模優(yōu)勢、工程師紅利、數(shù)據(jù)資源以及政策支持,都在加速這一生態(tài)的成熟。推動者和潛在引領(lǐng)者。現(xiàn)出真正的理解能力和創(chuàng)造能力。模型的表現(xiàn)就相對較弱。3D理解需要模型建立起空間關(guān)系的內(nèi)在表征,理解物體在三運動規(guī)律。這些能力的建立需要更深層次的模型架構(gòu)支持,需要更高質(zhì)量的訓(xùn)練數(shù)據(jù),也需要更精細的訓(xùn)練方法。圖47:ModelIntelligence分國家對比數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所圖48:中美模型競爭數(shù)據(jù)來源:ArtificialAnalysis《StateofAI》,東吳證券研究所注:深藍色表示xx公司在xx大模型領(lǐng)域有布局,淺藍色表示無布局在編程能力上,國內(nèi)頭部模型大約落后海外最強模型3-6月的時間。例如,智譜碼補全或語法修正上可能不明顯,但在復(fù)雜的系統(tǒng)設(shè)計、架構(gòu)優(yōu)化、bug定位這圖49:ArtificialAnalysis的大模型Coding能力排行榜(截至2026/1/4)數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所圖50:LMArena的大模型WebDev能力排行榜(截至2026/1/8)數(shù)據(jù)來源:LMArena,東吳證券研究所在多模態(tài)領(lǐng)域:視頻生成是一個相對新的領(lǐng)域,中國公司的追趕速度比較快。在登上榜單。且國內(nèi)模型在價格上具有明顯優(yōu)勢。圖51:LMArena的文生視頻、圖生視頻大模型排行榜(截至2026/1/8)數(shù)據(jù)來源:LMArena,東吳證券研究所圖52:國內(nèi)視頻生成模型的價格遠低于海外模型(截至2026/1/4)數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所注:這張圖的縱軸代表的是QualityELO,是一個用來量化模型視頻生成能力的相對指標。這些模型經(jīng)過了大量的成對比較(A/B測試分數(shù)是基于它們在對抗中被判定為“質(zhì)量更好”的勝率計算出來的??v軸數(shù)值從800到1.70k(1700)。在圖中,位置越靠上,代表該模型的視頻生成質(zhì)量在競技場排名中越高。ELO分數(shù)反映的是相對實力而非絕對數(shù)值。美國模型公司主要走的是技術(shù)領(lǐng)先+高定價+閉源模型的路線。以O(shè)penAI和技術(shù)創(chuàng)新和優(yōu)質(zhì)服務(wù)來維持競爭優(yōu)勢,從而實現(xiàn)商業(yè)閉環(huán)。相比之下,中國模型公司則選擇了開源模型+極圖53:中國模型以開源為主,美國模型以閉源為主(截至2026/1/4)數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所圖54:中國在開源模型上更進一步數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所圖55:OpenRouter平臺的tokens消耗分布數(shù)據(jù)來源:OpenRouter,東吳證券研究所擊后者的高定價商業(yè)模式。在這種態(tài)勢下,單純依靠模型能力建立護城河越來越困難,閉源公司必須在應(yīng)用場景、用戶體驗、生態(tài)整合等方面構(gòu)建差異化優(yōu)勢。OpenAI、服務(wù)的重要差異化因素。開源模型雖免費,但版本迭代、額處于下降趨勢。圖56:海外B端市場開源模型tokens份額逐年下降數(shù)據(jù)來源:menloventures,東吳證券研究所注:這張圖表示海外B端市場所消耗的模型總Tokens作為分母,各個開源模型的Token消耗作為分子智譜等開源模型的tokens消耗份額增長迅圖57:海外B端市場開源模型競爭格局數(shù)據(jù)來源:menloventures,東吳證券研究所注:這張圖表示海外B端市場所消耗的開源模型總Tokens作為分母,各個開源模型的Token消耗作為分子新,閉源玩家都能以最快的速度把最激進的想法落地。因此,在相當長的一段時間內(nèi),閉源模型很可能繼續(xù)占據(jù)“最聰明模型”的位置——也就是金字塔的最頂端。常態(tài),而這恰恰是開源最強大的地方。處理方式、優(yōu)化方法一覽無余。如果所有頂級能力都被封存在少數(shù)幾家閉源巨頭手里,的速度擴散know-how。越來越多的年輕人正在短時間度也會大打折扣。開源不僅在傳播技術(shù)本身,更在培養(yǎng)下一國市場設(shè)計的H20降級版本也面臨進一步的限制風(fēng)險。這意味著中國公司在訓(xùn)練前沿這種時間差距會直接影響技術(shù)迭代的速度。人們就會被迫思考更本質(zhì)的問題,尋找更優(yōu)雅的解決方案。同樣的道理,當中國AI公某一天算力約束解除,這些在算法效率上的積累可能會轉(zhuǎn)化為優(yōu)勢。但稀疏注意力的代價是性能下降。MiniMax之所以從M1模型的LinearAttention轉(zhuǎn)向M2模型的FullAttention,是因為在工程實現(xiàn)上,LinearAttention需要作,而且在某些任務(wù)上的表現(xiàn)還不如Ful高,但工程上已經(jīng)非常成熟,有大量現(xiàn)成的優(yōu)化庫和最佳實踐可以借鑒。片制造不僅僅是技術(shù)問題,更涉及整個產(chǎn)業(yè)鏈的美國長期仍是AI人才最大聚集地,斯坦福、MNeurIPS2025共錄用5526篇論文,其以4.84%的份額位居機構(gòu)第一,但清華大學(xué)以4.7問團隊憑借《GatedAttentionforLargeLanguageModels》一文斬獲最佳論文獎,著提升推理效率與訓(xùn)練穩(wěn)定性,已被集成到Qwen3-Next模型中。這不僅證明中國工業(yè)界已在Transformer核心機制等基礎(chǔ)層面具備與DeepMind、谷歌同臺競技映出過去被西方學(xué)界視為“灌水”或應(yīng)用微調(diào)的中國研究,正逐步掌握技術(shù)定義權(quán)。圖58:NeurIPS2025收錄論文的機構(gòu)來源分布數(shù)據(jù)來源:36氪,東吳證券研究所研究者迅速在其上迭代;即使OpenAI在GPT-4后收緊技術(shù)細節(jié),其他玩家仍能通過逆司反而構(gòu)成結(jié)構(gòu)性利好。中國擁有全球最大的工程師群體、強大的制造與供應(yīng)鏈能力,代的產(chǎn)品設(shè)計與分發(fā)。我們認為,應(yīng)用層是這一輪AI產(chǎn)業(yè)周期里最容易被誤判題,實質(zhì)都在追問同一件事:AI到底能不能被足ARR的意義在于它直接回答了用戶是否愿意持續(xù)付費、付費是否可規(guī)模化,這是把ARR只當財務(wù)數(shù)據(jù)會低估它的戰(zhàn)略價值,因為ARR反映的不是一次性收入,而是持續(xù)訂閱關(guān)系,背后通常對應(yīng)穩(wěn)定使用習(xí)慣與可復(fù)制的銷售路徑。把Tokens只當往先于收入變化發(fā)生。我們更傾向于把這兩者看成一組互補指標:Tokens像體溫計,反映需求在不在升溫;ARR像血壓計,反映商業(yè)化是否健康。理想狀態(tài)是二者同步改善,但現(xiàn)實往往表13:AI科技公司ARR及增速12Anthropic3AI代碼編輯器4AlphaSense55AI語音生成與合成46Zapier47企業(yè)級AI平臺8AI移動應(yīng)用開發(fā)39FireworksAI輔助云端編程平臺2AI音樂生成22數(shù)據(jù)來源:ARRClub,東吳證券研究所層,Cursor(AI編程工具)ARR已經(jīng)達到我們從這些案例里得到的判斷是:AI應(yīng)用并不缺但如果只看ARR,容易低估需求的爆發(fā)速度,因為收入確認往往滯后于使用行為OpenAI和GoogleCloud分別以日均70萬億和圖59:全球MaaS的Token消耗競爭格局(截至2025/10)圖60:豆包大模型日均tokens消耗量快速增長數(shù)據(jù)來源:Omidia,雷鋒網(wǎng),東吳證券研究所數(shù)據(jù)來源:財聯(lián)社,東吳證券研究所指令、口語化表達的理解更強,普通用戶也能自然使用。多模態(tài)的成熟進一步圖61:chatgpt周度活躍用戶數(shù)(百萬人)數(shù)據(jù)來源:mobiledevmemo,東吳證券研究所圖62:主要AI應(yīng)用月度活躍用戶數(shù)(百萬人)數(shù)據(jù)來源:IT之家,sensortower,東吳證券研究所圖63:AI平臺的月度平均訪問量快速增長(十億次)數(shù)據(jù)來源:similarweb,東吳證券研究所圖64:從2024年1月到2025年11月,OpenRouter上用戶的Prompt平均長度增長了3倍數(shù)據(jù)來源:OpenRouter,東吳證券研究所圖65:從2024年1月到2025年11月,OpenRouter上AI的回復(fù)平均長度增長了2倍數(shù)據(jù)來源:OpenRouter,東吳證券研究所圖66:編程場景的每條輸入輸出的平均tokens長度遠高于其他場景數(shù)據(jù)來源:OpenRouter,東吳證券研究所等于浪費,恰恰意味著AI開始把更復(fù)雜的任務(wù)納入可交付范倍增長:一個負責(zé)需求,一個負責(zé)架構(gòu),一個寫代碼,一個做測試,彼此溝通而是任務(wù)范式從聊天轉(zhuǎn)向執(zhí)行后的系統(tǒng)性調(diào)用,這也是為什么2026年被普遍透率的歷程,生成式AI僅用3年就占據(jù)了全球S圖67:全球toBAI市場規(guī)??焖僭鲩L數(shù)據(jù)來源:MenloVentures,Gartner,東吳證券研究所自研和外部采購的比例還大致是47%對53%,但到2025年,這一比例已經(jīng)他們不是在“試試看”,而是帶著明確的ROI預(yù)期直接下單。圖68:企業(yè)從“自己建”轉(zhuǎn)向“直接買”數(shù)據(jù)來源:MenloVentures,東吳證券研究所圖69:相較于傳統(tǒng)SaaS,toBAI的“試用→采購”轉(zhuǎn)化率更高數(shù)據(jù)來源:MenloVentures,東吳證券研究所注:圖中的數(shù)據(jù)指的是各個環(huán)節(jié)的轉(zhuǎn)化率的突破口。2025年,企業(yè)用于AI編程工具的支出達到了42億美元,占部門級AI支出從代碼補全到多文件編輯、diff審批、自然語言指令,再到完整的代碼代理和應(yīng)用構(gòu)建編程之外,其他部門級AI應(yīng)用也在快速跟進。IT運維工具達到7億美元,營銷內(nèi)圖70:2025年部門AI支出規(guī)模數(shù)據(jù)來源:MenloVentures,東吳證券研究所構(gòu)化報告、質(zhì)檢記錄和行業(yè)流程規(guī)范,再圍繞這些專有數(shù)據(jù)進行深度定制和流程重構(gòu)。健康領(lǐng)域獨占15億美元,遠高于其他行Ambience等新興玩家因此迅速躋身獨角獸行列圖71:2025年垂直行業(yè)AI支出規(guī)模(百萬美元)數(shù)據(jù)來源:MenloVentures,東吳證券研究所圖72:OpenEvidenceARR(百萬美元)圖73:GleanARR(百萬美元)數(shù)據(jù)來源:ARRClub,東吳證券研究所數(shù)據(jù)來源:ARRClub,東吳證券研究所圖74:HarveyAIARR(百萬美元)圖75:AbridgeARR(百萬美元)數(shù)據(jù)來源:ARRClub,東吳證券研究所數(shù)據(jù)來源:ARRClub,東吳證券研究所圖76:AInative應(yīng)用大量涌現(xiàn)圖77:2025年橫向AI(通用助手)支出規(guī)模數(shù)據(jù)來源:MenloVentures,東吳證券研究所圖78:2025年toBAI支出中PLG驅(qū)動的占比可觀(單位:十億美元)數(shù)據(jù)來源:MenloVentures,東吳證券研究所創(chuàng)業(yè)公司與傳統(tǒng)巨頭的競爭格局也因此分化。在應(yīng)用層,2025年創(chuàng)業(yè)公司已拿到63%的收入份額,尤其在產(chǎn)品工程、銷售、財務(wù)運營這些敏捷數(shù)垂直深耕者,通過獨特數(shù)據(jù)壁壘、行業(yè)實施壁壘、情感或生產(chǎn)力壁壘,構(gòu)建高單價、在C端AI產(chǎn)品市場,通用AIchatbo義助手、Gems或應(yīng)用商店)迅速蠶食獨立垂直應(yīng)用的生存空間。然而,并非所有垂直AI都注定被吞噬——那些量?!澳P图磻?yīng)用”的趨勢越發(fā)顯著:用戶無需下載多個獨立模型,形成“產(chǎn)品更好用→用戶更多→模型更強”生態(tài)+強模型的優(yōu)勢。圖79:按照類別劃分的全球AI網(wǎng)頁日均訪問量(百萬次/天)數(shù)據(jù)來源:similarweb,東吳證券研究所圖80:2025年按照類別劃分的AI網(wǎng)頁端訪問量增速數(shù)據(jù)來源:Similarweb,東吳證券研究所注:12wkchange指的是當期兩周訪問量相較于三個月前的兩周訪問量增速用平臺將整合更多外部工具(瀏覽器、購物、社交滲透率進一步提升。對于用戶來說,為什么要在手機上安裝十幾個不同功能的AI應(yīng)用,當一個ChatGPT圖81:AIGraveyard上已經(jīng)消失的AI應(yīng)用(截至2025/12/31)數(shù)據(jù)來源:AIGraveyard,東吳證券研究所圖82:AIGraveyard上死亡率最高的產(chǎn)品類型(截至2025/12/31)數(shù)據(jù)來源:AIGraveyard,東吳證券研究所體量在億級的頭部應(yīng)用能維持五五開,而中長尾應(yīng)用的下滑比例更高。圖83:QuestMobile統(tǒng)計的25Q3國內(nèi)原生AIAPP用戶增長表現(xiàn)數(shù)據(jù)來源:QuestMobile,東吳證券研究所更快。更重要的是付費意愿高且ROI清晰,尤其企業(yè)端按席位購買時,一點點效率提升就可能對應(yīng)巨大的人力成本節(jié)省。舉例來說,一個100人工程團隊每人每月30美圖84:OpenRouter平臺上tokens消耗最多的場景是編程和角色扮演數(shù)據(jù)來源:OpenRouter,東吳證券研究所圖85:新發(fā)布的模型大多定向優(yōu)化了coding能力數(shù)據(jù)來源:ArtificialAnalysis,東吳證券研究所圖86:OpenAI此前的版本分為high/medium/low,而后專門推出c

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論