2025年亞馬遜AWS全棧AI戰(zhàn)略:從自研芯片、投資Anthropic到頂層應(yīng)用布局分析報告_第1頁
2025年亞馬遜AWS全棧AI戰(zhàn)略:從自研芯片、投資Anthropic到頂層應(yīng)用布局分析報告_第2頁
2025年亞馬遜AWS全棧AI戰(zhàn)略:從自研芯片、投資Anthropic到頂層應(yīng)用布局分析報告_第3頁
2025年亞馬遜AWS全棧AI戰(zhàn)略:從自研芯片、投資Anthropic到頂層應(yīng)用布局分析報告_第4頁
2025年亞馬遜AWS全棧AI戰(zhàn)略:從自研芯片、投資Anthropic到頂層應(yīng)用布局分析報告_第5頁
已閱讀5頁,還剩36頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

2025行業(yè)分析報告 4 4 6 7 113.2.1.協(xié)同效應(yīng):與電商平臺共同構(gòu)建一個強大的“技術(shù)研發(fā)-內(nèi)部驗證-外部商業(yè)化”的良性循環(huán) 3.2.2.技術(shù)優(yōu)勢:體現(xiàn)在對核心底層架構(gòu)、安全隔離的深刻理解、以及以API為核心的設(shè)計哲學(xué) 3.2.3.定價革命:“按需付費”較大地降低了客戶的創(chuàng)新門檻和試錯成本 3.2.4.培育生態(tài)系統(tǒng):涵蓋開發(fā)者支持以及技術(shù)和咨詢合作伙伴生態(tài)系統(tǒng)化 圖1:2018-2024年全球云基礎(chǔ)設(shè)施服務(wù)支出、同比增速(億美元) 4 5圖3:企業(yè)選擇云計算的優(yōu)勢 5圖4:2020年Q1-2023年Q3全球三大云廠云收入同比增速 6圖5:2023年Q4-2025年Q2全球云基礎(chǔ)設(shè)施服務(wù)支出同比增速 7 8圖7:2022年Q1-2025年Q2全球三大云廠季度同比增速變化 9圖8:2018年-2025年Q2亞馬遜 圖12:AmazonEC2核心應(yīng)用場景 圖13:AmazonEC2多層安全保護 圖14:AmazonEC2安全防火墻 圖16:AmazonAWS按照模塊付費,可選模塊共196種 圖17:AmazonAWS對于開發(fā)者的支持 圖20:AmazonEC2Trn2機柜樣式及性能 圖21:AmazonEC2Trn2UltraServers樣式及性能 圖22:AmazonEC2Trn2UltraClusters樣式及性能 20圖24:2022年-2025年7月大模型初創(chuàng)公司Anthropic年化收入ARR變化(億美元) 21圖25:大模型初創(chuàng)公司Anthropic年化收入ARR(億美元) 21圖26:ClaudeOpus4是Anthropic是全球最佳的編碼模型之一 22圖27:ClaudeSonnet4在SWE-bench上實現(xiàn)了72.7%的出色編碼效率 22圖28:全球模型kimi、Deepseek、通義、ChatGPT、Anthropic各維度對比 22圖29:微軟和OpenAl、亞馬遜和Anthropic的競合關(guān)系 23 24圖31:AmazonBedrockAgentCore包含Agent執(zhí)行實際工作流時所需的基礎(chǔ)工具 25圖32:AmazonBedrock工具可以幫用戶進行寫作創(chuàng)作、文章總結(jié)等工作 25圖33:亞馬遜AWS人工智能產(chǎn)品分布 26圖34:2018年Q1-2025年Q2亞馬遜AWS云服務(wù)收入、同比增速(億美元) 26圖35:2018年Q1-2025年Q2亞馬遜AWS營業(yè)利潤、營業(yè)利潤率(百萬美元) 27圖36:2018年Q1-2025年Q2亞馬遜AWS營業(yè)利潤占公司總營業(yè)利潤比重 27 28 28表1:2018年-2025年三大云廠份額變化 8表2:2006-2012年關(guān)鍵云平臺發(fā)布時間線 表3:AWSTrainium2、NVIDIAH100、AMDMI300X性能參數(shù)對比 表4:Anthropic成立至今融資概覽 211.1.云計算發(fā)展歷程復(fù)盤:從企業(yè)數(shù)字化轉(zhuǎn)型到AI加速云計算是一種通過互聯(lián)網(wǎng)按需交付IT資源和應(yīng)用的服務(wù)模式,具有較大的靈活性、可擴展性和成本效益。云計算(CloudComputing)是一種通過互聯(lián)網(wǎng)按需交付IT資源和應(yīng)用的服務(wù)模式,使用電力或自來水一樣使用公共事業(yè)服務(wù),使得企業(yè)客戶無需自建發(fā)電廠或水庫(即購買和維護昂貴的物理服務(wù)器、存儲設(shè)備和數(shù)據(jù)中心而是可以直接從云服務(wù)提供商,如亞馬遜AWS、微軟Azure、谷歌云,那里租用計算能力、存儲空間、數(shù)據(jù)庫等資源,并根據(jù)實際使用量付費。這種模式的核心優(yōu)勢在于提供了較大的靈活性、可擴展性和成本效益,使企業(yè)和個人能夠更專注于業(yè)務(wù)創(chuàng)新,而將復(fù)雜的IT基礎(chǔ)設(shè)施管理交給云服務(wù)商。在過去十年中,全球云服務(wù)市場經(jīng)歷了三個截然不同的增長階段。圖1:2018-2024年全球云基礎(chǔ)設(shè)施服務(wù)支出、同比增速(億美元)數(shù)據(jù)來源:Canalys,東北證券(1)企業(yè)數(shù)字化轉(zhuǎn)型+疫情(2018-2022年企業(yè)開始大規(guī)模地將其工作負載遷移至云端2018年到2022年云計算經(jīng)歷了第一波浪潮,其核心驅(qū)動力是企業(yè)的數(shù)字化轉(zhuǎn)型。受益于企業(yè)追求更高的業(yè)務(wù)敏捷性、可擴展性和成本效率,擺脫傳統(tǒng)本地數(shù)據(jù)中心的高擴展成本,企業(yè)開始大規(guī)模地將其工作負載遷移至云端。同時,企業(yè)還可以開發(fā)全新的云原生應(yīng)用,以提升業(yè)務(wù)敏捷性和創(chuàng)新能力。在此階段,云服務(wù)被視為實現(xiàn)彈性、可擴展性和將資本支出(CapEx)轉(zhuǎn)化為運營支出(OpEx)財務(wù)模型的關(guān)鍵工具??蛻絷P(guān)注的焦點是基礎(chǔ)的計算、存儲和網(wǎng)絡(luò)服務(wù)。數(shù)據(jù)來源:51CTO,CSDN,東北證券數(shù)據(jù)來源:51CTO,東北證券2020年爆發(fā)的全球新冠疫情成為這一趨勢的又一顯著催化劑,為了支持大規(guī)模遠程辦公、線上協(xié)作和數(shù)字化的客戶互動,企業(yè)被迫加速其上云進程,這直接推動了云支出的快速增長。根據(jù)Canalys統(tǒng)計,2019-2021年全球云基礎(chǔ)設(shè)施服務(wù)支出增速分別為37.66%、32.59%、35.00%。(2)降本增效(2022-2023年宏觀環(huán)境不確定性,使得企業(yè)從不計成本的云投入轉(zhuǎn)向嚴格的成本控制和運營效率管理進入2022-2023年,由于全球通貨膨脹、利率上升和地緣政治不確定性等因素,迫使企業(yè)的經(jīng)營策略從不計成本的云投入轉(zhuǎn)向嚴格的成本控制和運營效率管理,使得云業(yè)務(wù)增速出現(xiàn)短期波動。企業(yè)客戶開始在云服務(wù)上降本增效,關(guān)閉閑置資源,選擇更具成本效益的服務(wù),根據(jù)Canalys統(tǒng)計,全球云基礎(chǔ)設(shè)施服務(wù)支出增速從2021年的35.00%下降至2023年的8.34%。圖4:2020年Q1-2023年Q3全球三大云廠云收入同比增速數(shù)據(jù)來源:Canalys,東北證券AI大模型爆火出圈后,客戶的核心需求從通用的計算資源,轉(zhuǎn)向能夠支持大規(guī)模AI模型訓(xùn)練和推理的專業(yè)化、高性能基礎(chǔ)設(shè)施。2023年2月ChatGPT全球爆火,市場的核心需求不再是通用的計算資源,而是能夠支持大規(guī)模AI模型訓(xùn)練和推理的專業(yè)化、高性能基礎(chǔ)設(shè)施。使得客戶需求從“水平式”量的擴張轉(zhuǎn)變?yōu)椤按怪笔健鄙罨?,即通過高價值、計算密集型的AI工作負載,大幅提升現(xiàn)有云服務(wù)的配置深度,包括作為一次性投資的AI模型“訓(xùn)練”,以及作為經(jīng)常性運營成本的“推理”。我們認為,這意味著云服務(wù)的增長邏輯從IT成本端的降本增效,演變?yōu)锳I時代下的性能追求。在過去企業(yè)數(shù)字化轉(zhuǎn)型階段(2018-2023云在很大程度上被視為一種IT效用設(shè)施——一個靈活、可擴展且理想情況下更具成本效益的本地基礎(chǔ)設(shè)施替代品,在2022-2023年的優(yōu)化階段企業(yè)對成本進行極致追求,證明了他們將云支出視同水電費一樣,是可以被壓縮的開支。在AI時代,云服務(wù)的性能、大模型接入情況或者技術(shù)優(yōu)勢有望占主導(dǎo)。訓(xùn)練和運行生成式AI模型,其核心訴求不再是尋找最便宜的計算,而是能否獲得由數(shù)千個專業(yè)處理器(如GPU/TPU)組成的龐大集群,以及能否使用如AzureOpenAI服務(wù)、亞馬遜Bedrock、谷歌VertexAI等先進的AI平臺。據(jù)Canalys統(tǒng)計,企業(yè)客戶的關(guān)注焦點從“工作負載遷移”轉(zhuǎn)向了“AI工作流”、AI技術(shù)“效率和生產(chǎn)力提升”,企業(yè)的采購決策正從關(guān)注“單位成本”轉(zhuǎn)向關(guān)注“AI應(yīng)用的上市時間”、“模型的性能表現(xiàn)”以及“對尖端技術(shù)的訪問權(quán)”。我們認為,云服務(wù)已從一個IT成本中心,升維為企業(yè)核心業(yè)務(wù)創(chuàng)新的戰(zhàn)略賦能平臺,從而使其更高、更專業(yè)化的支出變得合理且必要。據(jù)Canalys分析,云服務(wù)的增長敘事已經(jīng)從“為了效率上云”轉(zhuǎn)變?yōu)椤盀榱薃I驅(qū)動的生存和增長而必須上云”,使得企業(yè)重新評估其云戰(zhàn)略,并積極追加投資,以避免在新的技術(shù)浪潮中處于落后低位。2024年Q3-2025年Q2全球云基礎(chǔ)設(shè)施服務(wù)支出同比增速連續(xù)四個季度超過20%。據(jù)Canalys數(shù)據(jù)顯示,2025年第二季度全球云基礎(chǔ)設(shè)施服務(wù)支出達到953億美元,同比增長22%,連續(xù)四個季度同比增長超過20%。進入AI時代后,企業(yè)將重點放在了兩大戰(zhàn)略重點上:加速云遷移(通過轉(zhuǎn)移更多工作負載或重啟停滯的本地遷移)以及探索生成式人工智能的應(yīng)用。生成式人工智能高度依賴云基礎(chǔ)設(shè)施,其興起反過來又強化了企業(yè)云戰(zhàn)略,并加快了遷移進度。圖5:2023年Q4-2025年Q2全球云基礎(chǔ)設(shè)施服務(wù)支出同比增速數(shù)據(jù)來源:Canalys,東北證券全球云基礎(chǔ)設(shè)施服務(wù)市場中,亞馬遜AWS、微軟Azure和谷歌云這三大巨頭占據(jù)了市場的主導(dǎo)地位,合計控制著全球約三分之二的市場份額。2018年至今,全球云基礎(chǔ)設(shè)施服務(wù)市場中亞馬遜份額穩(wěn)定為31-33%左右,微軟和谷歌增速快,份額方面微軟從2018年的14%提升至2025年Q2的22%,谷歌從2018年的4.2%增長至2025年Q2的11%。2018年至今,AWS始終是全球云服務(wù)市場的開創(chuàng)者和長期領(lǐng)導(dǎo)者,其市場份額保持在31%至33%的區(qū)間。此外,微軟Azure是最大的市場份額增長者,憑借其深厚的企業(yè)客戶基礎(chǔ)和成功的混合云戰(zhàn)略,Azure在七年內(nèi)將其市場份額從2018年的14%提升至2025年Q2的22%。谷歌云同樣表現(xiàn)出色,通過在數(shù)據(jù)分析和人工智能領(lǐng)域的持續(xù)發(fā)力,其市場份額在2018年的4.2%增長至2025年Q2的11%。三大云廠份額不斷提升,充分彰顯云服務(wù)的強大網(wǎng)絡(luò)效應(yīng)、高昂的客戶轉(zhuǎn)換成本、以及較大的資本準入門檻。2018年至今,三大云服務(wù)商的市場份額持續(xù)向上攀升,從2018年的51%提升至2025年Q2的65%,“其他”供應(yīng)商的合計市場份額已顯著萎縮。我們認為,這充分證明了云市場的強大網(wǎng)絡(luò)效應(yīng)、高昂的客戶轉(zhuǎn)換成本、較強的客戶粘性以及較大的資本準入門檻。表1:2018年-2025年三大云廠份額變化亞馬遜AWS微軟Azure谷歌云其他廠商2018全年32.7%4.2%48.9%2019全年32.3%5.8%45.0%2020Q432.0%20.0%7.0%41.0%2021Q433.0%22.0%9.0%36.0%2022Q432.0%23.0%35.0%2023Q431.0%26.0%33.0%2024Q433.0%20.0%36.0%2025Q132.0%23.0%35.0%2025Q232.0%22.0%35.0%數(shù)據(jù)來源:Canalys,東北證券AI時代的到來有望進一步提升云服務(wù)廠商集中度。我們認為,構(gòu)建和運營大規(guī)模AI模型訓(xùn)練和推理的基礎(chǔ)設(shè)施,需要天文數(shù)字般的資本支出,用于采購先進的GPU和建設(shè)專用的AI數(shù)據(jù)中心,利好資金雄厚的科技巨頭。因此,我們認為,云服務(wù)的集中度有望進一步提升。Canalys分析指出,隨著人工智能從研究階段轉(zhuǎn)向大規(guī)模部署,企業(yè)越來越關(guān)注推理的成本效益,并會比較各種模型、云平臺以及GPU和定制加速器等硬件架構(gòu)。為了應(yīng)對這些挑戰(zhàn),領(lǐng)先的云服務(wù)提供商正在加大對AI優(yōu)化基礎(chǔ)設(shè)施的投資。包括AWS、Azure和GoogleCloud在內(nèi)的超大規(guī)模云服務(wù)提供商已經(jīng)推出了Trainium和TPU等專有芯片,旨在提高推理效率并降低AI的總體成本。數(shù)據(jù)來源:Canalys,東北證券圖7:2022年Q1-2025年Q2全球三大云廠季度同比增速變化數(shù)據(jù)來源:Canalys,東北證券AI時代,三大云廠各自卡位一家大模型頂級公司,AWS與Anthropic、MicrosoftAzure與OpenAI、GoogleCloud與GoogleAI(DeepMind)。在生成式AI浪潮初期,微軟通過其對OpenAI的數(shù)百億美元投資,獲得了巨大的先發(fā)優(yōu)勢,其AzureOpenAI服務(wù)迅速成為企業(yè)部署AI應(yīng)用的首選平臺之一。與此同時,擁有強大自研能力的谷歌,憑借其Gemini系列模型和GoogleCloud平臺,也構(gòu)成了強大的競爭力。2023年9月開始,亞馬遜向AI大模型初創(chuàng)公司Anthropic投資80億美元巨額資金,Anthropic預(yù)計將亞馬遜AWS作為其主要云提供商,并使用亞馬遜自研芯片進行模型訓(xùn)練推理,并為AWS的客戶提供特別模型定制和微調(diào)功能的早期訪問權(quán)限。AWS+Anthropic:依托AWS龐大的云市場份額和企業(yè)客戶基礎(chǔ),結(jié)合Anthropic在模型性能和AI安全方面的領(lǐng)先地位。MicrosoftAzure+OpenAI:憑借先發(fā)優(yōu)勢和GPT系列模型的強大品牌效應(yīng),深度整合入微軟的軟件和服務(wù)生態(tài)。GoogleCloud+GoogleAI(DeepMind):擁有從芯片(TPU)到模型(Gemini)的全棧自研能力,技術(shù)實力雄厚。我們認為,未來全球云服務(wù)的競爭將不再是單一產(chǎn)品或服務(wù)的比拼,而是整個生態(tài)企業(yè)的采購決策,不再僅僅是購買虛擬機或存儲空間,而是購買一整套集成了頂級AI能力的解決方案。過去十年,云服務(wù)商之間的競爭主要圍繞基礎(chǔ)設(shè)施即服務(wù)(IaaS)的性價比和平臺即服務(wù)(PaaS)的豐富性展開。而現(xiàn)在,競爭的焦點正迅速轉(zhuǎn)向AI平臺即服務(wù)(AIaaS)。企業(yè)的采購決策,不再僅僅是購買虛擬機或存儲空間,而是購買一整套集成了頂級AI能力的解決方案。云平臺的核心差異化優(yōu)勢,正從基礎(chǔ)設(shè)施的性能,轉(zhuǎn)變?yōu)槠渌芴峁┑幕A(chǔ)模型的質(zhì)量、集成度以及安全性。云平臺和其上的“殺手級應(yīng)用”(生成式AI)正在被打包成一個不可分割的整體進行銷售。在這場新的戰(zhàn)爭中,誰能提供最強大、最安全、最易于集成的AI“大腦”,誰就將贏得下一代企業(yè)工作負載,從而主導(dǎo)未來的云計算市場。亞馬遜AWS(AmazonWebServices)是作為全球云服務(wù)市場領(lǐng)導(dǎo)者,2018年至今市場份額穩(wěn)定在31-33%。2015-2018年先發(fā)優(yōu)勢顯著,定義云計算市場,諸多明星初創(chuàng)公司需要快速、靈活的基礎(chǔ)設(shè)施來支持其業(yè)務(wù)的爆炸性增長。在這一時期,AWS的增長主要得益于其無可匹敵的先發(fā)優(yōu)勢。很多明星初創(chuàng)公司或者行業(yè)頭部企業(yè)需要快速、靈活且無需前期資本投入的基礎(chǔ)設(shè)施來支持其業(yè)務(wù)的爆炸性增長。在此期間,AWS不僅提供了核心的計算(EC2)和存儲(S3)服務(wù),還不斷擴展其產(chǎn)品組合,例如在2017年推出AmazonSageMaker,為后來的機器學(xué)習(xí)服務(wù)奠定了基礎(chǔ)。像Zynga和Reddit這樣的大規(guī)?;ヂ?lián)網(wǎng)公司將其基礎(chǔ)設(shè)施完全遷移到AWS,這起到了強大的示范效應(yīng),鞏固了AWS作為網(wǎng)絡(luò)規(guī)模應(yīng)用首選云平臺的地位。傳統(tǒng)企業(yè)上云+疫情催生線上需求,2019-2022年AWS收入CAGR為32%。隨著云市場的成熟,AWS的戰(zhàn)略重心轉(zhuǎn)向了規(guī)模龐大、預(yù)算充足的大型企業(yè)市場,開始幫助傳統(tǒng)企業(yè)完成復(fù)雜的“上云”遷移。同時,2020年爆發(fā)的新冠疫情顯著地加速了這一進程,遠程辦公、在線教育和電子商務(wù)的激增導(dǎo)致對云服務(wù)的需求井噴,AWS的收入也從2019年的約350億美元躍升至2022年的801億美元,復(fù)合增速為32%。在這一階段,AWS的競爭優(yōu)勢體現(xiàn)在其服務(wù)廣度上,提供了超過200項涵蓋幾乎所有IT需求的服務(wù),形成了一個強大的生態(tài)優(yōu)勢。AI大模型催生云服務(wù)需求再加速,AWS通過集成多種大模型、成為客戶AI模型的“選擇平臺”。在經(jīng)歷了2023年的短暫增長放緩和客戶成本優(yōu)化后,AWS的增長引擎被生成式AI重新點燃。面對微軟Azure在AI領(lǐng)域的強勢進攻,AWS迅速調(diào)整戰(zhàn)略,將自己定位為AI模型的“選擇平臺”。通過其AmazonBedrock服務(wù),AWS不僅提供了自家的Titan系列模型,還廣泛集成了來自Anthropic(Claude模型)、StabilityAI等第三方領(lǐng)先AI公司的模型,為客戶提供了極大的靈活性和選擇權(quán),。2023-2024年全年AWS云服務(wù)收入增速分別為13.31%、18.51%,2025年H1為圖8:2018年-2025年Q2亞馬遜AWS云服務(wù)收入、同比增速數(shù)據(jù)來源:wind,東北證券3.2.1.協(xié)同效應(yīng):與電商平臺共同構(gòu)建一個強大的“技術(shù)研發(fā)-內(nèi)部驗證-外部商業(yè)化”的良性循環(huán)AWS的誕生,來源于亞馬遜在運營自身電子商務(wù)業(yè)務(wù)時所面臨的嚴峻挑戰(zhàn)。在21世紀初,A(亞馬遜電商平臺)的快速增長給其工程團隊帶來了巨大的IT系統(tǒng)擴展壓力。這些擴展過程成本高昂且耗時,嚴重拖累了開發(fā)效率。亞馬遜的工程師們必須不斷解決復(fù)雜的IT基礎(chǔ)設(shè)施規(guī)?;瘑栴},這段經(jīng)歷錘煉了他們在構(gòu)建和管理可靠、高效、可擴展基礎(chǔ)設(shè)施方面的核心能力。公司管理層認為,亞馬遜所面臨的這些技術(shù)挑戰(zhàn)是普遍存在的,幾乎所有希望在互聯(lián)網(wǎng)上發(fā)展的公司都會遇到同樣的問題,決定將其內(nèi)部工具商業(yè)化,為外部客戶提供服務(wù),AWS的雛形由此誕生。數(shù)據(jù)來源:RedStag,東北證券亞馬遜電商平臺是云服務(wù)AWS的“零號客戶”,為AWS的產(chǎn)品帶來了與生俱來的實用性和可靠性。與后來將云計算視為一個新市場進入的競爭對手不同,AWS是它自己服務(wù)的“零號客戶”。這意味著其最初的服務(wù)并非在真空中設(shè)計,而是經(jīng)過了亞馬遜自身超大規(guī)模、任務(wù)關(guān)鍵型業(yè)務(wù)千錘百煉的解決方案。這種“自產(chǎn)自用”的背景,為AWS的產(chǎn)品帶來了與生俱來的實用性和可靠性,也為其在早期開發(fā)者社區(qū)中贏得了無與倫比的信譽和信任。時至今日,A仍然是AWS最大和最重要的客戶之一。例如,亞馬遜將其內(nèi)部的5000個數(shù)據(jù)庫從甲骨文遷移到了AWS上,這一方面為AWS節(jié)省了巨額的許可費用,另一方面也成為了展示AWS處理超大規(guī)模關(guān)鍵任務(wù)能力的最佳案例。(2)先發(fā)優(yōu)勢:當(dāng)競爭對手終于推出可行的IaaS產(chǎn)品時,AWS已經(jīng)是一個功能豐富、穩(wěn)定可靠且覆蓋全球的成熟平臺,從而提升用戶替換成本。AWS的核心服務(wù)于2006年推出,而其主要競爭對手則姍姍來遲。谷歌的第一個云產(chǎn)品AppEngine(PaaS平臺)于2008年問世,而微軟Azure的IaaS產(chǎn)品直到2010年才正式推出。表2:2006-2012年關(guān)鍵云平臺發(fā)布時間線亞馬遜云服務(wù)(AWS)谷歌云(GoogleCloud)微軟Azure2006S3(存儲)&EC2(計算)--2007S3&EC2在全球范圍--2008-AppEngine(PaaS)發(fā)布-2009RDS(數(shù)據(jù)庫)&VPC(網(wǎng)絡(luò))發(fā)布--2010--AzureIaaS(VMRole)2012DynamoDB&RedshiftComputeEngine(IaaS)-數(shù)據(jù)來源:Google,東北證券當(dāng)競爭對手終于推出可行的IaaS產(chǎn)品時,AWS已經(jīng)是一個功能豐富、穩(wěn)定可靠且覆蓋全球的成熟平臺,從而提升用戶替換成本。這幾年的先發(fā)優(yōu)勢,使得AWS可以(1)完善核心產(chǎn)品:不斷迭代S3和EC2,增加功能并提升性能。(2)擴展服務(wù)組合:陸續(xù)推出了關(guān)系數(shù)據(jù)庫服務(wù)(RDS,2009年)、虛擬私有云(VPC,2009年)、NoSQL數(shù)據(jù)庫(DynamoDB,2012年)和數(shù)據(jù)倉庫(Redshift,2012年)等關(guān)鍵服務(wù),滿足了更廣泛的客戶需求。(3)建設(shè)全球基礎(chǔ)設(shè)施:在全球范圍內(nèi)投資數(shù)十億美元建設(shè)數(shù)據(jù)中心,形成了覆蓋多個區(qū)域(Regions)和可用區(qū)(AvailabilityZones)的龐大網(wǎng)絡(luò),確保了低延遲和高可用性。隨著客戶在AWS上構(gòu)建的應(yīng)用日益復(fù)雜,將其遷移到另一個云平臺在技術(shù)上和經(jīng)濟上都變得較有挑戰(zhàn)性,從而形成了一道堅固的經(jīng)濟護城河。3.2.2.技術(shù)優(yōu)勢:體現(xiàn)在對核心底層架構(gòu)、安全隔離的深刻理解、以及以API為核心的設(shè)計哲學(xué)S3與EC2的基礎(chǔ)架構(gòu)為AWS云服務(wù)構(gòu)筑規(guī)模化的支柱。AmazonSimpleStorageService(AmazonS3)是一項對象存儲服務(wù),具備行業(yè)領(lǐng)先的可擴展性、數(shù)據(jù)可用性、安全性和性能。數(shù)百萬不同規(guī)模和行業(yè)的客戶可以為幾乎任何使用案例存儲、管理、分析和保護任意數(shù)量的數(shù)據(jù),例如數(shù)據(jù)湖、云原生應(yīng)用程序和移動應(yīng)用程序。借助高成本效益的存儲類別和易于使用的管理功能,客戶可以優(yōu)化成本、組織并分析數(shù)據(jù),以及配置精細調(diào)整過的訪問控制,從而滿足特定的業(yè)務(wù)與合規(guī)性要求。數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券EC2(彈性計算云)通過虛擬機提供了可擴展的計算資源,有望解決客戶“過度配置”問題。其核心創(chuàng)新在于“彈性”——能夠根據(jù)需求,通過自動擴展和彈性負載均衡等功能,按需、自動地增減數(shù)量。這直接解決了前云時代因容量規(guī)劃不準而導(dǎo)致的“過度配置”問題。數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券此外,EC2還擁有超過750個模塊組件,使得客戶可選擇最新的處理器、存儲、聯(lián)網(wǎng)、操作系統(tǒng)和購買模型,以幫助客戶最好地滿足工作負載的需求。AWS是首家支持英特爾、AMD和Arm處理器的主要云提供商,既是唯一具有按需EC2Mac的云,也是唯一具有400Gbps以太網(wǎng)網(wǎng)絡(luò)的云。AWS為機器學(xué)習(xí)培訓(xùn)提供最佳性價比,同時也為云中的每個推理提供了最低的成本。與任何其他云相比,有更多的SAP、高性能計算(HPC)、機器學(xué)習(xí)和Windows工作負載在AWS上運行。圖12:AmazonEC2核心應(yīng)用場景數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券相較于谷歌,AWS為客戶IT工作負載的遷移創(chuàng)造了更低的門檻。相較于谷歌如原生容器化的工程理念,AWS專注于客戶需求,為絕大多數(shù)現(xiàn)有IT工作負載的遷移創(chuàng)造了更低的門檻。前云時代的互聯(lián)網(wǎng)世界是建立在運行操作系統(tǒng)的物理服務(wù)器之上的,而虛擬機是這一范式的最直接替換。EC2提供了彈性和按需供應(yīng)的新優(yōu)勢,使得企業(yè)可以采用“直接遷移”的方式上云。相比之下,谷歌主張無服務(wù)器(AppEngine)或容器化(GKE并將虛擬機視為過時技術(shù),使得企業(yè)需要適應(yīng)PaaS或容器等新范式而徹底重構(gòu)應(yīng)用。這種戰(zhàn)略上的錯位使得AWS通過提供解決客戶當(dāng)前問題、適配其現(xiàn)有架構(gòu)和技能的工具,成功捕獲了龐大的存量市場,而谷歌則難以挑戰(zhàn)其已建立的穩(wěn)固地位。Xen虛擬化技術(shù)構(gòu)筑安全與隔離的基石。公共云最顯著的挑戰(zhàn)之一是實現(xiàn)安全的多租戶如何在同一臺物理硬件上運行多個客戶的虛擬機,同時確保它們之間互不干擾、數(shù)據(jù)互不可見。AWS早期的解決方案是采用一個高度定制化的Xenhypervisor(虛擬機監(jiān)控程序)。Xen通過在比客戶操作系統(tǒng)(GuestOS)更高權(quán)限的CPU環(huán)(Ring0)中運行,而在較低權(quán)限的環(huán)(Ring1)中運行客戶操作系統(tǒng),從而提供了強大的隔離。至關(guān)重要的是,hypervisor負責(zé)管理物理資源。它會在內(nèi)存被釋放給另一個客戶之前進行擦除(清零并對磁盤訪問進行虛擬化,阻止客戶直接訪問底層硬件。此外,強制性的防火墻也被實現(xiàn)在hypervisor層,位于物理網(wǎng)卡和虛擬網(wǎng)卡之間。這意味著所有網(wǎng)絡(luò)包都必須經(jīng)過這一層過濾,從而提供了一個無法從客戶操作系統(tǒng)內(nèi)部篡改的堅固安全邊界。這一系列復(fù)雜而關(guān)鍵的技術(shù)實現(xiàn),有助于AWS實現(xiàn)更強大的數(shù)據(jù)安全、客戶隱私信任。圖13:AmazonEC2多層安全保護圖14:AmazonEC2安全防火墻數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券3.2.3.定價革命:“按需付費”較大地降低了客戶的創(chuàng)新門檻和試錯成本“按需付費”使得客戶只需為他們實際消耗的資源付費,較大地降低了創(chuàng)新的門檻和試錯的成本?!鞍葱韪顿M”(Pay-as-you-go)是AWS最具顛覆性的商業(yè)創(chuàng)新。它將企業(yè)在IT上的巨額前期資本支出(CAPEX)轉(zhuǎn)變?yōu)榭勺兊倪\營支出(OPEX)??蛻糁恍铻樗麄儗嶋H消耗的資源付費,計量單位可以精確到秒或小時,無需簽訂長期合同或支付復(fù)雜的許可費用。這種模式類似于支付水電費,用多少付多少,不用即停,無額外成本,極大地降低了創(chuàng)新的門檻和試錯的成本。開發(fā)者可以快速啟動一個項目進行實驗,如果失敗,損失也微乎其微,這極大地激發(fā)了創(chuàng)新活力。數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券按需付費模式與資金緊張的初創(chuàng)企業(yè)完美契合,許多標志性初創(chuàng)公司,包括Netflix、Dropbox和Airbnb,都是在AWS上構(gòu)建其整個業(yè)務(wù)的。例如Airbnb在公司成立一年后,為了“快速行動并保持精簡”,Airbnb將其幾乎所有的云計算功能都遷移到了AWS。通過使用EC2、S3和RDS,他們得以將工程資源集中在匹配房東與租客的核心業(yè)務(wù)上,而不是耗費在基礎(chǔ)設(shè)施的日常管理上。再例如Netflix作為AWS最早期的“元老級”客戶之一,Netflix將其幾乎所有的計算和存儲需求都放在AWS上,包括視頻轉(zhuǎn)碼、數(shù)據(jù)庫和推薦引擎等,充分利用了AWS的巨大規(guī)模。這些初創(chuàng)公司也為AWS的研發(fā)和創(chuàng)新提供新引擎和新場景。例如Netflix不斷挑戰(zhàn)AWS平臺能力的極限,為AWS提供了寶貴的、真實世界的壓力測試,并反過來驅(qū)動了新功能和新服務(wù)的開發(fā),最終使整個平臺受益。例如,Netflix著名的開源項目“混沌猴”(ChaosMonkey)就是為了在AWS上通過主動制造故障來測試系統(tǒng)韌性而開發(fā)的。這種來自極限用例的反饋和知識,為AWS提供了改進可靠性、可擴展性和性能的路線圖。當(dāng)AWS推出像DynamoDB(高性能NoSQL數(shù)據(jù)庫)或Kinesis(實時數(shù)據(jù)流服務(wù))這樣的服務(wù)時,正是為了響應(yīng)這些超大規(guī)??蛻羲故境龅男枘壳?,AmazonAWS按照模塊付費,可選模塊共196種,包括容器、數(shù)據(jù)庫、量子技術(shù)、機器人技術(shù)、機器學(xué)習(xí)等多種模塊產(chǎn)品。同時,其精細到秒的計費粒度對于處理短暫或突發(fā)性工作負載的客戶而言,具有很強的成本吸引力。圖16:AmazonAWS按照模塊付費,可選模塊共196種數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券3.2.4.培育生態(tài)系統(tǒng):涵蓋開發(fā)者支持以及技術(shù)和咨詢合作伙伴生態(tài)系統(tǒng)化對于開發(fā)者,AWS提供了全面的文檔、活躍的開發(fā)者論壇、內(nèi)容豐富的白皮書以及針對多種編程語言的軟件開發(fā)工具包(SDK極大地降低了開發(fā)者的學(xué)習(xí)和使用門檻。圖17:AmazonAWS對于開發(fā)者的支持數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券對于AWS合作伙伴,AWS于2012年正式推出的APN,將技術(shù)和咨詢合作伙伴生態(tài)系統(tǒng)化。這極大地擴展了AWS的銷售和服務(wù)覆蓋范圍,幫助企業(yè)客戶進行遷移和管理,同時也創(chuàng)造了另一層客戶粘性——客戶不僅依賴AWS,還依賴于圍繞AWS構(gòu)建的整個工具和服務(wù)生態(tài)。目前,這個生態(tài)系統(tǒng)包括數(shù)百萬活躍客戶、數(shù)萬家合作伙伴以及在AWSMarketplace上提供的海量第三方軟件和服務(wù)。對于新客戶而言,選擇AWS意味著可以立即接入這個龐大的資源網(wǎng)絡(luò),輕松找到所需的技術(shù)解決方案和專業(yè)服務(wù)。AWS在自研芯片領(lǐng)域的持續(xù)投入也構(gòu)成了其關(guān)鍵優(yōu)勢。AWSTrainium芯片是AWS專門為人工智能訓(xùn)練和推理打造的人工智能芯片系列,可在降低成本的同時提供高第一代AWSTrainium芯片為AmazonElasticComputeCloud(AmazonEC2)Trn1提供支持,訓(xùn)練成本比同類AmazonEC2(用英偉達、AMD等非自研芯片)低50%,包括Databricks、Ricoh、NinjaTechAI和ArceeAI在內(nèi)的許多客戶都已通過Trn1實現(xiàn)性能和成本優(yōu)勢。AWSTrainium2芯片的性能是第一代Trainium的4倍,可用于訓(xùn)練和部署具有數(shù)千億至數(shù)萬億參數(shù)的模型?;赥rainium2的AmazonEC2Trn2專為生成式人工智能而構(gòu)建,是用于訓(xùn)練和部署具有數(shù)千億至數(shù)萬億參數(shù)的模型的功能強大的EC2。與當(dāng)前一代基于GPU的EC2P5e和P5en相比,Trn2的性價比高出30-40%。圖18:AWSTrainium2與Trainium數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券基于Trainium2的AmazonEC2Trn2采用16個Trainium2芯片,這些芯片使用專有的芯片間互連技術(shù)NeuronLink進行連接??蛻艨梢允褂肨rn2訓(xùn)練和部署大型語言模型(LLM)、多模態(tài)模型和擴散轉(zhuǎn)換器,以構(gòu)建廣泛的下一代生成式人工智能應(yīng)用程序集。Trn2UltraServers是一款全新的EC2產(chǎn)品非常適合需要比獨立EC2更多的內(nèi)存和內(nèi)存帶寬的大型模型。UltraServer設(shè)計使用NeuronLink將四個Trn2中的64個Trainium2芯片連接到一個節(jié)點。在推理方面,UltraServers有助于提供業(yè)界領(lǐng)先的響應(yīng)時間,打造最佳的實時體驗。在訓(xùn)練方面,UltraServers以比獨立更快的速度并行運行模型集體通信,從而提高模型訓(xùn)練速度和效率。圖20:AmazonEC2Trn圖20:AmazonEC2Trn2機柜樣式及性能數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券圖21:AmazonEC2Trn2UltraServers樣式及性能數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券圖22:AmazonEC2Trn2UltraClusters樣式及性能數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券Trainium1主要對標NVIDIAA100,Trainium2主要對標NVIDIAH100GPU以及AMDInstinctMI250X/MI300X系列。從單芯片的算力(TFLOPS)來看,NVIDIAH100更有優(yōu)勢。例如,單顆Trainium2芯片提供667TFLOPS的BF16算力,而H表3:AWSTrainium2、NVIDIAH100、AMDMI300X性能參數(shù)對比AWSTrainium2NVIDIAH100(SXM5)AMDInstinctMI300XHopperCDNA3制程工藝N/A4nm5/6nm算力(BF16/FP16)667TFLOPS1979TFLOPS(稀疏)1307TFLOPS算力(稠密FP8)1299TFLOPS3958TFLOPS(稀疏)2614TFLOPS(稀疏)96GBHBM3HBM3HBM32.9TB/s3.35TB/s5.3TB/s互聯(lián)帶寬(NeuronLink)900GB/s(NVLink)896GB/s(InfinityFabric)數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),英偉達官網(wǎng),AMD官網(wǎng),東北證券我們認為,AWS自研芯片的核心競爭優(yōu)勢為性價比,相較于英偉達對標芯片、訓(xùn)練成本最高可降低40%,訓(xùn)練速度最高可提升50%。盡管H100單卡性能更強,但租用一個完整的Trn2機柜的每小時成本顯著更低。搭載AWSTrainium芯片的全新Trn1實例提供“云端最快、成本最低的機器學(xué)習(xí)訓(xùn)練”,與搭載NVIDIAA100的最新P4d實例相比,深度學(xué)習(xí)模型訓(xùn)練成本最高可降低40%。AWS表示,Trainium芯片可提供最高的萬億次浮點運算(TFLOPS)性能,使機器學(xué)習(xí)模型訓(xùn)練速度比最新的P4d實例最高可提升50%。圖23:AWSTrainium芯片優(yōu)勢數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券AWS控制了從芯片設(shè)計到云服務(wù)的整個鏈條,從而提供最具經(jīng)濟吸引力的解決方案。AWS的競爭策略并非是打造一款能全方位超越NVIDIA的芯片,而是在其自有的云生態(tài)系統(tǒng)內(nèi),打造一個垂直整合的、最優(yōu)化的技術(shù)棧,在此體系中AWS控制了從芯片設(shè)計到云服務(wù)的整個鏈條,從而提供了最佳的“性價比”。這種策略將競爭的焦點從單純的硬件規(guī)格比拼,轉(zhuǎn)移到了平臺級的總擁有成本的較量。2023年2月ChatGPT火爆全球,微軟與OpenAI的聯(lián)盟已經(jīng)取得了顯著的市場先發(fā)優(yōu)勢,而谷歌憑借其強大的DeepMind團隊也在步步緊逼。面對競爭對手的迅猛攻勢,亞馬遜迫切需要一個頂級AI合作伙伴來鞏固其在云計算領(lǐng)域的領(lǐng)導(dǎo)地位,并彌補其在基礎(chǔ)大模型領(lǐng)域的相對短板。(1)亞馬遜向AI大模型初創(chuàng)公司Anthropic投資80億美元巨額資金,Anthropic將AWS作為其主要云提供商,并使用亞馬遜自研芯片進行模型訓(xùn)練推理。亞馬遜向AI大模型初創(chuàng)公司Anthropic投資80億美元巨額資金。2023年9月亞馬遜宣布對Anthropic進行12.5億美元的投資,我們認為,這意味著亞馬遜將全力支持一個能夠與GPT系列模型和Gemini模型相抗衡的強大競爭者。2024年3月,隨著Anthropic發(fā)布其備受贊譽的Claude3系列模型,亞馬遜迅速兌現(xiàn)了其投資承諾的剩余部分。Claude3系列模型,尤其是其頂級型號Opus,在多項行業(yè)基準測試中表現(xiàn)出與OpenAI的GPT-4相當(dāng)甚至超越的性能,證明了Anthropic的技術(shù)實力和巨大潛力。2024年11月,亞馬遜再次向Anthropic追加了40億美元投資,使其總投資承諾達到了80億美元。表4:Anthropic成立至今融資概覽輪次名稱投后估值主要投資者2021年5月SeriesA1.24億美元8.45億美元DustinMoskovitz,EricSchmidt,JaanTallinn2022年4月SeriesB5.8億美元未明確披露SamBankman-Fried,CarolineEllison,JimMcClave2023年5月SeriesC4.5億美元41億美元Zoom,SparkCapital,SalesforceVentures,Google,Microsoft,HOFCapital,2023年8月戰(zhàn)略投資41億美元+SKTelecom2023年9月戰(zhàn)略投資12.5億美元Amazon戰(zhàn)略投資5億美元Google2024年2月SeriesD500萬美元MIS,Qualcomm,Intuit2024年3月戰(zhàn)略投資27.5億美元Amazon(完成第一筆總計40億美元戰(zhàn)略投資40億美元-Amazon(第二筆重大投資)2025年2月SeriesEGoogle2025年3月SeriesE35億美元615億美元LightspeedVenturePartners,GeneralCatalyst,Fidelity2025年5月債務(wù)融資25億美元-GoldmanSachs,JPMorganChase,MorganStanley2025年9月SeriesF1830億美元ICONIQCapital,Fidelity,LightspeedVenturePartners,BlackRock,GIC,InsightPartners等數(shù)據(jù)來源:Tracxn,東北證券根據(jù)協(xié)議,亞馬遜通過這筆投資獲得了Anthropic的少數(shù)股權(quán),但亞馬遜并未在Anthropic的董事會中占有席位。既能確保亞馬遜深度綁定一個頂尖AI模型提供商,又能給予Anthropic足夠的運營獨立性,保護其作為一家以“AI安全”為核心理念的公司的研發(fā)文化和長期愿景。Anthropic的商業(yè)化落地加速,到2025年7月,Anthropic的年化收入預(yù)計將達到50億美元。根據(jù)Theinformation,SQMagazine的拆分,Anthropic年化收入中預(yù)計API收入31億美元,其中約14億美元來自Cursor和GitHubCopilot集成,此外還有消費者訂閱為7億美元,業(yè)務(wù)和合作收入為9美元。圖24:2022年-2025年7月大模型初創(chuàng)公司Anthropic年化收入ARR變化(億美元)數(shù)據(jù)來源:Sacra,東北證券圖25:大模型初創(chuàng)公司Anthropic年化收入ARR數(shù)據(jù)來源:Theinformation,SQMagazine,東北證券Anthropic的商業(yè)化落地爆發(fā)式增長主要原因是其大模型在編程領(lǐng)域獨樹一幟、使得在企業(yè)級領(lǐng)域需求旺盛。Anthropic的Claude系列模型,尤其在代碼生成、文檔處理和可定制化方面表現(xiàn)出色,受到了大量企業(yè)客戶的青睞。超過30萬家企業(yè)客戶正在使用其服務(wù)。同時,專為開發(fā)者設(shè)計的ClaudeCode等新產(chǎn)品線,自推出后短短幾個月內(nèi)就創(chuàng)造了數(shù)億美元的ARR,成為新的增長引擎。圖26:ClaudeOpus4是Anthropic是全球最佳的編碼模型之一數(shù)據(jù)來源:Anthropic官網(wǎng),東北證券圖27:ClaudeSonnet4在SWE-bench上實現(xiàn)了72.7%的出色編碼效率數(shù)據(jù)來源:Anthropic官網(wǎng),東北證券圖28:全球模型kimi、Deepseek、通義、ChatGPT、Anthropic各維度對比數(shù)據(jù)來源:TheSignal,東北證券在合作協(xié)議中規(guī)定Anthropic將AWS作為其主要云提供商,并使用亞馬遜自研芯片進行模型訓(xùn)練推理,并為AWS的客戶提供特別模型定制和微調(diào)功能的早期訪問權(quán)限。這涵蓋了從最耗費資源的模型訓(xùn)練、前沿的安全研究,到未來基礎(chǔ)模型的開發(fā)與部署等所有核心環(huán)節(jié),使用AWS的定制AI訓(xùn)練芯片Trainium和用于AI推理的芯片Inferentia來訓(xùn)練其AI的基礎(chǔ)模型,并為AWS的客戶提供特別模型定制和微調(diào)功能的早期訪問權(quán)限。這形成了一個強大的、自我強化的金融閉環(huán):亞馬遜的投資資金,有相當(dāng)一部分會直接轉(zhuǎn)化為其AWS部門的收入。通過這種方式,亞馬遜鎖定了一個長期、穩(wěn)定且需求巨大的云計算客戶。(2)Anthropic承諾使用Trainium和Inferentia進行其未來模型的研發(fā),在證明自研芯片性價比和易用性的同時,有望借助Anthropic進一步提升芯片性能。同時,Anthropic承諾使用Trainium和Inferentia進行其未來模型的研發(fā),包括構(gòu)建一個名為“ProjectRainier”的、包含“數(shù)十萬顆Trainium2芯片”的超級集群,這為Trainium平臺提供了強有力的外部驗證。它證明了自研芯片Trainium是訓(xùn)練基礎(chǔ)模型的可行替代方案。圖29:微軟和OpenAl、亞馬遜和Anthropic的競合關(guān)系亞馬遜不僅能夠向整個市場驗證其硬件的性能和成本效益,還能根據(jù)Anthropic的實際需求來迭代和優(yōu)化芯片設(shè)計。Anthropic的工程師團隊正與亞馬遜旗下的芯片設(shè)計部門AnnapurnaLabs直接合作,共同開發(fā)下一代的Trainium加速器。這種軟硬件協(xié)同設(shè)計,確保了未來的芯片架構(gòu)能夠最大限度地滿足Anthropic下一代模型的算力需求,從而構(gòu)筑起難以復(fù)制的性能優(yōu)勢。為了實現(xiàn)模型在自研芯片上的高效運行,亞馬遜提供了AWSNeuronSDK,幫助模型進行遷移適配。這個軟件開發(fā)工具包包含了編譯器、運行時系統(tǒng)和一系列工具,能夠?qū)⒂肞yTorch、TensorFlow等主流框架開發(fā)的模型進行深度優(yōu)化,編譯成能在Trainium和Inferentia芯片上高效執(zhí)行的格式。(3)AWS與Anthropic構(gòu)建了一個深度交織的商業(yè)與技術(shù)共生體。主次分明,雖然AWS的定位是“模型超市”,但是與Anthropic的合作較為緊密。亞馬遜的AWSBedrock平臺從一開始就旨在提供一個包含多種模型的“模型超市”,在表面上擁抱開放和選擇,為客戶提供來自不同供應(yīng)商的模型,但在核心層面,它將Anthropic打造為一個與自身生態(tài)系統(tǒng)深度融合、休戚與共的合作伙伴。Anthropic作為全球頂級的AI公司,其本身就是一個極具說服力的“樣板客戶”。當(dāng)其他AI開發(fā)者和企業(yè)看到Anthropic選擇在AWS上構(gòu)建其最先進的模型時,這無疑是對AWS平臺性能、穩(wěn)定性和安全性的最強背書,將吸引更多AI工作負載遷移至AWS。數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券亞馬遜與Anthropic構(gòu)建了一個深度交織的商業(yè)與技術(shù)共生體。雙方合作的一個關(guān)鍵支點是AmazonBedrock。Anthropic承諾,其未來幾代的基礎(chǔ)模型將通過AmazonBedrock向AWS的廣大客戶提供長期訪問權(quán)限。AmazonBedrock是一項全面、安全、靈活的服務(wù),用于構(gòu)建生成式人工智能應(yīng)用程序和代理。AmazonBedrock為客戶提供了多種領(lǐng)先的基礎(chǔ)模型(FM)、用于部署和運行代理的服務(wù)以及一些用于微調(diào)、保護和優(yōu)化模型的工具,還提供了若干個用于將應(yīng)用程序連接到最新數(shù)據(jù)的知識庫,從而讓客戶擁有從實驗迅速過渡到實際部署所需要的一切。AmazonBedrock是一個完全托管的服務(wù),它為企業(yè)提供了一個統(tǒng)一、安全且簡便的入口,以API的方式訪問包括Claude系列在內(nèi)的多種業(yè)界領(lǐng)先的基礎(chǔ)模型。這使得Bedrock成為企業(yè)客戶集成和使用Claude模型的首選平臺。企業(yè)客戶無需處理部署、管理和擴展大型模型的復(fù)雜工作,而是可以在一個安全合規(guī)的托管環(huán)境中,輕松地利用Claude的強大能力,同時確保自身的數(shù)據(jù)隱私和安全。Bedrock的核心價值在于其對安全性、隱私性和易用性。通過Bedrock調(diào)用模型時,客戶的數(shù)據(jù)不會與模型提供商共享。企業(yè)可以在自己的AWS環(huán)境中,使用自有數(shù)據(jù)對模型進行微調(diào)或構(gòu)建知識庫,從而創(chuàng)建模型的私有化、定制化版本,而無需擔(dān)心敏感數(shù)據(jù)外泄。圖31:AmazonBedrockAgentCore包含Agent執(zhí)行實際工作流時所需的基礎(chǔ)工具數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券圖32:AmazonBedrock工具可以幫用戶進行寫作創(chuàng)作、文章總結(jié)等工作數(shù)據(jù)來源:亞馬遜AWS官網(wǎng),東北證券通過AmazonBedrock,亞馬遜極大地降低了企業(yè)使用頂級AI模型的門檻。開發(fā)者和企業(yè)在使用Bedrock上的Claude模型構(gòu)建應(yīng)用,就是在加速培育AWS生態(tài),并進一步增強用戶粘性。我們認為,這不僅僅是銷售一個模型的API調(diào)用,而是在培育一個龐大的生態(tài)系統(tǒng)。開發(fā)者和企業(yè)在使用Bedrock上的Claude模型構(gòu)建應(yīng)用時,很自然地會結(jié)合使用AWS的其他服務(wù),如用于構(gòu)建AI代理的AWSLambda、用于知識庫的AmazonS3等。一旦應(yīng)用成型并獲得市場成功,其底層技術(shù)棧就與AWS深度綁定。此時,若想將整個應(yīng)用遷移到另一個云平臺(如Azure)并替換成另一個模型(如GPT-4將面臨巨大的工程成本、時間和風(fēng)險。因此,最初選擇在Bedrock上使用Claude的決定,會逐漸演變成對整個AWS平臺的長期客戶粘性,從而構(gòu)筑起強大的轉(zhuǎn)換壁壘。(4)亞馬遜AWSAI戰(zhàn)略:從底層芯片到頂層應(yīng)用的全??刂?、創(chuàng)造了一個成本與性能的護城河。通過控制從定制芯片(Trainium/Inferentia到硬件優(yōu)化軟件(NeuronSDK再到托管服務(wù)層(Bedrock最后到旗艦?zāi)P停–laude)的整個技術(shù)棧,亞馬遜能夠?qū)崿F(xiàn)端到端的性能調(diào)優(yōu)和成本控制。這種垂直整合減少了各個環(huán)節(jié)之間的摩擦和效率損失,使得在AWS上運行Claude模型,相比于在第三方硬件上運行,或者在其他云平臺上運行,可能具有更低的延遲和更具競爭力的價格。這種成本和性能優(yōu)勢,最終會轉(zhuǎn)化為吸引客戶的核心競爭力。2、亞馬遜與Anthropic的合作關(guān)系將持續(xù)深化,走向技術(shù)協(xié)同與產(chǎn)品集成。技術(shù)協(xié)同的深化,自研芯片研發(fā)與Claude模型迭代。例如Anthropic未來的旗艦?zāi)P蛯⑴c亞馬遜下一代的Trainium和Inferentia芯片進行協(xié)同設(shè)計。這種從算法到硬件的端到端優(yōu)化,將使Claude模型在AWS上運行時獲得其他平臺無法比擬的性能和成本優(yōu)勢,構(gòu)筑起堅固的技術(shù)壁壘。數(shù)據(jù)來源:wind,東北證券產(chǎn)品集成的擴展,從AWS工具到終端消費產(chǎn)品。目前,Claude主要通過AmazonBedrock以API的形式提供服務(wù)。未來,Claude的能力有望被更原生、更無縫地嵌入到更廣泛的AWS服務(wù),如數(shù)據(jù)庫、分析工具、商業(yè)智能應(yīng)用,以及亞馬遜的終端消費產(chǎn)品如新一代Alexa中。屆時,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論