DeepSeek洞察與大模型應(yīng)用-人工智能技術(shù)發(fā)展與應(yīng)用實踐+DeepSeek私有化部署和一體機分析_第1頁
DeepSeek洞察與大模型應(yīng)用-人工智能技術(shù)發(fā)展與應(yīng)用實踐+DeepSeek私有化部署和一體機分析_第2頁
DeepSeek洞察與大模型應(yīng)用-人工智能技術(shù)發(fā)展與應(yīng)用實踐+DeepSeek私有化部署和一體機分析_第3頁
DeepSeek洞察與大模型應(yīng)用-人工智能技術(shù)發(fā)展與應(yīng)用實踐+DeepSeek私有化部署和一體機分析_第4頁
DeepSeek洞察與大模型應(yīng)用-人工智能技術(shù)發(fā)展與應(yīng)用實踐+DeepSeek私有化部署和一體機分析_第5頁
已閱讀5頁,還剩151頁未讀 繼續(xù)免費閱讀

付費下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

DeepSeek

洞察與大模型應(yīng)用人工智能技術(shù)發(fā)展與應(yīng)用實踐2025年中美在Al領(lǐng)域的現(xiàn)狀及對比大慎型的應(yīng)用場景主流大模型與AIT

具DeepSeek

介紹大模型使用建議0102030405幻方/

DeepSeek

時間線幻方AIR12021V3量化破千億規(guī)模躋身量化“四大天王”v?deepseek僅1元2019

2019成立幻方AI

螢火一號集群幻方人工智能基礎(chǔ)

500卡研究有限公司

后增加1100加速卡2億投資·DeepSeek

是私募量化巨頭幻方量化旗下的一家大模型企業(yè),成立于2023

年5月份。·

幻方量化營收:作為中國頭部量化對沖基金,曾管理資金規(guī)模超160億美

元(

2

0

1

9

)

,年管理費收入超過3億美元。_2017年底

2018量化策略全AI化

確立Al為核心

的發(fā)展方向成立DeepSeek杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司2022美國管制高端GPU

芯片出口螢火二號擴容翻倍幻方量化2015.6成立幻方量化2021螢火二號集群

10000卡A10010億投資DeepSeek公司概況幻方1人工智能

螢FiRE·LYL2016.10推出首個Al模型2025.192024.126

20245

92023.5

2024.1DeepSeek

V1Janus2025.19

多模態(tài)中國聯(lián)通

China

unicomUniAI元景大模型每百萬tokenR1-zero②DeepSeek-V3(

標GPT-4o)

于2024年12月26日推出,因其顯著的性能,用戶迅速開始增長·Deepseek-V3

仍是基于Transformer架構(gòu)的模型,是

一個強大的混合專家(MoE)模型,總共有671B個參數(shù),生成每個token

時激活37B

參數(shù)·

訓練成本比Llama

405B

低一個量級·DeepSeek-V3所采用的技術(shù):·MLA

多頭潛在注意力機制(降低顯存占用)·MTP多token

預(yù)測(提升效果、提升推理速度)·FP8混合精度訓練、DualPipe

流水線、MoE負載

均衡(提升訓練效率,降低訓練成本)DeepSeek-V3多項評測成績超越了Qman2.5-72B

和Llara-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-40以及Claudg-3.5-Sornet

不分伯仲。DeepSeek-V3中國聯(lián)通ChinaunicomUniAI元景大模型Accuracy/Percentile(%)DeepSeek-R1

(對標GPT-o1)

于2025年1月20日推出,隨后DeepSeek進一步出圈·R1推出后,追平GPT-o1,

迅速出圈海外。從DeepSeek

在美國下載排名從1月22日的201名,迅速

在1月27日登頂?shù)谝幻?;截?月30日,DeepSeek

168個國家位居下載榜第一名·

DeepSeek-R1-Zero

:

一種通過大規(guī)模強化學習(RL)訓練的模型,沒有監(jiān)督微調(diào)(SFT)作為初步步驟,

展示了卓越的推理能力。通過強化學習,

R1-Zero

自然

而然地出現(xiàn)了許多強大而有趣的推理行為;但是,遇到

了可讀性差和語言混合等挑戰(zhàn)·

DeepSeek-R1:

為了解決這些問題并進一步提高推理性

,DeepSeek團隊引入了

R1,

在RL之前結(jié)合了

多階段訓練和少量冷啟動數(shù)據(jù)。

R1在推理任務(wù)上實現(xiàn)

了與OpenAI-o1-1217

相當?shù)男阅蹹eepSeek-R1中國聯(lián)通ChinaunicomUniAI元景大模型Rank*(UB)1114447799999Rank(StyleCtrl)321272578981515HodelGemini-2.0-Flash-Thinking:Exp-01-21Genini-2.0-Pro-Exp-02-05ChatGPT-40-latest(2025=01-29)DeepSeek-R1Geini-2.0-Flash-90191-2024-12-171-0reviQwen2.5-HaxDeepSeek-V3Gemini-2.0-Flash-Lite:Pxeview-02-0503-min1GLM-4-Plus-0111Step-2-16K-ExRArenaScore138413791377136113551352133513321316130913071304130495%cI+5/-5+4/-76/-6+9/-9+7/-6+5/-5+4/-4+6/-6+6/-5+9/-6+8/-7+8/-8+8/-7Votes119499872864341907747139763316459681645671017177371351350rganizatiGoogleGoogleOpenAIDeepSeekGoogleOpenAIOpenAIAlibabaDeepSeekGoogleOpenAIZhipuStepfunLicenseProprietaryProprietaryProprietaryHITProprietaryProprietaryProprietaryProprietaryDeepSoekProprietaryProprietaryProprietaryProprietary■

DeepSeek-V3

和R1進入到國際頂尖模型行列■

DeepSeek-R1

是綜合效果最好的開源模型,

排在眾多優(yōu)秀的開源和閉源模型前面■Qwen2.5-Max

、GLM-4-Plus

、Step-2-16K-Exp

等國產(chǎn)模型也有不俗的表現(xiàn)大模型競技場(Chatbot

Arena

LLM

Leaderboard,https://lmarena.ai/?leaderboard)

更新日期:2025-2-11DeepSeek

模型效果(1/2):世界最頂尖模型的對比中國聯(lián)通China

unicomUniAI元景大模型DeepSeek

模型效果(2/2)■

DeepSeek-V3和R1相對于700億以下開源模型(以干問720億

)

,多項能力明顯提升,擴充了其能力邊界■DeepSeek-R1引入深度推理能力,在代碼、數(shù)學、復(fù)雜規(guī)劃等

方面的能力顯著增強,使得對于新場景的支持成為可能中國聯(lián)通China

unicomUniAI元景大模型模型AIME2024MATH-500GPQADiamondLiveCode

BenchCodeForcespass@1pass@1pass@1pass@1ratingR1的15億蒸餾版(基于千問)28.983.933.816.9954R1的70億蒸餾版(基于千問)55.592.849.137.61189R1的140億蒸餾版(基于千問)69.793.959.153.11481R1的320億蒸餾版(基于千問)R1的80億蒸餾版(基于Llama)72.650.494.389.162.149.057.239.616911205R1的700億的蒸餾版(基于Llama)70.094.565.257.51633DeepSeek-R1DeepSeek-V379.839.297.390.271.559.165.936.220291134V3vs.

R1:

R1在普通的中文和英文任務(wù)上性能小幅領(lǐng)先,在數(shù)學和代碼等需要深度推理的場景下明顯勝出■

R1蒸餾版

vs.

R1滿血版:在數(shù)學、代碼等場景下的性能有明顯差距,蒸餾版參數(shù)量越小,與滿血版差距越大■

R1蒸餾版

vs

.V3

滿血版:140億以上參數(shù)的R1

蒸餾版的深度推理效果顯著強于V3滿血版;低參數(shù)量R1蒸餾版能力落后

于V3模型架構(gòu)參數(shù)量激活參數(shù)R1的15億蒸餾版稠密1.5B1.5BR1的70億蒸餾版稠密7B

7BR1的140億蒸餾版稠密14B

14BR1的320億蒸餾版稠密32B

32BR1的80億蒸餾版稠密8B

8BR1的700億的蒸餾版稠密70B

70BDeepSeek-R1MoE671B

37BDeepSeek-V3MoE671B

37BDeepSeek

不同版本對比模型參數(shù)量:顯存占用激活參數(shù):推理速度中國聯(lián)通ChinaunicomUniAI元景大模型訓練耗時單元:萬GPU

小時40-30.8

下降一個量級20-0Uama

3.14058DeepSeekV3671BMMLU

得分90Cksude-3.5-Sonnet●GPT-4o●Uama31-

4058·Qwen25-72B82*DeepSoek-2

3●GPT-40

miniAPI價格¥/M

tokens10)100OpenAI

奧特曼:

"DeepSeek是一個令人印象深刻的模型,但我們相信我們會繼續(xù)開拓前

沿并推出出色的產(chǎn)品,所以很高興能有另一個競爭對手。"Meta

扎克伯格:"DeepSeek

技術(shù)非常先進,這是一場差距很小的競爭。"雖然DeepSeek

已證明研發(fā)AI所需的資金和算力比之前預(yù)想的要少,但Meta

不會因此減少Al支出:“我仍然認為,從長遠來看,大力投入資本支出和基礎(chǔ)設(shè)施建設(shè)將成為一種戰(zhàn)略優(yōu)勢?!本矸e神經(jīng)網(wǎng)絡(luò)之父Yann

LeCun:“與其說中國AI正在追趕美國,不如說開源模型正在超越

閉源

。Anthropic

CEO達里奧

·

阿莫迪:我認為一個公平的說法是"DeepSeek

生產(chǎn)的模型接近

7-10個月前美國模型的性能,成本要低得多(但遠不及人們建議的比例)"Scale

AI創(chuàng)始人亞歷山大

·王:"DeepSeek可能改變中美在人工智能競賽中的格局"游戲科學創(chuàng)始人馮驥:"

DeepSeek,

可能是個國運級別的科技成果?!薄叭绻幸粋€AI大

模型做到以下任何一條,都是超級了不起的成就,但DeepSeek全部同時做到了:強大、便宜、開源、免費、聯(lián)網(wǎng)、本土"面壁智能首席科學家劉知遠:"DeepSeek

的意義更像Llama.

DeepSeekR1相當于是像

2023年初的OpenAI

ChatGPT一樣,讓所有人真正地感受到了震撼”DeepSeek

出圈原因分析1.DeepSeek-R1的卓越性能表現(xiàn)2.

DeepSeek-V3的超低訓練開銷DeepSeek

V3效果對標頂級閉源模型,訓練成本比LLaMA

個量級o1/o3Deepsgk-R1V3

訓練開銷&R1效果引發(fā)全球熱議首次提出開源復(fù)現(xiàn)ChatGPTLlama中國聯(lián)通ChinaunicomUniAI元景大模型Depslkevs·Qwen25-72B對數(shù)坐標86省份要求廣東集中發(fā)力人工智能和機器人領(lǐng)域浙江加快建設(shè)創(chuàng)新浙江、因地制宜發(fā)展新質(zhì)生產(chǎn)力廣西不能妄自菲薄、行動遲緩江西強化企業(yè)科技創(chuàng)新主體地位,推動科研成果向現(xiàn)實生產(chǎn)力轉(zhuǎn)化安徽在搶占科技制高點上奮勇爭先江蘇找準"一中心一基地一樞紐"甘肅著力捉升科技創(chuàng)新效能,深入實施研產(chǎn)融合科技攻關(guān)賦能計劃重慶部署實施“人工智能+”行動山東建立科技創(chuàng)新和產(chǎn)業(yè)創(chuàng)新融合機制湖北到2030年,具有全國影響力的科技創(chuàng)新高地加快形成DS作為一款現(xiàn)象級應(yīng)用,對全社會開展了一次人工智能科普再教育,DS

C端應(yīng)用人人裝,人人感受人工

智能,政府、企業(yè)管理者認識到人工智能戰(zhàn)略意義,由探索嘗試,升級為戰(zhàn)略布局,市場進入爆發(fā)期ChinaunicomDeepSeek影響:門檻全面降低,干行百業(yè)加速融AI

中國聯(lián)通

UniAIDS上線20日,日活超4000萬,已達到ChatGPT74%

,

成為

C端現(xiàn)象級應(yīng)用。微信、釘釘?shù)阮^部應(yīng)用紛紛接入截至2月15日,全國10省省委書記將人工智能作為

新春第一會重點部署,B端大模型應(yīng)用進一步加速元景大模型DS開源策略全面沖擊基礎(chǔ)模型商業(yè)模式,將大廠在C端、

B端過去一年構(gòu)建的技術(shù)優(yōu)勢拉回同一起跑線

,市場競爭從一階段比拼模型能力,進入比拼應(yīng)用、數(shù)據(jù)、工程化交付能力的第二階段C端AI應(yīng)用市場格局重構(gòu),新入局者迎來機遇

B端客戶全面評估DS影響,重新論證基礎(chǔ)模型選型·

某機構(gòu)接國家FGW

通知,全面評估DS

影響,組織專

題論證會,重新評估基礎(chǔ)模型選型,由原某公司大

模型為主,轉(zhuǎn)為吸納多家模型,重點引入DS·山東省委書記于開年第一天工作會上,明確部署省

數(shù)據(jù)局研究DS,研究人工智能·

某央企董事長在開年第一天即召集全管理層會議,開展AI

全面賦能生產(chǎn)運營工作部署·

中石油、中石化、南網(wǎng)、星網(wǎng)、中廣核、中鋁等央國企均在擁抱對接或重新研判AI應(yīng)用全端DAU(萬)T去重豆包2505Kimi688文小言302ChatGPT13280Deepseek11979統(tǒng)計周期2025/01/10-2025/02/08China

unicomDeepSeek

影響:格局被打亂,

AI競爭進入第二階段

中國聯(lián)通

UniAIDS國內(nèi)登頂、全球僅次于GPT,

月均活躍用戶數(shù)躍居第一,

全球全端DA

U

近1.2億;納米AI搜索(原360)將其核心模

型換為DS1月web

端訪問量登頂、APP

端增速位列第2元景大模型—10—中美在Al領(lǐng)域的現(xiàn)狀及對比主流大模型與AIT

具大模型使用建議大慎型的應(yīng)用場景DeepSeek介紹0102030405全球數(shù)字科技人才總量

H-index20

以上人才數(shù)量■

12758a724M

7,1463520349233251+

2

77681

1

1+1

221975831

1

204

686工

工1266s422湖

=212我國高端人才的數(shù)量和密度跟美國有明顯差距■我國AI領(lǐng)域重大原創(chuàng)性成果的數(shù)量落后于美國中美在AI領(lǐng)域的對比:人才與技術(shù)人工智能領(lǐng)域被引用最多的100篇論文(2020~2022)中國聯(lián)通China

unicomUniAI元景大模型12中美在AIGC行業(yè)的獨角魯情況對比國別

公司簡稱

分類成立時間

最新估值最近融資時間中國月之暗面MoonshotAAIGC2023年4月

30億美元

2024/5/21智譜A

大模型

2019年6月

28.46億美元2024/5/31Minimax稀字科技通用人工智能2021年11月

25億美元

2024/3/4小冰

AIGC

2020年5月23.08乙美元2022/11/7思必馳

AIGC

2007年10月

16.15乙美元

2024/1/10百用智能

大模型

2023年3月

12億美元2023/10/17廢琺科技XmovA虛報人

2017年10月

11億美元

2022/4/6零一萬物

大模型

2023年5月

10億美元

2023/11/6美國OpenA

AGI

2015年12月

290億美元

2023/1/24xA

AGI2023年7月60億美元2024/5/27Hugging

Face

chatbot2016年1月45億美元

2023/8/23Anthropic

大模型Claude2019年2月

44億美元

2023/9/25Inflection

A

AIGC

2022年1月

40億美元

2023/6/30Coprition

AI程序員技術(shù)

2023年1月20億美元2024/4/25Runway

AI圖/視顧A編輯

2018年1月

15億美元

2023/5/5jasper.ai

AIGC

2021年1月

15億美元

2022/10/26RepltAI輔助編程

2016年1月

11.60乙美元

2023/4/26imbue

AI研究實驗室

2021年1月10億美元

2023/9/8Typeface

AIGC

2022年1月

10億美元2023/717Character,l

chutbot

2021年1月

10億美元

2023/3/6Glean

工作助手2019年1月

10億美元

2021/5/18Adept

AGI

2022年1月

10億美元2023/3/15:“貼情儀供酸止日期:202446月5

:樓子

com中美在AI領(lǐng)域的對比:企業(yè)■

中美頭部高科技企業(yè)的市值差距非常顯著■我

國AI獨角獸的數(shù)量和估值落后于美國■頭部高科技企業(yè)■美國7大科技公司市值:均在萬億美元以上,合計約18

萬億美元■

中國7大科技公司市值:第一名5600億美元,合計約1.4

萬億美元AI獨角獸中國聯(lián)通China

unicom82四UniAI元景大模型2015-2024年中國行務(wù)

批00

20212022

2413—

—中●

:昇騰系列芯片,產(chǎn)品性能和銷量國內(nèi)領(lǐng)先,

910B

性能對標A100●

其它國產(chǎn)芯片廠商:海光、寒武紀、燧原科技、沐

曦、天數(shù)智芯、摩爾線程、壁仞科技、昆侖芯科技

、阿里平頭哥等美●英偉達:擁

有A100、H100、B200

等GPU芯片,性

能和穩(wěn)定性遙遙領(lǐng)先,又有CUDA生態(tài)加持,在AI芯

片市場牢牢占據(jù)主導地位●

AMD

:MI300系列●

Google:

TPU●

Groq

:

高性能AI推理芯片●博

通:在ASIC

(專用集成電路)定制芯片領(lǐng)域表現(xiàn)

突出,2024年市值突破萬億美元■美國企業(yè)在GPU

芯片領(lǐng)域占據(jù)絕對優(yōu)勢,尤其英偉達芯片性能高、生態(tài)成熟■國產(chǎn)芯片近幾年進步很快,但在性能、產(chǎn)能、軟件適配和生態(tài)方面還有顯著差距中美在AI領(lǐng)域的對比:GPU

芯片中國聯(lián)通ChinaunicomUniAI元景大模型VS.模型廠商國家代表性模型及競技場排名是否開放模型權(quán)重谷歌(Google)美國Gemini-2.0-Flash-Thinking-Exp-01-21,#1Gemini-2.0-Pro-Exp-02-05,#1不開放OpenAI美國ChatGPT-4o-latest

(2025-01-29),#1

o1-2024-12-17,#4不開放DeepSeek中國DeepSeek-R1,#4DeepSeek-V3,#9Deepseek-v2.5-1210,#17開放阿里巴巴中國Qwen2.5-Max,#7Qwen2.5-plus-1127,#16Qwen2.5-72B-Instruct,#33不開放不開放開放智譜中國GLM-4-Plus-0111,#9不開放階躍星辰中國Step-2-16K-Exp,#9不開放xAI美國Grok-2-08-13,#16不開放零一萬物中國Yi-Lightning,#16不開放Anthropic美國Claude

3.5

Sonnet

(20241022),#16Claude3.5

Sonnet

(20240620),#23不開放Meta美國Meta-Llama-3.1-405B-Instruct-bf16,#21Llama-3.3-70B-Instruct,#33開放Mistral

AI法國Mistral-Large-2407,#37Mistral-Small-24B-Instruct-2501,#50開放中美在AI領(lǐng)域的對比:頭部大模型■在模型效果上,中國大大縮小了與美國的差

距,呈現(xiàn)與美國平分秋色的格局■模型開源領(lǐng)域:

DeepSeek

超越Meta,

為效果最好的開源模型,阿里巴巴干問系列

模型下載量超過Meta

的Llama

系列中國聯(lián)通ChinaunicomUniAI元景大模型—15—·特朗普:"

DeepSeek的技術(shù)進步為美國敲響了警鐘"·美國新任白宮新聞秘書卡羅琳

·萊維特:“白宮正在努力確保美國人工智能

的主導地位,美國國家安全委員會正對DeepSeek

開展國家安全調(diào)查"·美國商務(wù)部長提名人霍華德

·盧特尼克:指

DeepSeek

抄襲美國科技公司

并違反美國芯片出口禁令來建立其模型?!拔覀冃枰V箮椭麄?。Meta

的開放平臺(開源模型Llama)

讓DeepSeek

依賴它。他們購買了大量英

偉達的芯片,并找到了自己的方法,推動了他們的

DeepSeek模型,這種

情況必須結(jié)束。"·美國商務(wù)部工業(yè)與安全局BIS啟動對新加坡芯片轉(zhuǎn)口貿(mào)易調(diào)查,核查

HS8542類目芯片是否違規(guī)流向DeepSeek,擬議對華禁售H20芯片·

美國國會、得州、NASA、美國海軍、美國國防部已禁止使用deepseek.·Anthropic

CEO達里奧

·

阿莫迪:對于DeepSeek

的崛起,美國應(yīng)該加強管制2025年1月29日,美國參議員Josh

Hawley

提出《2025年美國與中國人工智

能能力脫鉤法案》,旨在全面切斷中美在人工智能(AI)

領(lǐng)域的技術(shù)合作、資本流

動,以遏制中國在AI領(lǐng)域的競爭力,保護美國技術(shù)優(yōu)勢①

AI技術(shù)與知識產(chǎn)權(quán)流動禁令:法案禁止從中國進口或向中國出口任何與AI相關(guān)的

技術(shù)或知識產(chǎn)權(quán),包括芯片(GPU、CPU

等)、存儲設(shè)備、操作系統(tǒng)、云計算服務(wù)等

核心硬件和軟件,以及版權(quán)、專利、商業(yè)秘密等知識產(chǎn)權(quán)。②AI研發(fā)合作全面禁止:美國公民、綠卡持有者及機構(gòu)不得在中國境內(nèi)從事AI研發(fā),

也不得與中國的“受關(guān)注實體”(包括高校、企業(yè)、政府機構(gòu)等)及其海外子公司合

作。③對華AI投資徹底切斷:禁止美國個人或機構(gòu)投資中國Al企業(yè)的公開股票和證券,

防止資金間接支持中國AI發(fā)展。④

處罰措施:刑事處罰:個人最高罰款100萬美元、監(jiān)禁20年;企業(yè)罰款1億美元,

并取消聯(lián)邦合同及許可證。民事賠償:違規(guī)者需支付三倍損失賠償及訴訟費用,并可

能被禁止獲得聯(lián)邦資助5年。驅(qū)逐出境:違者可能被驅(qū)逐出境(非美國公民)或面臨

高額罰款⑤針對DeepSeek的特別禁令,使用或下載中國AI公司DeepSeek的產(chǎn)品將被視為犯

罪,最高判20年監(jiān)禁。中:突破技術(shù)封鎖,在大模型這個關(guān)鍵賽道上與美國的差距無限縮小,信心增強,科技股崛起美:發(fā)現(xiàn)在模型的技術(shù)創(chuàng)新上已經(jīng)被中國追趕并部分超越,危機感和壓力陡然增加,預(yù)計會加大對華技術(shù)封鎖(更嚴格的芯片禁令等)美國上升到影響國家安全,擬進一步收緊對華芯片政策

美參議員提出《2025年美國與中國人工智能能力脫鉤法案》,有脫鉤風險DeepSeek

對中美科技競爭產(chǎn)生深刻影響中國聯(lián)通ChinaunicomUniAI元景大模型16-中美在Al領(lǐng)域的現(xiàn)狀及對比大模型使用建議主流大模型與AI

工具DeepSeek介紹大慎型的應(yīng)用場景0102030405公司

模型ChatGPT系列OpenAI

GPT-4o系列Google

Gemini系列Gemma系列xAI

Grok系列Anthropic

Claude系列Meta

Llama系列Mistral系列Mistral

AIMixtral系列公司模型深度求索DeepSeek-V3/R1等智譜GLM系列MiniMaxMiniMax-Text-01等月之暗面Kimi大模型階躍星辰Step系列百川智能Baichuan系列零一萬物Yi系列公司模型阿里巴巴干問(Qwen)系列字節(jié)跳動豆包大模型百度文心大模型騰訊混元大模型華為盤古大模型公司模型聯(lián)通元景大模型電信星辰大模型移動九天大模型國內(nèi)主流大模型國內(nèi)大模型七小虎:國內(nèi)互聯(lián)網(wǎng)公司:中國聯(lián)通China

unicomo1系列

03系列UniAI元景大模型國外大模型:國

內(nèi)

:工具名稱

類型所屬公司備注夸克

AI搜索阿里巴巴https://www.quark.cn/秘塔AI搜索

AI搜索秘塔科技https://metaso.cn/納米AI搜索

AI搜索360https://www.n.cn/星野

情感陪伴MiniMaxhttps//www.xingyeai.com/貓箱

情感陪伴字節(jié)跳動https://maoxiangai.com/可靈AI

AI圖片/視頻生成快手https//klingaikuaishou.com/海螺AI

AI圖片/視頻生成MiniMaxhttps///video即夢AI

A圖片/視頻生成字節(jié)跳動https//jimeng

jlPerplexity

AI搜索

Perplexity

AIhttps://www.perplexity.ai/Pika

AI圖片/視頻生成Pikahttps://pika.art/MidJourney

AI圖片/視頻生成MidJourney

/StableDiffusionAI圖片/視頻生成Stability

AI

https://stability.ai/工具名稱所屬公司備注DeepSeek

深度求索https://chat.deepseek.com/豆包

字節(jié)跳動/chat/Kimi智能助手月之暗面https://kimi.moonshot.cn/文小言

百度https://wenxiaoyan.com/通義

阿里巴巴https://tongyi.aliyun.com/智譜清言

智譜https://chatglmcn/訊飛星火

科大訊飛https://chatglm.cn/元寶

騰訊https://yuanbao.tencent.com/ChatGPT

OpenAIhttps://chatgpt.com/Gemini

Googlehttps://gemini.google.com/Claude

Anthropichttps://claude.ail國內(nèi)外主流大模型工具/應(yīng)用中國聯(lián)通ChinaunicomUniAI元景大模型通

用AI

:其

:中美在Al領(lǐng)域的現(xiàn)狀及對比主流大模型與AIT

具DeepSeek介紹大模型使用建議大

應(yīng)

場0102030405√

全面上線遼寧省熱線平臺:服

務(wù)80+坐席人員,

工單填單時間由186

s/

單下降到133s/

;工單

記錄完整度提

3

0

%√

在熱點事件分析場景:處

理90余萬張工單,完

成12萬個小區(qū)數(shù)據(jù)抽取,形成供水、供電、供

等6類單位畫像√

熱線數(shù)據(jù)報告:圍繞投訴、求助、建議與舉報信

息開展時空定位、問題萃取、顆??s放、精細診

斷等多維度分析,輸出周期報告和專題報告■聯(lián)通數(shù)智公司聯(lián)合遼寧產(chǎn)互等打造政務(wù)熱線大模型,已落地遼寧、北京等多省市12345項目大模型賦能政務(wù)熱線應(yīng)用政務(wù)熱線大模型元景政務(wù)大模型聚焦政務(wù)服務(wù)領(lǐng)域的熱線數(shù)智分析中國聯(lián)通ChinaunicomUniAI元景大模型留細眼知大模型輔助政府經(jīng)濟決策■經(jīng)濟運行大模型落地北京發(fā)改委、廣東政數(shù)局等多省市項目北京發(fā)改委

AI

經(jīng)濟運行監(jiān)測分析應(yīng)用√

2023年10月,服務(wù)北京發(fā)改委面向經(jīng)濟領(lǐng)域數(shù)據(jù)查詢及分析、報告撰寫、經(jīng)濟領(lǐng)域知識問答等業(yè)務(wù)場景,實施經(jīng)濟大模型,打造“學文件、讀數(shù)據(jù)、出觀點、快呈現(xiàn)”的高效

AI工具,賦能經(jīng)濟運行調(diào)度工作,人工智能輔助經(jīng)濟決策;√

打造國內(nèi)首個經(jīng)濟數(shù)據(jù)分析智能體和區(qū)域經(jīng)濟分析智能體。廣東政數(shù)局”粵經(jīng)濟“平臺√“粵經(jīng)濟”全面打通了橫向30多個廳局和縱向21個地市的經(jīng)濟運行相關(guān)數(shù)據(jù),實現(xiàn)全省經(jīng)濟發(fā)展分析”

一屏總覽”;元景一經(jīng)濟大模型在

“粵經(jīng)濟”上部署實施,發(fā)揮聯(lián)通多源

大數(shù)據(jù)的獨特優(yōu)勢,基于全國高質(zhì)量經(jīng)濟語料,打造經(jīng)濟垂

直領(lǐng)域大模型,模型在查數(shù)據(jù)、問知識、做推理、快分析等

經(jīng)濟領(lǐng)域任務(wù)中都表現(xiàn)良好。中國聯(lián)通China

unicomUniAI元景大模型—22—-√

在北京西城區(qū)公安局試點,提供以特征搜特征的大模型視覺分析能力,解決小模型無法識

別的復(fù)雜場景√

7月,該試點實驗室進展收到了公安部領(lǐng)導的肯定,對取得的成果進行充分肯定,希望在中

國聯(lián)通元景大模型的加持下,探索視頻偵查新技術(shù)提高案件查辦效率√

利用以圖搜圖、以文搜圖提升檢索效率,可服務(wù)平安城市、雪亮工程、平安鄉(xiāng)村等場景■

聯(lián)通數(shù)智公司聯(lián)合北京聯(lián)通等打造元景公安大模型,在北京西城、安徽省廳等多省市視偵智能化升級項目試點應(yīng)用利用以圖搜圖、以文搜圖,檢索監(jiān)控內(nèi)容,提升辦案效率公

型人工智能創(chuàng)新實驗室大模型賦能公安智能化中國聯(lián)通chinaunicomUniAI元景大模型中國取通dhre**私域GPT

應(yīng)用和服務(wù)平臺私域GPT

應(yīng)用:集醫(yī)教研管全方位智能助手于一體的應(yīng)用,整合了業(yè)務(wù)文件1500+、醫(yī)學教材指南1800+、管理報表100+,為醫(yī)

護人員提升信息獲取效率,為精準醫(yī)療提供有力保障。大模型醫(yī)療應(yīng)用服務(wù)平臺:提供模型微調(diào)、測評、推理加速等全鏈路工具箱,為醫(yī)院管理、臨床、教學、科研等工作提供新范式。IIllll1中山三院私域GPT

應(yīng)

用■

聯(lián)

通數(shù)智公司支撐廣東產(chǎn)互/醫(yī)療軍團打造多款智慧醫(yī)療應(yīng)用,助力中山三院智能化升級大模型賦能醫(yī)療智能應(yīng)用大模型醫(yī)療應(yīng)用服務(wù)平臺中國聯(lián)通China

unicomUniAI元景大模型-24ciunaurcom

CSSC人

聯(lián)

室中國聯(lián)合網(wǎng)絡(luò)通信有限公司上海市分公司中國的集團海舟系統(tǒng)技術(shù)有限公司√

針對大模型處理公式計算和圖表理解的不準確問題,使用5萬條增量數(shù)據(jù)對元景70B大模型微調(diào)訓練

,提升基礎(chǔ)大模型計算的準確率;針對上萬頁造船規(guī)范知識中的復(fù)雜問題,運用元景RAG

技術(shù)中級聯(lián)

切分手段、自適應(yīng)表格拆分與整合技術(shù)、多路檢索融合方式進行解

析,提升元景大模型對相關(guān)內(nèi)容的召回率?!?/p>

針對2D

船舶設(shè)計圖紙中不同標尺參數(shù),運用元景多模態(tài)大模型進行識別,精準輸出設(shè)計參數(shù)信息,為設(shè)計師精準建模提供必要參考;面向不同船廠的設(shè)計規(guī)范、圖紙中不同類型的線材,運用元景視覺

大模型進行分割檢測,有效提取船舶輪廓、不同船艙的設(shè)計要素

,

輸出3D

建模所需的信息要素,提高設(shè)計師看圖建模的工作效率。■聯(lián)通數(shù)智公司、上海聯(lián)通與中船海舟聯(lián)合掛牌成立聯(lián)合實驗室,探索大模型落地中船海舟船舶設(shè)計等應(yīng)用場景大模型賦能船舶設(shè)計位置參數(shù)

25-造船規(guī)范知識問答翻模設(shè)計中國聯(lián)通China

unicomUniAI元景大模型線條類型中國

聯(lián)

通源√

針對多模態(tài)裝備文檔做精準

查詢和智能問答,重點解決長文本、復(fù)雜表格、數(shù)字序

、OCR

解析、網(wǎng)頁資源解

析、統(tǒng)計類問答等挑戰(zhàn)并快

速迭代,問答效果優(yōu)于頭部

競品。業(yè)界首創(chuàng)RAG

中的富

文本知識問答、來源出處定

位、數(shù)據(jù)飛輪等獨有能力。支持OCR支持富文本知識

支持答案出處支持統(tǒng)計類解析能力

問答能力定位至原文問答能力■

聯(lián)通數(shù)智公司支撐裝備軍團和上海產(chǎn)互打造大模型應(yīng)用,賦能大飛機裝備運維大模型賦能國產(chǎn)大飛機裝備運維增強知識理解完整性

增強檢索能力多樣性基

于RAG

的裝備運維級聯(lián)切分增強長文本召回匹配度自適應(yīng)拆分

多路檢索融合中國聯(lián)通

China

unicomUniAI元景大模型—26中華文明云展e

t.中畢文聘云'T格亨《中華人民同和國需作權(quán)潔》、《信息同務(wù)常塘板保護條制》等初關(guān)注律、潔規(guī)口政的的率,并守所有酒用的法律和法,果容不同下列纖焊年粒,請師止性用,

一作板聲箱中華文聘E

的向件不國于教體計、化計,計,汁,

數(shù)原,國文.樂,■

.等內(nèi)容,肺中和注瞞外。其作權(quán)購由中國國*博的建產(chǎn)事車,任何羊綜個人來經(jīng)事先書許可,均不高以上同白用于任例自來用,來

可同

于舞

業(yè)

注日

若博課幅關(guān)著作校著軍影中國*的性產(chǎn)的。中國國家博的候保流究其法律任的板料,如謝性用相關(guān)離料,請腐的午中華文的云餾要機構(gòu)聯(lián)系。

在生動呈現(xiàn)文化內(nèi)容,創(chuàng)新文博場館觀展體驗方面,憑借在大模型、數(shù)字人、

虛擬空間建設(shè)等方面的核心優(yōu)勢,對中國國家博物館古代中國展部分精品文物

活化展示,以聯(lián)通元景大模型實現(xiàn)國博數(shù)字人線上講解和互動問答,生動呈現(xiàn)

中華文明優(yōu)秀成果。文創(chuàng)產(chǎn)品設(shè)計輔助基于大模型創(chuàng)作生

成漢服、游戲、卡

牌等數(shù)字文創(chuàng)產(chǎn)品

,并實現(xiàn)自定義換

,支持商業(yè)化互

動內(nèi)容與應(yīng)用。文物活化大模型,助力國家博物館:《中華文明云展》文創(chuàng)大模型,助力外文局/文聯(lián)發(fā)展數(shù)字文創(chuàng)產(chǎn)業(yè)傳統(tǒng)文化互動體驗通過文物元素屬性創(chuàng)

作,生成民族服飾;

傳播與創(chuàng)作中華文化■

聯(lián)

數(shù)

智公司聯(lián)合在線公司等團隊打造元景文博文創(chuàng)大模型,助力國博、外文局等文物創(chuàng)新應(yīng)用白的性用和渡任飼位遙個人在山隋前、引,,下的等方式合使用中華文的■我已閥讀并同意《用戶購私協(xié)誤》大模型賦能文博文創(chuàng)相R采

酸木行。網(wǎng),

住眠中華文用房F,精復(fù)E解升舞單似下條款中國聯(lián)通China

unicomUniAI元景大模型二

.

云Wn-27B端生產(chǎn)場景多數(shù)重復(fù)使用模型某一重復(fù)能力,

大量百億級參數(shù)模型即可適用·

DS-V3/R1滿血版推理需16-32張910B

,LORA

調(diào)需512張910B。大量客戶無支持微調(diào)的算力。單

任務(wù)算力消耗與百億級參數(shù)模型不在同一量級·

DS最驚艷的R1版,一次推理多在10-20秒,更適合

代碼、數(shù)學、復(fù)雜規(guī)劃等場景,很難響應(yīng)B端高實時

業(yè)務(wù)應(yīng)用場景·讓DS高效學會私域知識,尚未明顯突破,利用DS蒸餾得

到百億參數(shù)模型,對于從頭預(yù)訓練模型優(yōu)勢還有待觀測DS

優(yōu)勢在6000億級語言大模型,在R1

版驚艷的推理效果,在應(yīng)用側(cè)落地仍需要多模型組合、多外掛

工具,以及大量工程化配合C

端AI應(yīng)用需要通才,需要百曉生

B端應(yīng)用需要專才,需要超高性價比的產(chǎn)線工人工程化套殼多模型協(xié)

,與外掛AI工具各單位應(yīng)用DS落地需要1、安全監(jiān)管增強+灌入企業(yè)價值觀2、灌入企業(yè)獨有數(shù)據(jù)3、推理算力消耗、效果等方面優(yōu)化1、多模態(tài)、語音、視覺模型聯(lián)動2、掛RAG知識庫、聯(lián)網(wǎng)搜索優(yōu)化等3、接入智能體平臺中國聯(lián)通ChinaunicomDS

應(yīng)用落地同樣面臨挑戰(zhàn)DS

很好糾結(jié)各應(yīng)用需要一個超強大腦需求UniAI元景大模型—28—中美在Al領(lǐng)域的現(xiàn)狀及對比主流大模型與AIT

具DeepSeek介紹大模型使用建議大慎型的應(yīng)用場景0102030405幻覺問題知識實時更新能力差算力消耗仍然很高偏見、隱私與安全認識大模型的局限性■什么是大模型的幻覺?√

生成式語言模型在生成文本或者回答問題時,產(chǎn)生與事實不符或者邏輯

錯誤的內(nèi)容,即“一本正經(jīng)地胡說八道”√

示例1:

篇根本不存在的參考文獻(右圖)■大模型幻覺產(chǎn)生的原因√

目前的大模型結(jié)構(gòu)和訓練機制:基于概率的生成模型,本質(zhì)上沒有理解

自己所學習的內(nèi)容√

缺乏對真實世界的有效建模方式和全息感知能力√

訓練數(shù)據(jù)的局限性:數(shù)據(jù)質(zhì)量、重要數(shù)據(jù)的缺失、不同類型數(shù)據(jù)的比例■如何應(yīng)對(用戶角度)√

1

:建立“大模型結(jié)果不一定可信”的認知,根據(jù)自己的需要,對

于模型的輸出進行不同層次的驗證(享受便利,控制風險)√

2

:通過大量使用而加深對一款大模型能力邊界的理解:知道什么

情況下模型輸出更可靠,什么情況下更容易出現(xiàn)幻覺哥本哈根大學的David

Rchard

Nash表示,幾個月前,他一直在試驗ChatGPT

的作用,看看是否可以用來查找文獻,他要求ChaGPT

提供研究領(lǐng)域的最新10篇參考文

ChatGPT給出了10論文,但是只有一篇是真實存在的中國聯(lián)通chinaunicom認識大模型的局限性:幻覺UniAI元景大模型31-■模型訓練:算力消耗大√

大模型龐大的參數(shù)量:通常包含數(shù)十億到數(shù)干億個參數(shù)√

訓練數(shù)據(jù):通常包含數(shù)萬億到十幾萬億token√

訓練時間:通常幾個月■模型推理:算力消耗大,實時性差,支持的并發(fā)低√

大模型龐大的參數(shù)量:通常包含數(shù)十億到數(shù)千億個參數(shù)√

當前神經(jīng)網(wǎng)絡(luò)推理方式的特點:大量的矩陣乘法操作√

Transformer推理階段的“按token依次輸出”機制:生成每個

token的算力和時間消耗*

token數(shù)√

用戶可感知的結(jié)果:

DeepSeek

投入大量算力提供服務(wù),仍然頻

繁出現(xiàn)"服務(wù)器繁忙"

;硅基流動等部署DeepSeek

模型服務(wù)的第三方廠商亦無法有效承接流量●

3:學會接受大模型的輸出速度,效果越好的模型,速度可能越慢Chinaunicom認識大模型的局限性:算力消耗大

中國聯(lián)通

UniAIDeepSeek服務(wù)器繁忙,請稍后再試元景大模型認識大模型的局限性:知識實時更新能力差■

實時知識更新√必要性:引入新知識,保證與時俱進√大模型參數(shù)量大,知識更新速度慢,無法實時將最新

事件、社會動態(tài)、研究成果加入到模型√輕量級的知識更新方法不能保證效果√

DeepSeek最新版模型的知識截止日期是2024年7月

(7個月前)■緩解手段:聯(lián)網(wǎng)搜索+檢索增強生成(RAG)√不改變模型,在外部建立索引,嚴格意義上不屬于模

型更新的范疇√

4

:對于時效性較強的問題,確保AI助手的聯(lián)網(wǎng)

搜索功能是開啟的

您好,我的知識截止日期是2024年7月。對

于時效性較強的問題,建議您使用聯(lián)網(wǎng)功能

獲取最準確的信息。S

P④

開啟新對話給DeepSeek

發(fā)送消息深度思考(R1)

聯(lián)網(wǎng)搜索

十中國聯(lián)通

ChinaunicomUniAI元景大模型■偏見√

大模型的輸出結(jié)果可能包含性別、種族、年齡、價值觀、文化等偏見√

核心原因:

訓練數(shù)據(jù)中包含了偏見信息(比如西方的數(shù)據(jù)中反映西

方價值觀的信息占比更大)■

隱私與安全√

難以避免生成有害內(nèi)容:可能會輸出虛假信息、臟黃反信息、宣揚暴

力和仇恨的內(nèi)容等√

安全評估與防范難度大:大模型結(jié)構(gòu)復(fù)雜、參數(shù)量眾多、可解釋性差

,給安全評估和防范帶來了挑戰(zhàn)√

易受到有毒數(shù)據(jù)的攻擊:多項研究表明,少量的有毒數(shù)據(jù)就可以顯著

提高模型輸出錯誤或有害內(nèi)容的可能性●建

5:問大模型的問題不要涉及政治敏感、黃賭毒、暴力、歧視等(

法律風險和被封禁的風險)●建

6:問大模型的問題中不要包含國家機密或者機構(gòu)的商業(yè)秘密(

息泄露風險和法律風險)Chinaunicom認識大模型的局限性:偏見、隱私與安全

中國聯(lián)通

UniAI元景大模型—34新對話

田1.清華大學:·銳評:工科界的“扛把子",號稱“五道

口理工學院",畢業(yè)生不是去造火箭,就是在去造火箭的路上。清華學子。左

手代碼,右手困紙,頭頂“學霜光環(huán)”,

腳踩“內(nèi)卷風火輪”。2.北京大學:·

銳評:文科生的“精神家園",號稱"中

關(guān)村文理學院",未名湖畔的哲學家和

詩人比食堂的包子還多,北大人的日常:一邊討論屬格爾,

一邊排隊買旅餅

果子

。3.浙江大學:·

銳評:學科全能的"六邊形戰(zhàn)士",號稱

“杭州農(nóng)工商綜合大學”,既能種田,又

能造機器人,還能順便拿個諾貝爾獎。

浙大學子:白天實驗室,晚上西湖邊,

科研戀愛兩不誤。4.復(fù)旦大學:·

銳評:◎開店新對話族”。號稱“王*三

新對話

◎<2/2>

中國頭部大學在全球范圍內(nèi)享有較高聲譽。

以下是對幾所頂尖大學的簡要評價:1.清華大學:·

優(yōu)勢:工科實力強勁,尤其在工程、計

算機科學等領(lǐng)域表現(xiàn)突出,科研能力一

流,國際化程度高。·

聲警:被譽為"中國MIT",

培養(yǎng)了大量

科技和工程領(lǐng)域的領(lǐng)軍人才。2.

北京大學:·

優(yōu)勢:文理學科均衡,人文社科和基礎(chǔ)

科學實力雄厚,學術(shù)氛圍自由,科研成

果豐碩?!ぢ暊I:常被稱為“中國哈佛”,培養(yǎng)了眾

多政界、學術(shù)界和文化界的杰出人才。3.浙江大學:·

優(yōu)勢:學科門類齊全,工科、農(nóng)學、醫(yī)

學等領(lǐng)◎開白新對話研創(chuàng)新能力●

7

:熟悉大模型的回復(fù)特點,掌握提問技巧(提示

詞技巧),激發(fā)模型的創(chuàng)造力認識大模型的優(yōu)勢和特色簡單銳評中國頭部的幾所大學,要

求用詞幽默,不落俗套請簡單評價一下中國頭部的幾所大學中國聯(lián)通China

unicomUniAI元景大模型謝謝!DeepSeek

內(nèi)部研討系列DeepSeek

私有化部署和一體機Al肖睿團隊(1

.

本次講座為DeepSeek

原理和應(yīng)用系列研討的講座之一,讓大家可以決策是否需要自己部署DeepSeek

系列模型,并了

解自己本地化部署DeepSeek的基本方法,同時了解更專業(yè)的企業(yè)級部署方法,有助于選擇DeepSeek一體機型號,并

能理解DeepSeek

云服務(wù)的工作機制和原理,用好DeepSeek

云服務(wù)的API

調(diào)用方法。2.

本講座的內(nèi)容分為四個主要部分:①

首先,除了DeepSeek滿血版之外,還有各種各樣的蒸餾版和量化版,以及DeepSeek的不同專業(yè)模型。我們將介紹人工智能大模

型的基本概念,以及DeepSeek各個模型的特點與適用場景,對比不同規(guī)模模型的性能表現(xiàn),幫助大家選擇最適合自己需求的版本。②

其次,對于普通用戶在自己的電腦上部署和體驗DeepSeek(蒸餾版)的情況,我們會評估和建議硬件要求,演示如何通過Ollama

命令行高效部署DeepSeek模型,解決下載過程中可能遇到的常見問題。為了提升在自己的電腦上安裝DeepSeek模型后,大家與

DeepSeek模型的交互體驗,我們還將介紹OpenWebUI和Chatbox

等前端展示工具的配置與使用方法。③

然后,對于專業(yè)級的企業(yè)部署DeepSeek,

或把DeepSeek(蒸餾版和滿血版)部署在專業(yè)的昂貴的推理機上,本講座將探討基于

Transformers快速驗證和VLLM的高性能部署方案,并提供真實企業(yè)基于VLLM的部署DeepSeek-70b的相關(guān)數(shù)據(jù)和經(jīng)驗。④

最后,作為補充內(nèi)容,針對計算資源受限的場景,我們專門設(shè)計了"低成本部署"環(huán)節(jié),詳細講解UnslothR1動態(tài)量化部署的三種實

現(xiàn)路徑:基于llama.cpp、KTransformers以及Ollama

框架動態(tài)量化部署。3.在技術(shù)學習的道路上,優(yōu)質(zhì)學習資源至關(guān)重要。推薦大家參考《人工智能通識教程(微課版)》這本系統(tǒng)全面的入門教

材,結(jié)合B站“思睿觀通”欄目的配套視頻進行學習。此外,歡迎加入ai.kgc.cn社區(qū),以及“Al肖睿團隊”的視頻號和

微信號,與志同道合的Al愛好者交流經(jīng)驗、分享心得。摘要北京大學PEKING

UNIVERSITY目

錄CONTENTS01

人工智能與DeepSeek

企業(yè)部署DeepSeek02

個人部署DeepSeek04

DeepSeek一體機北京大學PEKINGUNIVERSITYPART

01

人工智能與DeepSeek□MM網(wǎng)5前東太初piibayes

TansnenZTE

H飛

X

天網(wǎng)ARWKVLMI

TeleChat2-258

也書

-

Skyworko1360pt2-

l

UaVA-CoT圃

*

螺A

C

APP

n*HKmDW

上uUNBPhvame

LA

IHDreamai

療通義萬相用露元斤的躍里股粵

m

-

c

萬元

-D7

CN

K

mertu

權(quán)|

@

一療度

區(qū)分

ar醫(yī)-●多模態(tài)>文本、圖片、音頻、視頻●Al工具(國內(nèi))>DeepSeek

、

豆包、Kimi

、

騰訊元寶、智譜清言、通義千問、秘塔搜索、微信搜索…●通用模型大語言模型

(LLM,Large

Language

Model)

>生成模型推理模型>視覺模型(圖片、視頻)>音頻模型>多模態(tài)模型…●行業(yè)模型(垂直模型、垂類模型)>教育、醫(yī)療、金融、辦公、安全等大模型相關(guān)術(shù)語tITTS第合或

Canywkheec-涼Qan25

V

k

QUM-4awQ-320-PrviewDpk-R1-Lite北京大學PEKINGUNIVERSITY①文地一言

通又干間

元字節(jié)豆想

m:文此:伊大E

ChattLA4s

DP分子大工P

無MAIm

1888=Z

大gmHNIMAX

一萬物油用開源理實鯉空夏文主強候雨Balchuan2Ak0-math冊螞虹金磁大視型妙循金融大樓型領(lǐng)域

NA

坐桿生MeLo

*T本

多模春3s8K

s

*

限n*

用回子目

T型OP根nk大H開SoW

工天工前MathGPTLM8大兩u

MneOT覆堂交生圍語成/聲復(fù)AndesGPTInteraThiake行

業(yè)更多行畫用間Yi..·人工智能:讓機器具備動物智能,人類智能,非人類智能(超人類智能)·運算推理:規(guī)則核心;自動化·知識工程:知識核心;知識庫+推理機·機器學習:學習核心;數(shù)據(jù)智能(統(tǒng)計學習方法,數(shù)據(jù)建模)·

常規(guī)機器學習方法:邏輯回歸,決策森林,支持向量機,馬爾科夫鏈,

…..·人工神經(jīng)網(wǎng)絡(luò):與人腦最大的共同點是名字,機制和架構(gòu)并不一樣·傳統(tǒng)神經(jīng)網(wǎng)絡(luò):霍普菲爾德網(wǎng)絡(luò),玻爾茲曼機,…..·深度神經(jīng)網(wǎng)絡(luò):深度學習·傳統(tǒng)網(wǎng)絡(luò)架構(gòu):DBN,CNN,RNN,ResNet,Inception,RWKV,

…·Transformer架構(gòu):可以并行矩陣計算

(GPU),核心是注意力機制(Attention)·編碼器

(BERT):多數(shù)embedding模

,Ernie早期版本,

…….·混合網(wǎng)絡(luò):T5、GLM·解碼器

(GPT)

:

大語言模型

(LLM),也是傳統(tǒng)的多模態(tài)模型的核心·生成式人工智能(GenAI):

AIGC·DeepSeek、Qwen

、GLM

、Step

、MiniMax

、hunyuan

、kimi、火山、

OpenAI

GPT(ChatGPT)、Claude

、Llama

、Grok

……0.tPoso

PostionutFrendng nkahshedrgt·Diffusion

架構(gòu):主要用于視覺模型(比如Stable

Diffusion

、DALL.E),現(xiàn)在也開始嘗試用于語言模型·Diffusion+Transformer

架構(gòu):例如Sora的DiT(

入Diffusion

的視覺模型),部分新的多模態(tài)模型架構(gòu)大模型的前世今生三大核心組件文本編碼器(

)北京大學PEKINGUNIVERSITY(畫7)Mhs靜信電生成器(工匠)圖解品器anDiffusion2022.122023.062023.12

2024.062025.01時

間生成模型

推理模型ref:中文大模型基準測評2024年度報告(2025.01.08)繁榮期·OpenAl

發(fā)布Sora,極大拓展了Al在

視頻領(lǐng)域的想象力?!?/p>

GPT-40、CIaude3.5、Geminl1.5、Llama3

發(fā)布,海外進入"一超多強"的競爭格局。·

國內(nèi)多模態(tài)領(lǐng)域進展迅速,在部分領(lǐng)

域領(lǐng)先海外。視頻生成模型可靈AI、海螺視頻、Vidu、PlxVerso等模型陸續(xù)發(fā)布,并在海外取得較大應(yīng)用進展。·

國內(nèi)通用模型持續(xù)提升。

Qwen2.5、文心4.0、GLM4、

商量5.5等通用模型陸續(xù)更新?!penAI

發(fā)布01,強化學習新蔥式,實現(xiàn)推理等復(fù)雜能力上的重大突破?!laudo3.5-Sonnt發(fā)布,在代碼

和Agent

能力上掀起效率革命?!hatGPT

上線實時視領(lǐng)能力,深

語音視黨實時多模態(tài)應(yīng)用場景。·

國內(nèi)推理模型迅速跟進。DeepSeek-R1、

QwQ-32B-Preview.Kimi-k1.5.GLM-Zero.Skywork-ol.StepR-mini.訊飛星火X1等模型密集發(fā)布?!鴥?nèi)模型性能持續(xù)提升。Deepseek-V3.

Qwen2.5、

豆包-Pro、混元-Turbo與GLM-4-Plus等系列模型綜合能力上持續(xù)

握升。躍進期·

LIama2

,極大助力全球大模型

開發(fā)者生態(tài)?!PT-4

Turbo.Cmlni等海外大模

型發(fā)布,繼續(xù)提升模型性能。·Midjourney發(fā)布5.2Stable

Diffuslon

XL發(fā)布·

國內(nèi)閉源大模型快速發(fā)展。豆包、混元、

商量3.0、盤古3.0、AndesGPT、BlueLM、

星火3.0、KimiChat等陸續(xù)發(fā)布?!?/p>

內(nèi)

態(tài)

發(fā)

。Baichuan、Gwen

、InternLM

、ChatGLM3

、

Yi-34B

等系列模型引領(lǐng)開源熱溺。的準備期·ChatGPT發(fā)布,全球范圍內(nèi)迅速形成大模型共識?!PT4

發(fā)

,進一步掀起大模型研發(fā)

熱潮?!?/p>

國內(nèi)快速跟進大模型研發(fā)。文心一言

1.0、通義千問、訊飛星火、360智

、ChatGLM

等首批模型相繼發(fā)布。關(guān)鍵進展深化期大模型的發(fā)展階段北京大學PEKING

UNIVERSITy比較項OpenAI

G

PT-4o(生成模型)OpenAl

o1(推理模型)模型定位專注于通用自然語言處理和多模態(tài)能力,適合日常對

話、內(nèi)容生成、翻譯以及圖文、音頻、視頻等信息處

理、生成、對話等。側(cè)重于

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論