版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
行業(yè)及產(chǎn)業(yè)行業(yè)及產(chǎn)業(yè)-】——GenAI系列報(bào)告之68降。智能化水平的提升,打開(kāi)了AI大模型l何謂幻覺(jué)?即語(yǔ)言模型常產(chǎn)生過(guò)度自信的似真謬誤,這種錯(cuò)誤模式就被稱為幻覺(jué)。當(dāng)下AI大模型的幻覺(jué)主要包括無(wú)中生有、事實(shí)錯(cuò)誤、語(yǔ)境誤解、邏輯謬誤等。根據(jù)完備定理,一個(gè)系統(tǒng)或者大模型是不能自證清白的,必定有一些幻覺(jué)是無(wú)法消滅的。因如何降低幻覺(jué),從模型算法、數(shù)據(jù)、工程化幾個(gè)維度探討;3)Agent進(jìn)化的痛點(diǎn):多步執(zhí)行如何解決錯(cuò)誤累積問(wèn)題?4)幻覺(jué)對(duì)于不同領(lǐng)域Al幻覺(jué)來(lái)自于:1)模型架構(gòu);2)有毒數(shù)據(jù);3)獎(jiǎng)勵(lì)目標(biāo)對(duì)于準(zhǔn)確性要求的缺失;4)上下文窗口限制了模型理解力。因此控制幻覺(jué)的方案,也應(yīng)對(duì)著這四個(gè)因素。模型層面,使用更多人類偏好數(shù)據(jù)對(duì)齊,同時(shí)擴(kuò)大上下文窗口(32K—>128K),以提升模型l數(shù)據(jù)端,最核心是喂給模型高質(zhì)量的數(shù)據(jù)。因此當(dāng)天瑞聲、ScaleAI采用“AI+人工”模式清洗標(biāo)注,減少訓(xùn)練噪聲;推理階段通過(guò)自l工程化方面,RAG技術(shù)成2B標(biāo)配,Gartner預(yù)計(jì)2025年測(cè)評(píng)中,全球幻覺(jué)率最低的TOP25個(gè)大模型。其幻l在幻覺(jué)能夠得到控制的前提下,我們看好三大方向:1)最先成熟的AI應(yīng)用:稅友股份、合合信息、鼎捷數(shù)智、卓易信息、漢得信息、萬(wàn)興科技等;2)幻覺(jué)不敏感,商業(yè)化速度快的營(yíng)銷AI:邁富時(shí)、新致軟件l風(fēng)險(xiǎn)提示:技術(shù)迭代不及預(yù)期風(fēng)險(xiǎn);數(shù)據(jù)質(zhì)量與合規(guī)風(fēng)險(xiǎn);商業(yè)化進(jìn)展不及預(yù)期風(fēng)險(xiǎn)行業(yè)深度第2頁(yè)共22頁(yè)第2頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想2026年,AI模型的幻覺(jué)能夠得到有效控制。AI幻覺(jué)不可避免,但通過(guò)算法、數(shù)據(jù)、工程化等控制,全球幻覺(jué)率最低的TOP25個(gè)大模型已降低至8%以內(nèi),達(dá)到可落我們看好三大方向:1)最先成熟的AI應(yīng)用:稅友股份、合合信息、鼎捷數(shù)智、卓易信息、漢得信息、萬(wàn)興科技等;2)幻覺(jué)不敏感,商業(yè)化速度快的營(yíng)銷AI:邁富時(shí)、新致軟件、光云科技等;3)數(shù)據(jù)+AIinfra:海天瑞聲、深信服等?;糜X(jué)來(lái)自于:1)模型架構(gòu);2)有毒數(shù)據(jù);3)獎(jiǎng)勵(lì)目標(biāo)對(duì)于準(zhǔn)確性要求的缺失;4)上下文窗口限制了模型理解力。因此控制幻覺(jué)的方案,也應(yīng)對(duì)著這四個(gè)因素。模型層面,使用更多人類偏好數(shù)據(jù)對(duì)齊,同時(shí)擴(kuò)大上下文窗口(32K—>128K),以提升模型的理解能力;架構(gòu)創(chuàng)新則主要從模型記憶入手,解決注意力機(jī)制導(dǎo)致的幻覺(jué)問(wèn)題。數(shù)據(jù)端,最核心是喂給模型高質(zhì)量的數(shù)據(jù)。因此當(dāng)下業(yè)界聚焦高質(zhì)量數(shù)據(jù)集的構(gòu)建,海天瑞聲、ScaleAI采用“AI+人工”模式清洗標(biāo)注,減少訓(xùn)練噪聲;推理階段通過(guò)自動(dòng)過(guò)濾矛盾信息,提升輸入數(shù)據(jù)可靠性。工程化方面,RAG技術(shù)成2B標(biāo)配,Gartner預(yù)計(jì)2025年企業(yè)采用率將達(dá)68%,搭配D&Q問(wèn)題分解框架,將問(wèn)題拆解為多個(gè)相互依賴的子問(wèn)題,并通過(guò)深度優(yōu)先搜索的方式逐步推進(jìn)推理路徑,從而減少幻覺(jué)的發(fā)生。市場(chǎng)認(rèn)為,大模型的幻覺(jué)不可避免。我們認(rèn)為,從數(shù)學(xué)原理上幻覺(jué)無(wú)法避免,但從模型訓(xùn)推范式、架構(gòu)創(chuàng)新、推理部署側(cè)工程化等多層面努力,大模型幻覺(jué)率正在不斷降低。且全球已經(jīng)初步形成了一套完整的幻覺(jué)評(píng)估及控制方法論,幻覺(jué)能夠得到有效控制,根據(jù)Vectara的HHEM測(cè)評(píng),目前全球大模型幻覺(jué)率最低可做到1.8%。市場(chǎng)認(rèn)為,AI應(yīng)用的落地受制于幻覺(jué)。我們認(rèn)為正由于幻覺(jué)的存在,且通用模型的幻覺(jué)高于垂直領(lǐng)域?qū)I(yè)模型,使得在行業(yè)內(nèi)有豐富數(shù)據(jù)和know-how的AI應(yīng)用廠商更有差異化優(yōu)勢(shì),不會(huì)被大模型吞噬。市場(chǎng)認(rèn)為,嚴(yán)肅場(chǎng)景下AI的滲透速度會(huì)非常慢。我們看到例如財(cái)稅等嚴(yán)肅場(chǎng)景,通過(guò)豐富的知識(shí)庫(kù),和嚴(yán)謹(jǐn)?shù)墓こ袒侄危ú粌H是RAG,還包括可糾錯(cuò)的Agent系統(tǒng)等模型可用率和準(zhǔn)確率正在提升,且部分廠商已經(jīng)實(shí)現(xiàn)了有規(guī)模的AI商業(yè)化收入,滲透速度并不慢。第3頁(yè)共22頁(yè)第3頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想 5 5 7 8 第4頁(yè)共22頁(yè)第4頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想圖1:Is-It-Valid(IIV)二元分類問(wèn)題圖示 6圖2:GPT-4預(yù)訓(xùn)練模型的置信度與準(zhǔn)確率匹配情況 6圖3:Anthropic利用RLHF提升模型輸出可靠性和無(wú)害性 8圖4:谷歌“選擇性生成”框架提升回答問(wèn)題正確率 9圖5:記憶張量將知識(shí)按使用頻率分類并存儲(chǔ) 圖6:Memory3的錨定-召回機(jī)制 圖7:谷歌仿照人腦記憶機(jī)制設(shè)計(jì)HOPE架構(gòu) 圖8:百川智能循證增強(qiáng)模型實(shí)現(xiàn)最低幻覺(jué)率 圖9:人工構(gòu)建可信數(shù)據(jù)集過(guò)程 圖10:Gartner預(yù)計(jì)企業(yè)RAG技術(shù)采用率25年將達(dá)68% 圖11:向量數(shù)據(jù)庫(kù)在RAG類AI應(yīng)用推理的流程 圖12:RAG工作流程 圖13:Gemini利用Google搜索引擎克服幻覺(jué)的流程示意 圖14:D&Q框架的問(wèn)題分解軌跡示例 圖15:VectaraHHEM中幻覺(jué)率最低的TOP25模型 圖16:各行業(yè)人工智能發(fā)展的階段特征 圖17:過(guò)去12個(gè)月因AI應(yīng)用產(chǎn)生的營(yíng)收提升 20圖18:不同職能Agent應(yīng)用現(xiàn)狀 20表1:模型訓(xùn)推各階段中導(dǎo)致幻覺(jué)的原因 5表2:通用基準(zhǔn)及其對(duì)棄權(quán)的處理方式 7表3:國(guó)內(nèi)外AI廠商在模型層面降低模型幻覺(jué)率的方式 7表4:通用大模型+財(cái)稅知識(shí)庫(kù)RAG的方式可以顯著提升模型可用率 表5:歐盟《人工智能法案》對(duì)不同AI系統(tǒng)風(fēng)險(xiǎn)定義和監(jiān)管措施 表6:不同行業(yè)AI應(yīng)用滲透的趨勢(shì) 20表7:重點(diǎn)公司估值表 21第5頁(yè)共22頁(yè)第5頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想當(dāng)我們?cè)谡f(shuō)模型進(jìn)步的時(shí)候,我們?cè)谡f(shuō)什么?本質(zhì)是智能化水平的提升和錯(cuò)誤率(幻覺(jué))的下降。智能化水平提升,當(dāng)前有一個(gè)共識(shí)的路徑—Scaling,即擴(kuò)大訓(xùn)練語(yǔ)料、參數(shù)規(guī)模和訓(xùn)練算力。在Scaling這條路上演化出了四條分支,Pre-trainScaling、Post-trainingScaling、ReasoningScaling、Mid-trainScaling。智能化水平的提升,打開(kāi)了AI大模型能力的上限,讓其能夠真正投入生產(chǎn)實(shí)踐。而幻覺(jué)的控制,則是保障模型的下限。何謂幻覺(jué)?即語(yǔ)言模型常產(chǎn)生過(guò)度自信的似真謬誤,這種錯(cuò)誤模式就被稱為幻覺(jué)。當(dāng)下AI大模型的幻覺(jué)主要包括無(wú)中生有、事實(shí)錯(cuò)誤、語(yǔ)境誤解、邏輯謬誤等。這會(huì)削弱其實(shí)用性和可信度,GPT-3.5在基于引文的事實(shí)性評(píng)估中出現(xiàn)幻覺(jué)的比例約為40%,GPT-4的這一比例雖有所改善,但幻覺(jué)率仍高達(dá)28.6%。根據(jù)哥德?tīng)柌煌陚涠ɡ?,一個(gè)系統(tǒng)或者大模型是不能自證清白的,必定有一些幻覺(jué)是無(wú)法消滅的。根據(jù)OpenAI在2025年9月發(fā)布的研究成果:幻覺(jué)不是簡(jiǎn)單的工程缺陷,而是語(yǔ)言模型泛化的結(jié)構(gòu)性代價(jià),因此幻覺(jué)控制和智能化水平提升一樣,是一個(gè)始終伴隨AI算法發(fā)展的重要命題。本篇文章圍繞“幻覺(jué)”這個(gè)問(wèn)題,產(chǎn)生了四個(gè)核心的思考:1)導(dǎo)致幻覺(jué)的因素有哪些;2)如何降低幻覺(jué),從模型算法、數(shù)據(jù)、工程化幾個(gè)維度探討;3)Agent進(jìn)化的痛點(diǎn):多步執(zhí)行如何解決錯(cuò)誤累積問(wèn)題?4)幻覺(jué)對(duì)于不同領(lǐng)域AI應(yīng)用落地的影響?怎么評(píng)估?已經(jīng)看到的趨勢(shì)?傳統(tǒng)上,幻覺(jué)被認(rèn)為是由訓(xùn)練數(shù)據(jù)的不準(zhǔn)確性或語(yǔ)言建模的固有目標(biāo)等限制引起的。然而,OpenAI最近的發(fā)現(xiàn)表明了另一個(gè)原因:培訓(xùn)和評(píng)估中使用的激勵(lì)結(jié)構(gòu)?;糜X(jué)不再是個(gè)異?;驍?shù)據(jù)空白,而是在現(xiàn)有激勵(lì)模型下被視為不可避免的結(jié)果。核心問(wèn)題數(shù)據(jù)噪聲、領(lǐng)域知識(shí)稀疏、事實(shí)性驗(yàn)證能力缺失有監(jiān)督微調(diào)(SFT)標(biāo)注錯(cuò)誤、過(guò)擬合導(dǎo)致對(duì)錯(cuò)誤知識(shí)過(guò)度自信有監(jiān)督微調(diào)(SFT)標(biāo)注錯(cuò)誤、過(guò)擬合導(dǎo)致對(duì)錯(cuò)誤知識(shí)過(guò)度自信獎(jiǎng)勵(lì)設(shè)計(jì)缺陷使模型為迎合目標(biāo)犧牲真實(shí)性推理部署事實(shí)和邏輯被截?cái)?、Token級(jí)生成無(wú)法修正早期錯(cuò)誤推理部署事實(shí)和邏輯被截?cái)?、Token級(jí)生成無(wú)法修正早期錯(cuò)誤資料來(lái)源:騰訊云,申萬(wàn)宏源研究預(yù)訓(xùn)練階段的任務(wù)歸約邏輯是幻覺(jué)產(chǎn)生的重要底層原因。OpenAI將復(fù)雜的生成任務(wù)簡(jiǎn)化為“Is-It-Valid(IIV)”二元分類任務(wù)進(jìn)行分析,核心是讓模型判斷句子是否為有效第6頁(yè)共22頁(yè)第6頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想事實(shí),也出現(xiàn)了誤判現(xiàn)象。而實(shí)際中生成有效長(zhǎng)句的難度遠(yuǎn)高于單純判斷有效性,生成過(guò)程需隱含對(duì)所有候選句子的有效性篩選?;谶@一設(shè)定,生成誤差率(幻覺(jué)率)存在下界,分類錯(cuò)誤與幻覺(jué)存在綁定關(guān)系。資料來(lái)源:OpenAI論文《WhyLa多數(shù)主流大模型的核心輸出生成邏輯,是逐詞預(yù)測(cè)下一個(gè)最可能出現(xiàn)的詞。傳統(tǒng)的Next-token預(yù)測(cè)目標(biāo)本質(zhì)上是一種密度估計(jì),導(dǎo)致模型即便在訓(xùn)練數(shù)據(jù)無(wú)誤的情況下,為了最小化交叉熵?fù)p失,會(huì)在面對(duì)長(zhǎng)尾事實(shí)時(shí)被迫猜測(cè)以擬合分布,從而產(chǎn)生幻覺(jué)。預(yù)訓(xùn)練的校準(zhǔn)要求,決定了幻覺(jué)存在不可避免的下限。預(yù)訓(xùn)練的核心目標(biāo)是概率密度估計(jì),模型需通過(guò)最小化交叉熵?fù)p失,實(shí)現(xiàn)預(yù)測(cè)置信度與準(zhǔn)確率的匹配。據(jù)OpenAI研究成果,良好校準(zhǔn)的模型必然存在幻覺(jué)率下限,模型僅給出IDK回答將無(wú)法完成密度估計(jì)任務(wù),因此部分場(chǎng)景下必然會(huì)產(chǎn)生幻覺(jué)。資料來(lái)源:OpenAI論文《WhyLa預(yù)訓(xùn)練產(chǎn)生了基礎(chǔ)模型,而后訓(xùn)練階段(模型優(yōu)化階段)則是使模型更有用、更無(wú)害,也需要減少幻覺(jué)。由于存在評(píng)估體系激勵(lì)錯(cuò)位,盡管經(jīng)過(guò)了后訓(xùn)練,幻覺(jué)問(wèn)題依然頑固存比如當(dāng)模型被問(wèn)及“某不知名人士的博士導(dǎo)師是誰(shuí)”時(shí),真實(shí)信息在訓(xùn)練語(yǔ)料中幾乎不存在。在生成過(guò)程中,模型必須繼續(xù)輸出,為最小化交叉熵?fù)p失并獲得更高獎(jiǎng)勵(lì),模型會(huì)選擇一個(gè)在統(tǒng)計(jì)上最合理的結(jié)果進(jìn)行補(bǔ)全。這一回答在語(yǔ)言上連貫、分布上合理,但事實(shí)上并不真實(shí),這一過(guò)程即構(gòu)成幻覺(jué)的產(chǎn)生。而當(dāng)前,模型的優(yōu)化目標(biāo)更關(guān)注回答的全面性,對(duì)準(zhǔn)確性的要求相對(duì)較低。一個(gè)經(jīng)常提供IDK回答的模型,在當(dāng)前基準(zhǔn)下無(wú)法取得高分,會(huì)被市場(chǎng)和學(xué)界淘汰。第7頁(yè)共22頁(yè)第7頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想BenchmarkScoringmethodBinarygradingIDKcreditGPQAMultiple-choiceaccuracyYesNoneMMLU-ProMultiple-choiceaccuracyYesNoneIFEvalProgrammaticinstructionverificationYesNoneOmni-MATHEquivalencegradingYesNoneWildBenchLM-gradedrubricPartialMultiple-choice/exact-matchYesNoneMATH(L5split)EquivalencegradingYesNoneMuSRMultiple-choiceaccuracyYesNoneSWE-benchPatchpassesunittestsYesNoneMultiplechoice/equivalencegradingYesNone資料來(lái)源:OpenAI論文《WhyLa起在當(dāng)下的技術(shù)體系里,幻覺(jué)是不可避免的,但是可通過(guò)各種途徑來(lái)控制。已知了導(dǎo)致幻覺(jué)的因素:有毒的語(yǔ)料(數(shù)據(jù))、模型結(jié)構(gòu)、獎(jiǎng)勵(lì)函數(shù)的問(wèn)題,也就延伸出了控制幻覺(jué)的辦法。在模型層面降低幻覺(jué)率是各個(gè)大模型公司關(guān)注的重點(diǎn)。行業(yè)內(nèi)通用的降低幻覺(jué)的方式主要包括更大訓(xùn)練數(shù)據(jù)集、更長(zhǎng)上下文、引入人類反饋強(qiáng)化學(xué)習(xí)(RLHF)等。以海外AI巨頭為例,在模型層面,Google關(guān)注搜索驗(yàn)證,OpenAI關(guān)注推理過(guò)程監(jiān)督,Anthropic關(guān)注底層邏輯:公司降低幻覺(jué)率的主要方式公司降低幻覺(jué)率的主要方式Google長(zhǎng)上下文:Gemini1.5Pro的200萬(wàn)token上下文讓模型能夠基于提供的Google材料回答,減少幻覺(jué)。OpenAI(1)過(guò)程監(jiān)督OpenAI(1)過(guò)程監(jiān)督:不同于只獎(jiǎng)勵(lì)最終答案正確的結(jié)果監(jiān)督,OpenAI評(píng)估推理過(guò)程中的每一個(gè)步驟,讓模型在推理的每一步都符合邏輯。(2)慢思考:OpenAI的o1系列模型引入了強(qiáng)化學(xué)習(xí)驅(qū)動(dòng)的思維鏈(CoT)。模型在回答前會(huì)花費(fèi)更多時(shí)間思考,生成很長(zhǎng)的內(nèi)部推理鏈條,如果在思考過(guò)程中發(fā)現(xiàn)自相矛盾,會(huì)自我糾正。Anthropic(1)允許IDK回答:明確允許Claude承認(rèn)自己無(wú)法回答。Anthropic第8頁(yè)共22頁(yè)第8頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想(2)在給定基準(zhǔn)上的自我修正:在模型訓(xùn)練的監(jiān)督學(xué)習(xí)階段,Anthropic讓模型經(jīng)歷“生成初始回答-根據(jù)給定基準(zhǔn)評(píng)分-改進(jìn)”的過(guò)程。DeepSeek阿里(1)DeepSeek阿里(1)純強(qiáng)化學(xué)習(xí):不同于傳統(tǒng)的“預(yù)訓(xùn)練+監(jiān)督微調(diào)+RLHF”三段式,DeepSeek-R1在特定階段跳過(guò)了監(jiān)督微調(diào),直接使用強(qiáng)化學(xué)習(xí)(GRPO算法),降低推理過(guò)程幻覺(jué)。(2)長(zhǎng)思維鏈:若模型在推理過(guò)程中發(fā)現(xiàn)自己前一步算錯(cuò)了或邏輯不通,它會(huì)在內(nèi)部思維鏈中“承認(rèn)錯(cuò)誤”并重新推導(dǎo)。(3)長(zhǎng)上下文:使用MLA架構(gòu),顯著提升了模型在長(zhǎng)上下文中的關(guān)鍵信息捕捉能力。(1)長(zhǎng)上下文:Qwen2.5-Turbo等模型支持1MToken的上下文,并且在PasskeyRetrieval測(cè)試中達(dá)到接近100%的準(zhǔn)確率。(2)拒絕采樣:在后訓(xùn)練階段,Qwen使用大量數(shù)據(jù)進(jìn)行拒絕采樣微調(diào),讓模型生成多個(gè)答案,利用獎(jiǎng)勵(lì)模型篩選符合事實(shí)的答案進(jìn)行強(qiáng)化。字節(jié)跳動(dòng)RLHF字節(jié)跳動(dòng)RLHF針對(duì)“誠(chéng)實(shí)性”的優(yōu)化:字節(jié)團(tuán)隊(duì)在RLHF階段,特意加強(qiáng)了對(duì)“承認(rèn)不知道”的獎(jiǎng)勵(lì),根據(jù)檢索到信息的置信度給出回答。百度索引知識(shí)圖譜:ERNIE模型在預(yù)訓(xùn)練階段就引入了大規(guī)模的知識(shí)圖譜,輸出內(nèi)容時(shí)不止預(yù)測(cè)下一字概率,而是直接索引知識(shí)圖譜中的結(jié)構(gòu)化數(shù)據(jù)。百度《DeepSeek-R1:IncentiviziLearning》,Deepseek-VandGeneration》申萬(wàn)宏源研究RLHF(人類反饋強(qiáng)化學(xué)習(xí))作為一個(gè)明確的算法框架,最早出現(xiàn)在2017年,作為人類偏好對(duì)齊訓(xùn)練的一種方式,有助于讓模型輸出與人類評(píng)判一致,從而間接減少幻覺(jué)與不真實(shí)輸出。2022年Anthropic使用基于人類反饋的訓(xùn)練機(jī)制,把人類價(jià)值觀和安全性納入了RLHF的反饋體系,使得模型在遇到不確定或不可靠的回答時(shí)傾向于退讓,而不是輸出錯(cuò)誤信息。第9頁(yè)共22頁(yè)第9頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想資料來(lái)源:Anthropic論文《ConstitutionalAI:Ha與之相似,谷歌、Meta、文心一言、通義千問(wèn)、智譜等國(guó)內(nèi)外大模型廠商都在不同階段借助RLHF緩解模型幻覺(jué)問(wèn)題。長(zhǎng)上下文也是重要技術(shù)?;糜X(jué)的重要誘因之一是模型無(wú)法獲取完整的輸入信息,只能依賴參數(shù)化記憶中的模糊關(guān)聯(lián)進(jìn)行推測(cè),進(jìn)而產(chǎn)生錯(cuò)誤。長(zhǎng)上下文通過(guò)擴(kuò)展信息承載能力來(lái)解決這一問(wèn)題,已經(jīng)成為國(guó)內(nèi)外AI大模型共識(shí)性方案。2025年4月,谷歌發(fā)布新研究,利用“充分上下文”提出了一套解決方案,提升企業(yè)AI的準(zhǔn)確性和可靠性。谷歌團(tuán)隊(duì)將充分上下文定義為“包含了回答用戶問(wèn)題所需的全部信息,模型能夠據(jù)此給出一個(gè)明確的答案”。在這一假設(shè)下,團(tuán)隊(duì)提出了“選擇性生成”框架,通過(guò)引入一個(gè)獨(dú)立的、更小的干預(yù)模型,結(jié)合模型自身的置信度和上下文是否充分這兩個(gè)信號(hào),決定主模型應(yīng)該生成答案還是拒絕回答。該框架在不大幅犧牲回答覆蓋率的前提下,將Gemini、GPT和Gemma等模型在回答問(wèn)題時(shí)的正確率提升了2%-10%。資料來(lái)源:谷歌論文《SufficientContext:ANewLe長(zhǎng)上下文機(jī)制對(duì)多模態(tài)大模型同樣成立,給語(yǔ)音大模提供必要的上下文內(nèi)容,可以減少文本生產(chǎn)過(guò)程的幻覺(jué)。2025年9月,阿里巴巴通義實(shí)驗(yàn)室推出了FunAudio-ASR端到端語(yǔ)音識(shí)別大模型,通過(guò)創(chuàng)新的Context模塊,優(yōu)化了幻覺(jué)、串語(yǔ)種等關(guān)鍵問(wèn)題,在高噪聲的場(chǎng)景下,幻覺(jué)率從78.5%下降至10.7%。除了增長(zhǎng)上下文、RLHF這類共識(shí)性方案,革新模型架構(gòu),尤其是與記憶相關(guān)的模塊,成為了新的趨勢(shì)。第10頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第10頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想2024年7月,由鄂維南院士牽頭主導(dǎo),記憶張量參與研發(fā)的記憶分層大模型Memory3(憶立方)正式發(fā)布,開(kāi)創(chuàng)性地將參數(shù)拆解為隱性記憶、顯性記憶和外置記憶庫(kù),優(yōu)化了推理效率并降低了幻覺(jué)問(wèn)題。Memory3聚焦“事實(shí)存儲(chǔ)失真”與“調(diào)用失配”兩大幻覺(jué)根源,借鑒人類記憶層級(jí),通過(guò)隱性記憶(高頻知識(shí))、顯性記憶(中頻知識(shí))、外置記憶庫(kù)(低頻知識(shí))三級(jí)架構(gòu),優(yōu)化了事實(shí)性知識(shí)的存儲(chǔ)和調(diào)用,從模型源頭壓制幻Memory3通過(guò)對(duì)事實(shí)進(jìn)行“錨定-召回”機(jī)制降低幻覺(jué)。模型將文本事實(shí)編碼為稀疏KV對(duì),推理時(shí)直接召回融合,避免參數(shù)存儲(chǔ)導(dǎo)致的信息丟失。在推理過(guò)程中,每生成64個(gè)token(1個(gè)chunk),模型嵌入生成查詢向量,從顯性記憶庫(kù)召回5個(gè)最相關(guān)的KV對(duì),與上下文KV拼接后參與注意力計(jì)算。經(jīng)校驗(yàn),在事實(shí)準(zhǔn)確性(HaluEval)、真實(shí)答案選擇(TruthfulQA)、中文事實(shí)(HalluQA)三大幻覺(jué)評(píng)估數(shù)據(jù)集上,2.4B參數(shù)的Memory3表現(xiàn)超過(guò)同參模型,甚至超越13B參數(shù)模型。第11頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第11頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想與之相似,谷歌團(tuán)隊(duì)研發(fā)了HOPE架構(gòu),通過(guò)連續(xù)記憶系統(tǒng)(ContinuumMemorySystem,CMS)模仿人類大腦的多頻率記憶機(jī)制,構(gòu)建高-中-低三級(jí)連續(xù)更新的記憶頻譜,填補(bǔ)傳統(tǒng)LLM的記憶斷層,從根源上降低幻覺(jué)。人腦神經(jīng)元按頻率分為高(Gamma波30-100Hz)、中(Beta波13-30Hz)、低(Delta/Theta波0.5-8Hz)三級(jí),分別負(fù)責(zé)即時(shí)感知、主動(dòng)思考、記憶鞏固,所有神經(jīng)元共享可復(fù)用結(jié)構(gòu),知識(shí)可跨頻率流動(dòng)。HOPE借鑒人腦的記憶機(jī)制,將模型的MLP層拆分為多級(jí)頻率模塊,每級(jí)模塊有獨(dú)立的更新頻率和塊大小,形成連續(xù)的記憶頻譜。循證增強(qiáng)機(jī)制(Evidence-GroundedMechanism)也是降低幻覺(jué)的一大手段。它的核心在于:強(qiáng)制模型的生成過(guò)程以“可核驗(yàn)證據(jù)”為前提或約束,而非僅依據(jù)語(yǔ)言分布進(jìn)行自由生成。2025年10月,百川智能推出了Baichuan-M2Plus醫(yī)療大模型,是業(yè)內(nèi)首個(gè)循證增強(qiáng)醫(yī)療大模型,通過(guò)三層核心邏輯克服AI幻覺(jué),從源頭到輸出全程保障醫(yī)療回答的可靠構(gòu)建六源循證推理范式,屏蔽互聯(lián)網(wǎng)非專業(yè)信息,僅采用六層權(quán)威來(lái)源信息,讓模型生成結(jié)論時(shí)有明確依據(jù),杜絕無(wú)來(lái)源信息。依托PICO智能檢索系統(tǒng),將用戶問(wèn)題拆解為人群、干預(yù)、對(duì)照、結(jié)局四個(gè)維度的結(jié)構(gòu)化查詢,結(jié)合自研的MedicalContextualRetrieval技術(shù)保留文獻(xiàn)完整語(yǔ)義,再通過(guò)PICO-aware重排序模型優(yōu)先呈現(xiàn)高等級(jí)證據(jù),確保精準(zhǔn)找到適配的可信信息。加入循證強(qiáng)化訓(xùn)練機(jī)制,獎(jiǎng)勵(lì)模型引用權(quán)威信源并標(biāo)注出處,懲罰無(wú)憑無(wú)據(jù)的臆測(cè),引導(dǎo)模型形成規(guī)范引用、遵循事實(shí)的回答風(fēng)格,避免脫離證據(jù)自由發(fā)揮,實(shí)現(xiàn)了幻覺(jué)率的大幅降低,僅為DeepSeek-R1的1/3。第12頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第12頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想OpenAI團(tuán)隊(duì)對(duì)傳統(tǒng)的Next-token預(yù)測(cè)目標(biāo)進(jìn)行優(yōu)化,增加對(duì)事實(shí)準(zhǔn)確性、不確定性表達(dá)的建模,避免過(guò)度關(guān)注全面性而相對(duì)忽略準(zhǔn)確性的導(dǎo)向,實(shí)現(xiàn)幻覺(jué)率的降低。在后訓(xùn)練和評(píng)估階段引入顯式置信度目標(biāo)與行為校準(zhǔn),通過(guò)在指令中設(shè)定明確的置信度閾值,并在評(píng)分函數(shù)中對(duì)錯(cuò)誤答案實(shí)施懲罰,從而改變模型的效用函數(shù)??紤]到噪聲數(shù)據(jù)容易引發(fā)幻覺(jué),在模型訓(xùn)練和微調(diào)階段引入人工構(gòu)建可信數(shù)據(jù)集是一種直觀的方法,且存在多種構(gòu)建方式。一種方法是讓標(biāo)注者根據(jù)源數(shù)據(jù)從頭開(kāi)始編寫干凈且可信的目標(biāo)文本,另一種是讓標(biāo)注者對(duì)網(wǎng)絡(luò)上的真實(shí)句子或現(xiàn)有數(shù)據(jù)集中的目標(biāo)文本進(jìn)行改寫,本質(zhì)上可以分為短語(yǔ)修剪、去語(yǔ)境化、語(yǔ)法修正三個(gè)階段。在這個(gè)過(guò)程當(dāng)中,人工標(biāo)注數(shù)據(jù)也愈發(fā)多元化,從簡(jiǎn)單的圖文對(duì),演變成CoT思維鏈數(shù)據(jù),這其實(shí)是在把人的知識(shí)和世界觀,人拆解問(wèn)題的想法,教會(huì)給AI大模型。國(guó)內(nèi),海天瑞聲致力于為AI產(chǎn)業(yè)鏈上的各類機(jī)構(gòu)提供算法模型開(kāi)發(fā)訓(xùn)練所需的專業(yè)數(shù)據(jù)集。公司所提供的訓(xùn)練數(shù)據(jù)涵蓋智能語(yǔ)音(語(yǔ)音識(shí)別、語(yǔ)音合成等)、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言等多個(gè)領(lǐng)域,服務(wù)于人機(jī)交互、智能家居、智能駕駛、智慧金融、智能安防等多種創(chuàng)新應(yīng)用場(chǎng)景。隨著“AI+”相關(guān)政策逐步落地,數(shù)據(jù)標(biāo)注賽道有望實(shí)現(xiàn)持續(xù)增長(zhǎng)。國(guó)外,Meta在2025年6月收購(gòu)的數(shù)據(jù)標(biāo)注企業(yè)ScaleAI建立了數(shù)據(jù)標(biāo)注的自動(dòng)化流水線。標(biāo)注過(guò)程由機(jī)器學(xué)習(xí)算法預(yù)處理70%的常規(guī)數(shù)據(jù),全球20萬(wàn)認(rèn)證標(biāo)注員處理30%第13頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第13頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想的復(fù)雜邊界案例。這種“AI+人類”的混合模式使標(biāo)注成本降低、質(zhì)量提升、交付速度提高。這一收購(gòu)有望幫助Meta降低訓(xùn)練數(shù)據(jù)污染率,并縮短下一代模型的訓(xùn)練周期。除數(shù)據(jù)標(biāo)注外,模型推理階段對(duì)自身輸入數(shù)據(jù)質(zhì)量的控制也非常重要。借助更精準(zhǔn)的源數(shù)據(jù)表征,借助外部知識(shí)、顯式對(duì)齊、額外訓(xùn)練數(shù)據(jù)等要素,提升源數(shù)據(jù)與目標(biāo)數(shù)據(jù)之間的關(guān)聯(lián)性,幫助模型更好地學(xué)習(xí)任務(wù)相關(guān)特征,有助于緩解源數(shù)據(jù)與目標(biāo)數(shù)據(jù)的偏差問(wèn)題。也可對(duì)數(shù)據(jù)進(jìn)行自動(dòng)清洗。從現(xiàn)有平行語(yǔ)料庫(kù)中篩選與輸入無(wú)關(guān)或矛盾的信息,對(duì)數(shù)據(jù)進(jìn)行過(guò)濾或修正,實(shí)現(xiàn)高質(zhì)量數(shù)據(jù)集。RAG技術(shù)幾乎已經(jīng)成為AI應(yīng)用部署的標(biāo)準(zhǔn)技術(shù)。由于1)大模型不能直接記住大量企業(yè)私有知識(shí):例如公司內(nèi)部文檔、產(chǎn)品手冊(cè)、FAQ客戶知識(shí)庫(kù)。這些內(nèi)容通常非常多,大模型無(wú)法全部放入Prompt,也不會(huì)長(zhǎng)期記??;2)全文搜索不能滿足語(yǔ)義需求:傳統(tǒng)搜索如ES、關(guān)鍵詞搜索只根據(jù)文本匹配,而包含某個(gè)關(guān)鍵詞不等于語(yǔ)義最相關(guān);3)大模型缺乏外部知識(shí)時(shí),容易產(chǎn)生幻覺(jué)(hallucination),因此RAG(增強(qiáng)現(xiàn)實(shí)檢索)成為企業(yè)部署AI應(yīng)用的標(biāo)配。根據(jù)Gartner,2024年全球已有45%的企業(yè)在智能客服、數(shù)據(jù)分析等場(chǎng)景中部署RAG系統(tǒng),預(yù)計(jì)到2025年這一比例將突破68%。資料來(lái)源:Gartner(全球科技咨詢機(jī)構(gòu)),申萬(wàn)宏源研究),通過(guò)RAG系統(tǒng),應(yīng)用可以將外部知識(shí)庫(kù)與LLM結(jié)合,讓模型基于檢索到的真實(shí)、可驗(yàn)證的信息生成回答,而不是僅依賴模型內(nèi)部參數(shù)記憶。第14頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第14頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想資料來(lái)源:東南大學(xué)論文《HallucinationMiGemini運(yùn)行時(shí)能夠連接Google搜索索引,協(xié)助鑒別并降低幻覺(jué)。在調(diào)用“google_search”工具生成回答時(shí),模型會(huì)檢索最新的網(wǎng)絡(luò)信息和包含數(shù)千億個(gè)統(tǒng)計(jì)數(shù)據(jù)點(diǎn)的DataCommons,如果模型生成的內(nèi)容與檢索結(jié)果不符,模型會(huì)進(jìn)行修正或標(biāo)注引圖13:Gemini利用Google搜索引擎克服幻覺(jué)的流程示意在實(shí)際應(yīng)用過(guò)程中,可以通過(guò)流程約束,限制模型只能在可信路徑上生成答案。2023年11月,北京大學(xué)和快手團(tuán)隊(duì)發(fā)布的論文認(rèn)為幻覺(jué)往往來(lái)源于一次性復(fù)雜推理過(guò)程中錯(cuò)第15頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第15頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想誤的逐步放大,提出了Decompose-and-Query(D&Q)框架,將降低大模型幻覺(jué)的問(wèn)題明確轉(zhuǎn)化為一個(gè)應(yīng)用層的系統(tǒng)工程問(wèn)題,在問(wèn)題結(jié)構(gòu)層面對(duì)生成行為進(jìn)行干預(yù)。在系統(tǒng)設(shè)計(jì)上,D&Q強(qiáng)制將復(fù)雜問(wèn)題拆解為多個(gè)相互依賴的子問(wèn)題,并通過(guò)深度優(yōu)先搜索的方式逐步推進(jìn)推理路徑。模型在每一步只能生成下一個(gè)子問(wèn)題,而不能直接給出最終答案。這種受約束的多階段分解機(jī)制顯著縮短了單步推理跨度,從而降低了模型在中間步驟中引入虛構(gòu)事實(shí)并持續(xù)傳播的風(fēng)險(xiǎn)。資料來(lái)源:北京大學(xué)、快手論文《AStepClosertoComprehensiveAnswers:Constrained與之相似,馬里蘭大學(xué)和微軟此前也在論文中提出利用問(wèn)題分解的工程化方法,結(jié)合RAG來(lái)顯著降低模型的邏輯推理幻覺(jué)。方法的核心邏輯在于通過(guò)提示詞引導(dǎo)模型將一個(gè)復(fù)雜的多跳推理(Multi-hopReasoning)任務(wù)拆解為一系列簡(jiǎn)單的、邏輯連貫的中間子問(wèn)題。傳統(tǒng)的AI模型往往依賴預(yù)訓(xùn)練知識(shí)與啟發(fā)式規(guī)則,但在動(dòng)態(tài)環(huán)境中,這種方式難以避免累積錯(cuò)誤(ErrorAccumulation)或策略退化(PolicyDrift導(dǎo)致了Agent多步執(zhí)行下,最終結(jié)果嚴(yán)重偏離的后果。關(guān)于這一命題,我們參考了騰訊姚順雨、智譜唐杰等國(guó)內(nèi)外AI大模型研究者的發(fā)言,大家都不約而同地提到“自主學(xué)習(xí)”、“Self-Reflect”、“持續(xù)學(xué)習(xí)”等機(jī)制??偨Y(jié)下來(lái),自主學(xué)習(xí)、自我糾錯(cuò)等機(jī)制,包含以下六個(gè)方面:第16頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第16頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想1)把復(fù)雜任務(wù)拆細(xì),分成一個(gè)個(gè)能單獨(dú)檢查的小單元,每做完一步就校驗(yàn)一次。不會(huì)讓Agent一股腦執(zhí)行到底,中間關(guān)鍵節(jié)點(diǎn)要么能回滾重來(lái),要么拿不準(zhǔn)就交給人確認(rèn),從源頭減少錯(cuò)誤往下傳。2)“自我糾錯(cuò)”能力,查事實(shí)對(duì)不對(duì)、工具用得準(zhǔn)不準(zhǔn),還會(huì)通過(guò)自我反思、多模型交叉核對(duì)的方式,實(shí)時(shí)發(fā)現(xiàn)問(wèn)題并修正,避免越改越錯(cuò)。3)優(yōu)化上下文管理,過(guò)濾掉沒(méi)用的干擾信息,還會(huì)動(dòng)態(tài)更新靠譜的知識(shí),不讓長(zhǎng)流程里的雜亂信息誤導(dǎo)Agent,減少注意力分散帶來(lái)的錯(cuò)誤。4)多Agent配合兜底,比如同時(shí)讓幾個(gè)Agent做同一個(gè)任務(wù),結(jié)果對(duì)比投票;哪個(gè)Agent出問(wèn)題了,就把任務(wù)轉(zhuǎn)給其他Agent接手,再加上實(shí)時(shí)監(jiān)控和自愈機(jī)制,降低單點(diǎn)錯(cuò)誤的影響。5)反饋不斷優(yōu)化,把之前執(zhí)行失敗的案例整理起來(lái),分析清楚錯(cuò)在哪,讓Agent從失敗里學(xué)經(jīng)驗(yàn),慢慢調(diào)整策略。6)明確兜底規(guī)則,比如什么時(shí)候重試、什么時(shí)候降低任務(wù)難度、什么時(shí)候直接終止,把這些邏輯提前定好,既保證流程穩(wěn)定,也能清晰追溯問(wèn)題。根據(jù)姚順雨的發(fā)言,關(guān)于自主學(xué)習(xí),25年業(yè)界已經(jīng)有一些信號(hào)。比如Cursor,他們的Auto-completeModel每幾個(gè)小時(shí)就會(huì)用最新的用戶數(shù)據(jù)去學(xué)習(xí)。包括新的ComposerModel,其實(shí)也是在使用這些真實(shí)環(huán)境下的數(shù)據(jù)去Training。智譜在AutoGLM這一Agent的訓(xùn)練中使用了在線強(qiáng)化學(xué)習(xí)(online-RL核心思想是邊交互、邊學(xué)習(xí)在訓(xùn)練過(guò)程中,智能體不斷地從環(huán)境中獲取新的數(shù)據(jù)(狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)、下一狀態(tài)),并利用這些數(shù)據(jù)即時(shí)更新策略。當(dāng)前,我們認(rèn)為,當(dāng)前的主流模型幻覺(jué)控制已經(jīng)獲得一些成就,從幾個(gè)維度來(lái)看:Vectara的HHEM(幻覺(jué)基準(zhǔn)測(cè)試)中排名全球TOP25的大模型,幻覺(jué)率均低于第17頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第17頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想資料來(lái)源:VectaraHHEM測(cè)評(píng)GitHub-vectara/hallucination-le通過(guò)RAG、專業(yè)數(shù)據(jù)微調(diào)等方式,可以顯著提升大模型在嚴(yán)肅場(chǎng)景下的答案表現(xiàn),發(fā)現(xiàn)通用大模型+RAG已經(jīng)可以顯著提升可用率。而通過(guò)構(gòu)建抗幻覺(jué)的Agent系統(tǒng),而不是僅靠模型調(diào)優(yōu)進(jìn)化和企業(yè)級(jí)自定義規(guī)則模型,業(yè)務(wù)場(chǎng)景推理模型,財(cái)稅計(jì)算模型,結(jié)合通用大模型以及知不可用不可用注:基于181個(gè)財(cái)稅問(wèn)題測(cè)評(píng)結(jié)果統(tǒng)計(jì)那么,什么類型的應(yīng)用會(huì)率先看到商業(yè)化,對(duì)幻覺(jué)更不敏感?首先,我們探討的候就代表生產(chǎn)力越高,大部分時(shí)候其實(shí)很多人愿意用最強(qiáng)的模型也是表征。因此,在第18頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第18頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想但也同樣會(huì)有更多應(yīng)用層的東西想要去利用這樣的好模型,在不同的生產(chǎn)力環(huán)節(jié)發(fā)揮作用。討的AI+2B各行各業(yè)應(yīng)用(醫(yī)療、金融、教育、法律、企業(yè)服務(wù)等基本集中在高風(fēng)險(xiǎn)和有限風(fēng)險(xiǎn)領(lǐng)域。最小風(fēng)險(xiǎn)中的2B應(yīng)用包括智能客服、創(chuàng)意生成(文案、音視風(fēng)險(xiǎn)等級(jí)核心定義監(jiān)管措施不可接受風(fēng)險(xiǎn)全和基本權(quán)利構(gòu)系統(tǒng)社會(huì)評(píng)價(jià)、實(shí)施大規(guī)模監(jiān)控和跟蹤的預(yù)測(cè)性和高度危險(xiǎn)性的自主武器系統(tǒng);3.歐盟相關(guān)機(jī)構(gòu)認(rèn)定為具有不可社會(huì)評(píng)分系共場(chǎng)所生物特征識(shí)別系統(tǒng)、操縱弱勢(shì)群體的認(rèn)知行為系統(tǒng)絕對(duì)禁止:禁止在歐盟境內(nèi)使全和基本權(quán)利產(chǎn)系統(tǒng)(需形式+實(shí)質(zhì)審查,無(wú)較高威脅則不納械、玩具、電梯、醫(yī)療器械、纜道等);移民和司法八大領(lǐng)域電梯安全控制AI、招生考試嚴(yán)格監(jiān)管:全流程持續(xù)性監(jiān)測(cè)與評(píng)估,包括建立風(fēng)險(xiǎn)管理系統(tǒng)、事前第三方符合性評(píng)估、保持透明度與網(wǎng)絡(luò)安全、投放后定期記錄分析、人工監(jiān)督有限風(fēng)險(xiǎn)指對(duì)人的健康、安全和基本權(quán)利產(chǎn)生較低威脅的人工智能系統(tǒng)與自然人存在互動(dòng)的人工智能系統(tǒng),可以生成圖像、音頻、視頻等內(nèi)容的人工智能系統(tǒng),情感識(shí)別系統(tǒng)和生物本、語(yǔ)音、視頻生成等,創(chuàng)意工具供者應(yīng)確保技術(shù)方案的有效性、互操作性、穩(wěn)健性和可靠性;3)在情感識(shí)別系統(tǒng)和生署者應(yīng)告知自然人與之接觸的最小風(fēng)險(xiǎn)全和基本權(quán)利不統(tǒng)統(tǒng)工具、游戲盟及成員國(guó)可制定相關(guān)行為準(zhǔn)則第19頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想第19頁(yè)共22頁(yè)簡(jiǎn)單金融成就夢(mèng)想根據(jù)阿里云,AI應(yīng)用的滲透一般分階段推進(jìn):最先從效率工具的使用切入,如智能編碼、文本生成、圖像生成、設(shè)計(jì)優(yōu)化等;其次進(jìn)入AI應(yīng)用進(jìn)階階段,與企業(yè)職能部門工作及部分業(yè)務(wù)的融合,如智能客服、智能營(yíng)銷、招聘管理、內(nèi)部知識(shí)庫(kù)檢索問(wèn)答等,在此階段,一般會(huì)選擇AI場(chǎng)景適配度高,結(jié)構(gòu)化較強(qiáng)、且容錯(cuò)空間相對(duì)大的應(yīng)用領(lǐng)域。因此,在AI應(yīng)用落地過(guò)程中,行業(yè)微調(diào)、Prompt工程實(shí)踐、RAG等成為了更為高效和實(shí)用的方式。在阿里云研究院所調(diào)查的1500家企業(yè)中,50.2%的企業(yè)表示已基于基礎(chǔ)大模型進(jìn)行行業(yè)微調(diào),40%的企業(yè)通過(guò)Prompt工程實(shí)踐開(kāi)展應(yīng)用,37%以上
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 申鳳琴-《電工電子技術(shù)基礎(chǔ)》第2章習(xí)題講解
- 獸藥飼料執(zhí)法培訓(xùn)課件
- 火鍋跨年活動(dòng)策劃方案(3篇)
- 珠寶門店財(cái)務(wù)管理制度(3篇)
- 疾病分期及分級(jí)管理制度(3篇)
- 車輛運(yùn)輸清洗管理制度內(nèi)容(3篇)
- 《GA 871-2010防爆罐》專題研究報(bào)告
- 獸醫(yī)課件培訓(xùn)
- 獸醫(yī)技能培訓(xùn)課件
- 中學(xué)生行為規(guī)范主題班會(huì)課件
- 2024-2025學(xué)年湖北省武漢市江漢區(qū)七年級(jí)(下)期末數(shù)學(xué)試卷
- 常規(guī)體檢指標(biāo)講解
- 感術(shù)行動(dòng)培訓(xùn)課件
- 建筑工程生產(chǎn)管理培訓(xùn)
- 新人教版高中數(shù)學(xué)必修第二冊(cè)-第八章 立體幾何初步 章末復(fù)習(xí)【課件】
- 倉(cāng)庫(kù)物料效期管理制度
- 臥床老人口腔護(hù)理規(guī)范
- GB/T 157-2025產(chǎn)品幾何技術(shù)規(guī)范(GPS)圓錐的錐度與錐角系列
- T/CCT 017-2024中低溫煤焦油
- 電子公司生產(chǎn)部年終工作總結(jié)
- ISO27001:2022信息安全管理體系全套文件+表單
評(píng)論
0/150
提交評(píng)論