人工智能素養(yǎng)課件 第5章 大模型_第1頁(yè)
人工智能素養(yǎng)課件 第5章 大模型_第2頁(yè)
人工智能素養(yǎng)課件 第5章 大模型_第3頁(yè)
人工智能素養(yǎng)課件 第5章 大模型_第4頁(yè)
人工智能素養(yǎng)課件 第5章 大模型_第5頁(yè)
已閱讀5頁(yè),還剩44頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第5章大模型人工智能領(lǐng)域的顛覆性技術(shù)引言:我們正站在一個(gè)時(shí)代和技術(shù)變革的轉(zhuǎn)折點(diǎn)上技術(shù)背景近年來(lái)深度學(xué)習(xí)技術(shù)的突破與算力的提升,大模型成為AI領(lǐng)域新的突破和熱點(diǎn)。時(shí)代意義以GPT、Claude、文心一言、通義千問(wèn)、DeepSeek等為代表的大模型,憑借其強(qiáng)大的自然語(yǔ)言理解與生成能力,正在深刻改變?nèi)藱C(jī)交互、知識(shí)獲取、內(nèi)容創(chuàng)作乃至科學(xué)研究的方式。學(xué)習(xí)目標(biāo)核心認(rèn)知了解大模型的定義、常見(jiàn)類型、核心能力、技術(shù)原理與場(chǎng)景應(yīng)用實(shí)踐能力掌握與大模型協(xié)同工作的方法價(jià)值導(dǎo)向增強(qiáng)民族科技自信——國(guó)產(chǎn)大模型崛起與算力建設(shè)承擔(dān)科技倫理責(zé)任——幻覺(jué)與數(shù)據(jù)偏見(jiàn)明確AI協(xié)作邊界——人類專家不可替代性與判斷AI生成內(nèi)容的真實(shí)性與合理性content目錄01初識(shí)大模型02大模型能做什么03大模型關(guān)鍵技術(shù)04挑戰(zhàn)與思考05實(shí)踐案例初識(shí)大模型01什么是大模型?定義全稱大語(yǔ)言模型(LLMs,LargeLanguageModel),是用海量數(shù)據(jù)訓(xùn)練、擁有海量參數(shù)的深度學(xué)習(xí)模型關(guān)鍵特征海量參數(shù):如GPT-3(1750億)、DeepSeekV3(6710億)海量數(shù)據(jù):涵蓋互聯(lián)網(wǎng)全領(lǐng)域文本(維基百科、社交媒體等)智能涌現(xiàn):規(guī)模達(dá)閾值后,展現(xiàn)推理、理解、創(chuàng)造能力(舉一反三、生成邏輯長(zhǎng)篇論述)對(duì)比維度傳統(tǒng)機(jī)器學(xué)習(xí)/深度學(xué)習(xí)模型大模型數(shù)據(jù)規(guī)模萬(wàn)級(jí)/十萬(wàn)級(jí)數(shù)據(jù)TB/PB級(jí)數(shù)據(jù)參數(shù)規(guī)模百萬(wàn)級(jí)以下數(shù)十億-數(shù)萬(wàn)億能力邊界專注單一任務(wù)泛化能力強(qiáng),支持多任務(wù)/多模態(tài)與傳統(tǒng)模型對(duì)比大模型的前世今生(發(fā)展歷程)自然語(yǔ)言處理(NaturalLanguageProcessing,NLP)自然語(yǔ)言處理是人工智能的一個(gè)分支研究領(lǐng)域,旨在讓計(jì)算機(jī)能夠理解并處理人類語(yǔ)言,從中提取出有用的信息,幫助人類更高效地處理各種任務(wù)。大模型發(fā)展歷程早期詞嵌入模型(Word2Vec、GloVe)實(shí)現(xiàn)詞語(yǔ)數(shù)字化,但無(wú)法捕捉長(zhǎng)句語(yǔ)義。2013年神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(NNLM)用神經(jīng)網(wǎng)絡(luò)建模語(yǔ)言,受RNN限制(訓(xùn)練效率、長(zhǎng)距離依賴)。2017年Transformer架構(gòu)谷歌《AttentionIsAllYouNeed》):自注意力機(jī)制解決長(zhǎng)距離依賴,提升并行性,為大模型奠基。2018s至今大語(yǔ)言模型OpenAIGPT系列突破;國(guó)產(chǎn)模型崛起。常見(jiàn)大模型——國(guó)際GPT系列(OpenAI)標(biāo)桿模型,多模態(tài)能力強(qiáng)(GPT-4),閉源且API費(fèi)用高,2025年5月SuperCLUE測(cè)評(píng)o1綜合評(píng)分80.4居首LLaMA(Meta)開(kāi)源模型(70億-650億參數(shù)),生態(tài)活躍(衍生Alpaca、Vicuna),適合教育科研Gemini(谷歌)多模態(tài)(文本/圖像/音頻/視頻/代碼),分Ultra/Pro/Nano規(guī)格,Pixel8、Bard集成應(yīng)用文心一言(百度)中文語(yǔ)境理解優(yōu),整合百度智能云,智能客服/寫作落地廣通義千問(wèn)(阿里)多模態(tài)+行業(yè)適配,電商場(chǎng)景亮眼,Qwen3系列性能逼近Gemini2.5ProDeepSeek(深度求索)670億參數(shù)起步,V2版性價(jià)比高(GPT-4百分之一價(jià)格),R1版性能比肩OpenAIo1,賦能車企、運(yùn)營(yíng)商、政務(wù)豆包(字節(jié)跳動(dòng))2025年5月SuperCLUE測(cè)評(píng)Doubao-1.5-thinking-pro獲金牌,數(shù)學(xué)/科學(xué)推理/代碼生成優(yōu)智譜AI(智譜)知識(shí)增強(qiáng),GLM系列在C-Eval測(cè)評(píng)表現(xiàn)突出,賦能辦公/學(xué)術(shù)/商業(yè)SenseChat(商湯)多模態(tài)交互,SenseNova-V6Pro在OpenCompass測(cè)評(píng)總分80.4居首,推理成本低常見(jiàn)大模型——國(guó)內(nèi)不同評(píng)測(cè)機(jī)構(gòu)側(cè)重不同,排名動(dòng)態(tài)變化,模型各有擅長(zhǎng)領(lǐng)域C-Eval(/)SuperCLUE(/static/superclue.html)OpenCompass(/home)LMArena

(https://lmarena.ai/leaderboard)大模型評(píng)測(cè)應(yīng)用場(chǎng)景對(duì)應(yīng)LMArena分類推薦模型類型性價(jià)比考量??通用AI助手Overall整體排名GPT-4o、Claude-4、Gemini-Pro綜合能力與成本平衡??代碼開(kāi)發(fā)Coding編程分類o3、Claude-4、DeepSeek-Coder編程專精度優(yōu)先??數(shù)據(jù)分析Math數(shù)學(xué)分類o3-mini、Claude-4、Gemini-Pro推理準(zhǔn)確性關(guān)鍵??復(fù)雜任務(wù)處理HardPrompts分類o3、Claude-4-Opus能力天花板重要??圖像理解Vision視覺(jué)分類GPT-4o、Gemini-Pro、Claude-4多模態(tài)能力必需??內(nèi)容創(chuàng)作CreativeWriting分類Claude-4、GPT-4o創(chuàng)意表達(dá)力優(yōu)先不同場(chǎng)景下大模型的選擇

(基于LMArena在不同評(píng)測(cè)維度的分類排行榜,排名截止到2025年5月)大模型能做什么02核心能力之一:理解與生成文字技術(shù)支撐Transformer自注意力機(jī)制(捕捉長(zhǎng)距離語(yǔ)義依賴)+互聯(lián)網(wǎng)海量文本數(shù)據(jù)(百科、論文、新聞等)應(yīng)用場(chǎng)景內(nèi)容創(chuàng)作:路透社用AI生成企業(yè)財(cái)報(bào)摘要,小時(shí)級(jí)→分鐘級(jí)學(xué)術(shù)輔助:科研人員用模型梳理文獻(xiàn)、生成綜述框架智能客服:金融客服結(jié)合用戶消費(fèi)記錄,提升問(wèn)題解決率,降低人工轉(zhuǎn)接率其他:機(jī)器翻譯、智能寫作輔助、虛擬聊天機(jī)器人技術(shù)原理跨模態(tài)對(duì)齊技術(shù),建立文本/圖像/音頻/視頻語(yǔ)義映射(如CLIP對(duì)比學(xué)習(xí)、DALLE3生成優(yōu)化)應(yīng)用場(chǎng)景教育:生成“電磁感應(yīng)”動(dòng)態(tài)視頻+語(yǔ)音解答,多感官學(xué)習(xí)電商:圖片搜索識(shí)別服裝款式,推薦搭配與相似商品藝術(shù)創(chuàng)作:輸入詩(shī)歌/音樂(lè),生成跨界藝術(shù)作品;劇本轉(zhuǎn)分鏡/概念圖醫(yī)療:整合病歷文本、CT影像、心電圖,輔助病情診斷自動(dòng)駕駛:融合攝像頭圖像、雷達(dá)點(diǎn)云、交通標(biāo)志文本,提升感知安全性核心能力之二:多模態(tài)應(yīng)用行業(yè)應(yīng)用示例鋼鐵行業(yè)華為云盤古大模型落地寶武鋼鐵,鐵水溫度/硅含量預(yù)測(cè)命中率雙90%+效果:硅含量從0.44%→0.39%,燃料比從488kg/t→486kg/t,每噸鐵水省2kg燃料教育行業(yè)希沃教學(xué)大模型2.0AI備課(生成個(gè)性化課件)、課堂反饋(5維度分析)、資源平臺(tái)(校本資源庫(kù)+課堂摘要)落地:14個(gè)示范區(qū),超1000所學(xué)校,生成7.5萬(wàn)+課堂報(bào)告金融行業(yè)中國(guó)工商銀行大模型大小模型協(xié)作(傳統(tǒng)模型處理結(jié)構(gòu)化,大模型處理開(kāi)放場(chǎng)景)能力:情緒識(shí)別(投訴場(chǎng)景“共情話術(shù)+轉(zhuǎn)人工”)、需求預(yù)判(理財(cái)?shù)狡谕扑徒ㄗh)、多模態(tài)交互(處理截圖/語(yǔ)音)大模型關(guān)鍵技術(shù)03大模型關(guān)鍵技術(shù)模型架構(gòu)Transformer架構(gòu)自注意力機(jī)制Self-attentionmechanism模型訓(xùn)練預(yù)訓(xùn)練Pretrain+微調(diào)Fine-tuning模型使用提示詞工程PromptEngineering核心類比模擬人類選擇性關(guān)注(如讀句子時(shí)聚焦關(guān)鍵信息)發(fā)展背景早期機(jī)器翻譯編碼器-解碼器的固定向量存在信息丟失,注意力機(jī)制解決此問(wèn)題注意力機(jī)制作用連接編碼器(輸入序列)與解碼器(輸出序列),動(dòng)態(tài)對(duì)齊信息示例翻譯“Theanimaldidn'tcross...becauseitwastired”,生成“它”時(shí),聚焦英文“it”傳統(tǒng)注意力機(jī)制(跨序列)作用處理輸入序列內(nèi)部關(guān)系,解決長(zhǎng)距離依賴與語(yǔ)義理解示例理解“AI會(huì)改變世界,因?yàn)樗茏灾鲗W(xué)習(xí)”中“它”指代“AI”自注意力(同序列)作用并行多個(gè)獨(dú)立注意力頭,捕捉多維度特征(情感、時(shí)間、邏輯等)優(yōu)勢(shì)增強(qiáng)模型表達(dá)與泛化能力多頭注意力機(jī)制(Transformer核心結(jié)構(gòu))小結(jié)傳統(tǒng)注意力機(jī)制關(guān)注跨序列關(guān)系(如編碼器-解碼器),解決對(duì)齊問(wèn)題。自注意力機(jī)制聚焦同一序列內(nèi)部關(guān)系,解決長(zhǎng)程依賴和語(yǔ)義理解問(wèn)題。多頭注意力機(jī)制通過(guò)多組自注意力并行計(jì)算,增強(qiáng)大模型對(duì)復(fù)雜模式的捕捉能力。預(yù)訓(xùn)練+微調(diào)核心邏輯:兩階段訓(xùn)練,兼顧通用性與專業(yè)性預(yù)訓(xùn)練:海量通用語(yǔ)料訓(xùn)練通用大模型微調(diào):在專業(yè)領(lǐng)域數(shù)據(jù)上微調(diào),獲得階段一:無(wú)監(jiān)督預(yù)訓(xùn)練目標(biāo):學(xué)習(xí)通用語(yǔ)言表示/世界知識(shí)數(shù)據(jù):TB級(jí)無(wú)標(biāo)注文本(多領(lǐng)域、多語(yǔ)言)核心技術(shù):自監(jiān)督學(xué)習(xí)(設(shè)計(jì)預(yù)訓(xùn)練任務(wù)生成偽標(biāo)簽)任務(wù)類型原理示例代表模型掩碼語(yǔ)言建模(MLM)遮蓋15%詞,預(yù)測(cè)被遮詞輸入“機(jī)器學(xué)習(xí)是[MASK]智能核心”,預(yù)測(cè)“人工”BERT、RoBERTa下一句預(yù)測(cè)(NSP)判斷兩句子是否連續(xù)輸入["深度學(xué)習(xí)需數(shù)據(jù)","數(shù)據(jù)質(zhì)量重要"]→標(biāo)簽“相關(guān)”早期BERT句子順序預(yù)測(cè)(SOP)判斷兩句子原始順序正序["疫苗需時(shí)間","防控需耐心"]→標(biāo)簽“正確”ALBERT、ELECTRA自回歸語(yǔ)言建模逐詞預(yù)測(cè)下文輸入“AI終極目標(biāo)是”→生成“實(shí)現(xiàn)通用智能”GPT系列、LLaMA對(duì)比學(xué)習(xí)對(duì)比正/負(fù)樣本學(xué)習(xí)表示正樣本:同一圖片不同裁剪;負(fù)樣本:其他圖片SimCLR、CLIP去噪自編碼恢復(fù)加噪數(shù)據(jù)輸入“技科術(shù)新推動(dòng)會(huì)社發(fā)展”→輸出“科技創(chuàng)新推動(dòng)社會(huì)發(fā)展”—常見(jiàn)的預(yù)訓(xùn)練任務(wù)模型參數(shù)規(guī)模硬件配置訓(xùn)練時(shí)間總計(jì)算量(FLOPs)估算成本(美元)能耗(GWh)關(guān)鍵優(yōu)化點(diǎn)GPT-3175B10,000×V100GPU34天3.14×10231200萬(wàn)+~2.5首個(gè)千億級(jí)通用模型PaLM540B6,144×TPUv450天2.5×102?2000萬(wàn)+~3.4谷歌最大稠密模型LLaMA-2-70B70B6,000×A100GPU21天1.5×1023200萬(wàn)~0.8Meta開(kāi)源,效率優(yōu)化Chinchilla70B4,096×TPUv390天5.6×1023800萬(wàn)+~1.2數(shù)據(jù)量>參數(shù)量DeepSeek-MoE160B(激活36B)8,192×H800GPU30天1.2×10231000萬(wàn)~1500萬(wàn)~2.0稀疏專家模型,國(guó)產(chǎn)算力優(yōu)化DeepSeek-V3~140B8,192×H800GPU20天1.8×1023800萬(wàn)~1200萬(wàn)~1.5國(guó)產(chǎn)MoE+動(dòng)態(tài)路由優(yōu)化GPT-4~1.8T(推測(cè))25,000×A100GPU90~100天~2×102?6300萬(wàn)+~10.0混合專家模型(MoE)適配下游任務(wù)階段二:有監(jiān)督微調(diào)微調(diào)方式適用場(chǎng)景技術(shù)特點(diǎn)全參數(shù)微調(diào)數(shù)據(jù)充足(10萬(wàn)+標(biāo)注樣本)、任務(wù)差異大、追求極致性能更新所有模型參數(shù)參數(shù)高效微調(diào)(PEFT)資源有限、小標(biāo)注數(shù)據(jù)、快速部署LoRA(插入低秩矩陣)、Adapter(插入小型網(wǎng)絡(luò)),僅更新部分參數(shù)領(lǐng)域?qū)I(yè)模型應(yīng)用案例金融-財(cái)報(bào)情緒分析基座模型FinBERTLoRA微調(diào)(r=8)10,000條數(shù)據(jù),單RTX4090訓(xùn)練2小時(shí)準(zhǔn)確率89%(接近全參數(shù)91%)顯存省90%醫(yī)療-放射科報(bào)告生成基座模型BioClinicalBERT,Adapter微調(diào)50,000條數(shù)據(jù)4張A100訓(xùn)練18小時(shí),BLEU-4達(dá)0.43(接近全參數(shù)0.45),報(bào)告臨床可用定義:設(shè)計(jì)輸入指令,引導(dǎo)大模型精準(zhǔn)理解需求、生成高質(zhì)量輸出,是“AI時(shí)代新編程語(yǔ)言”提示詞工程要素說(shuō)明示例任務(wù)明確需求(總結(jié)/翻譯/生成等)“生成AI倫理短文”上下文提供背景/示例“結(jié)合數(shù)據(jù)隱私、算法偏見(jiàn)案例”角色指定模型身份“扮演善于比喻的歷史老師”格式明確輸出形式“表格/Markdown/英文”(可選)風(fēng)格指定文本風(fēng)格“科普風(fēng)/幽默風(fēng)”(可選)語(yǔ)氣指定表達(dá)語(yǔ)氣“正式/輕松”(可選)受眾明確目標(biāo)讀者“初中生/專業(yè)人士”普通提示詞“寫一篇關(guān)于AI倫理的文章”優(yōu)化提示詞“科普風(fēng)格500字短文,講AI倫理三大挑戰(zhàn)(數(shù)據(jù)隱私/算法偏見(jiàn)/自動(dòng)化失業(yè)),每部分配1個(gè)真實(shí)案例,語(yǔ)言生動(dòng)”案例1(寫作輔助)普通提示詞“秦始皇的功績(jī)有哪些?”優(yōu)化提示詞“扮演善于比喻的歷史老師,給初中生講秦始皇3項(xiàng)核心功績(jī),每項(xiàng)用生活化類比,語(yǔ)言幽默”案例2(角色扮演)編寫原則清晰準(zhǔn)確,避免模型猜測(cè)用示例/解釋輔助理解復(fù)雜任務(wù)拆解為子任務(wù)多次詢問(wèn)優(yōu)化要求模型迭代思考并解釋增加自檢步驟挑戰(zhàn)與思考04技術(shù)層面數(shù)據(jù)質(zhì)量:低質(zhì)量數(shù)據(jù)導(dǎo)致偏見(jiàn)(如性別/種族歧視輸出)資源消耗:訓(xùn)練成本高(算力/能源),限制小機(jī)構(gòu)應(yīng)用幻覺(jué)問(wèn)題:生成無(wú)事實(shí)依據(jù)卻合理的內(nèi)容(如假新聞、錯(cuò)誤參考文獻(xiàn))推理瓶頸:GSM8K數(shù)學(xué)測(cè)試準(zhǔn)確率僅人類80%,復(fù)雜編程易出漏洞應(yīng)用層面可解釋性差:“黑盒子”結(jié)構(gòu),醫(yī)療/金融等領(lǐng)域難落地隱私安全:訓(xùn)練泄露隱私,惡意用戶用模型生成虛假信息/詐騙軍事隱患:自主武器系統(tǒng)誤判濫殺,加劇軍事競(jìng)爭(zhēng)信息污染:批量生成假新聞、拼湊學(xué)術(shù)論文,破壞輿論與學(xué)術(shù)誠(chéng)信社會(huì)層面就業(yè)沖擊:麥肯錫預(yù)測(cè)5年內(nèi)50%職業(yè)受影響,重復(fù)性崗位減少,技能轉(zhuǎn)型難版權(quán)爭(zhēng)議:訓(xùn)練數(shù)據(jù)含受版權(quán)作品,侵權(quán)責(zé)任難界定監(jiān)管滯后:現(xiàn)有法律難適應(yīng)新問(wèn)題(責(zé)任認(rèn)定/隱私保護(hù)),國(guó)際標(biāo)準(zhǔn)不統(tǒng)一大模型存在的問(wèn)題如何用好大模型?技術(shù)優(yōu)化層面數(shù)據(jù)治理:建立“采集-標(biāo)注-清洗-評(píng)估”全流程,保障數(shù)據(jù)準(zhǔn)確與多樣(如醫(yī)療數(shù)據(jù)篩選權(quán)威文獻(xiàn))架構(gòu)優(yōu)化:探索輕量化模型(如MobileBERT知識(shí)蒸餾),適配移動(dòng)端等資源受限場(chǎng)景應(yīng)用實(shí)踐層面行業(yè)微調(diào):結(jié)合行業(yè)需求優(yōu)化(如教育領(lǐng)域?qū)霐?shù)學(xué)例題,開(kāi)發(fā)智能輔導(dǎo)系統(tǒng))評(píng)估體系:人工+自動(dòng)化工具,從準(zhǔn)確性、邏輯性、合規(guī)性評(píng)估輸出人才培養(yǎng)層面跨學(xué)科教育:開(kāi)設(shè)“AI+行業(yè)”課程,培養(yǎng)復(fù)合型人才多領(lǐng)域合作:計(jì)算機(jī)、統(tǒng)計(jì)、社會(huì)學(xué)專家協(xié)同解決難題個(gè)人如何用好大模型?明確需求避免模糊提問(wèn)。結(jié)構(gòu)化提示詞背景+目標(biāo)+限制。的結(jié)構(gòu)化提問(wèn)。交叉驗(yàn)證輸出權(quán)威渠道核實(shí),專業(yè)問(wèn)題咨詢專家。保護(hù)隱私不輸入敏感信息,合規(guī)使用大模型。未來(lái)展望01算力提升與算網(wǎng)協(xié)同算力是大模型發(fā)展的基石,更大的算力能支撐模型探索更高的能力上限。算網(wǎng)協(xié)同成為提升算力資源使用效率的關(guān)鍵路徑。02多模態(tài)融合深化多模態(tài)融合是大模型發(fā)展的必然趨勢(shì),旨在讓模型理解并處理文本、圖像、音頻、視頻等多種信息,模擬人類感知世界的方式。03推理能力強(qiáng)化隨著推理能力提升,大模型在更多領(lǐng)域有望超越人類專家水平。04開(kāi)源開(kāi)放拓展開(kāi)源開(kāi)放正成為大模型發(fā)展的核心競(jìng)爭(zhēng)力。開(kāi)放協(xié)議的發(fā)展同樣關(guān)鍵。05可信模型構(gòu)建構(gòu)建可信知識(shí)共識(shí)機(jī)制與供應(yīng)體系成為關(guān)鍵。06垂直領(lǐng)域深耕結(jié)合特定行業(yè)需求開(kāi)發(fā)專業(yè)化大模型,是發(fā)揮AI價(jià)值的重要途徑。07智能體發(fā)展大模型與AIAgent技術(shù)融合,賦予個(gè)人更多智能工具支持。實(shí)踐案例05理工類:代碼生成與調(diào)試(以DeepSeek為例)實(shí)驗(yàn)?zāi)繕?biāo):掌握大模型生成代碼方法,學(xué)習(xí)協(xié)同調(diào)試技巧實(shí)驗(yàn)步驟:打開(kāi)DeepSeek官網(wǎng)(/),注冊(cè)登錄后點(diǎn)擊“開(kāi)始對(duì)話”輸入提示詞:“用Python爬取中國(guó)天氣網(wǎng)北京未來(lái)3天天氣預(yù)報(bào),用matplotlib畫溫度折線圖,用requests和BeautifulSoup庫(kù)”下載代碼,在PyCharm中運(yùn)行(初始結(jié)果:中文亂碼)調(diào)試:追加提示詞“折線圖漢字亂碼,請(qǐng)修復(fù)”,下載修正代碼重新運(yùn)行(解決亂碼)優(yōu)化:追加需求“爬未來(lái)一周氣溫+判斷極端天氣”,記錄結(jié)果初始代碼未考慮中文編碼,反映AI生成代碼的哪些缺陷?如何用提示詞規(guī)避(如“確保中文正常顯示”)?遇到SSL證書等報(bào)錯(cuò),如何解決(如提示模型“排查SSL問(wèn)題”+人工搜索方案)?思考實(shí)驗(yàn)?zāi)繕?biāo):掌握領(lǐng)域知識(shí)檢索提示詞設(shè)計(jì),理解大模型專業(yè)局限性實(shí)驗(yàn)步驟:打開(kāi)文心一言官網(wǎng)(/),注冊(cè)登錄基礎(chǔ)查詢:輸入“小麥赤霉病是什么?”,評(píng)分回答完整度(0-5分)提示詞優(yōu)化對(duì)比:普通問(wèn)法:“怎么防治小麥赤霉???”結(jié)構(gòu)化問(wèn)法:“分條列小麥赤霉病①病原特征②發(fā)病條件③化學(xué)防治方案(注藥劑稀釋比例)”加角色問(wèn)法:“你是農(nóng)業(yè)專家,專長(zhǎng)小麥病癥防治,介紹小麥赤霉?。ê佗冖郏Y(jié)構(gòu)化問(wèn)法)”評(píng)分三種問(wèn)法的完整度與專業(yè)性(0-5分)權(quán)威驗(yàn)證:在中國(guó)農(nóng)藥信息網(wǎng)()核實(shí)1條防治建議農(nóng)業(yè)類:農(nóng)業(yè)知識(shí)問(wèn)答(以文心一言為例)如何規(guī)避大模型推薦過(guò)時(shí)農(nóng)藥的風(fēng)險(xiǎn)(如提示詞“推薦當(dāng)前合規(guī)農(nóng)藥”+權(quán)威網(wǎng)站驗(yàn)證)?農(nóng)業(yè)專業(yè)術(shù)語(yǔ)準(zhǔn)確性對(duì)回答質(zhì)量的影響(如“藥劑稀釋比例”表述模糊會(huì)導(dǎo)致建議無(wú)效)?思考實(shí)驗(yàn)?zāi)繕?biāo):掌握文本聚類提示詞設(shè)計(jì),識(shí)別輿論偏見(jiàn),培養(yǎng)批判性思維實(shí)驗(yàn)步驟:打開(kāi)智譜清言官網(wǎng)(/),注冊(cè)登錄輸入模擬微博評(píng)論:“雙減后孩子輕松但家長(zhǎng)焦慮”“課外培訓(xùn)轉(zhuǎn)入地下,監(jiān)管別松懈”“教育公平不能一刀切,要配套措施”,指令“按觀點(diǎn)傾向分類,用表格輸出(類別名稱/核心觀點(diǎn)/典型語(yǔ)句/潛在立場(chǎng)推測(cè))”追加指令:“分析觀點(diǎn)中的認(rèn)知偏差(如幸存者偏差),給出驗(yàn)證偏差所需數(shù)據(jù)類型”追加指令:“

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論