版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
第11章e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C大語言模型與AIGC大學(xué)計(jì)算機(jī)基礎(chǔ)——計(jì)算思維+人工智能Fundamentalsofuniversitycomputerscience課前導(dǎo)讀2
大語言模型(LargeLanguageModel,LLM)與AIGC(ArtificialIntelligenceGeneratedContent,人工智能生成內(nèi)容)是人工智能領(lǐng)域的重要概念和研究熱點(diǎn)。大語言模型是具有大量參數(shù)的深度學(xué)習(xí)模型,專門用于處理和生成自然語言;AIGC是利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式,涵蓋文本、圖像、音樂等。本章主要內(nèi)容有:1、大語言模型2、AIGC3、提示工程e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C內(nèi)容導(dǎo)航第十一章11.2AIGC11.3提示工程11.1大語言模型e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C大語言模型第一節(jié)11.1.2大語言模型的基本原理11.1.1大語言模型的分類11.1.3大語言模型的工作過程11.1.4常見的大語言模型11.1.5大語言模型的應(yīng)用11.1.1大語言模型的分類1、按應(yīng)用領(lǐng)域分類(1)通用型大模型:也稱基礎(chǔ)大模型(如GPT系列、PaLM),適用于多種任務(wù),具備跨領(lǐng)域的語言理解與生成能力。(2)垂直型大模型:針對(duì)特定領(lǐng)域(如醫(yī)療、金融、法律),如醫(yī)療大模型、金融大模型等。(3)多模態(tài)大模型:融合文本、圖像、語音等多種輸入形式(如DeepSeek的多模態(tài)版本)。11.1.1大語言模型的分類2、按模型架構(gòu)分類(1)密集模型:全連接參數(shù)結(jié)構(gòu)(如GPT-3、BERT)。(2)稀疏模型:混合專家模型就是一種稀疏模型,通過動(dòng)態(tài)激活部分參數(shù)提升效率(如DeepSeek、Kimi)。(3)檢索增強(qiáng)生成模型:結(jié)合檢索與生成模塊,提升知識(shí)準(zhǔn)確性與實(shí)時(shí)性(如ChatPDF系統(tǒng))。11.1.1大語言模型的分類3、按功能類型分類(1)生成型模型:以文本生成為核心(如GPT、PaLM)。(2)理解型模型:側(cè)重語義分析與分類(如BERT)。(3)推理型模型:具備復(fù)雜邏輯推理能力(如DeepSeek的長思維鏈優(yōu)化)。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C大語言模型第一節(jié)11.1.1大語言模型的分類11.1.2大語言模型的基本原理11.1.3大語言模型的工作過程11.1.4常見的大語言模型11.1.5大語言模型的應(yīng)用11.1.2大語言模型的基本原理1、數(shù)據(jù)數(shù)集與處理(1)數(shù)據(jù)來源:書籍、網(wǎng)站、社交媒體等,覆蓋多語言場景與知識(shí)領(lǐng)域(2)關(guān)鍵處理:過濾噪聲(廣告/格式標(biāo)簽),保留高質(zhì)量文本(原文1.1)11.1.2大語言模型的基本原理2、基于Transformer架構(gòu)的深度學(xué)習(xí)(1)Transformer架構(gòu)核心組件①編碼器:多層自注意力+前饋神經(jīng)網(wǎng)絡(luò)任務(wù)類型:輸入內(nèi)容理解②解碼器:注意力+編碼-解碼注意力任務(wù)類型:生成任務(wù)③架構(gòu)組合模式:Encoder-only:理解任務(wù)Decoder-only:生成任務(wù)Encoder-decoder:翻譯/摘要任務(wù)11.1.2大語言模型的基本原理2、基于Transformer架構(gòu)的深度學(xué)習(xí)(2)核心機(jī)制①自注意力(Self-Attention)計(jì)算全局詞關(guān)系公式:②多頭注意力(Multi-Head)并行多個(gè)注意力頭公式:③前饋神經(jīng)網(wǎng)絡(luò)(FFN)非線性變換增強(qiáng)表示公式:11.1.2大語言模型的基本原理3、預(yù)訓(xùn)練(1)目標(biāo):學(xué)習(xí)語言基礎(chǔ)模式(2)任務(wù)類型:①語言模型任務(wù):預(yù)測句中詞(例:"我[MASK]蘋果"→預(yù)測"喜歡")②掩碼語言模型:預(yù)測被遮蔽詞(例:"小明正在[MASK]籃球"→預(yù)測"打")(3)訓(xùn)練公式:11.1.2大語言模型的基本原理4、微調(diào)(1)目標(biāo):適配下游任務(wù)(2)方法:①用標(biāo)注數(shù)據(jù)優(yōu)化模型(例:情感分析影評(píng)"這部電影太棒了")②調(diào)整頂層分類器/解碼器參數(shù)(3)損失函數(shù)(情感分析示例):其中,M是分類的類別總數(shù),yi是真實(shí)標(biāo)簽,y?i是模型預(yù)測標(biāo)簽。11.1.2大語言模型的基本原理5、預(yù)測生成(TextGeneration)(1)概率計(jì)算①輸入上下文計(jì)算下一個(gè)詞概率(例:輸入"買了一些"→"水果":0.3,"蔬菜":0.25)②Softmax公式:(2)生成策略①采樣(Sampling):按概率隨機(jī)選詞(例:生成"買了一些飲料")②貪心搜索(Greedy):選最高概率詞(例:生成"買了一些水果")e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C大語言模型第一節(jié)11.1.1大語言模型的分類11.1.2大語言模型的基本原理11.1.3大語言模型的工作過程11.1.4常見的大語言模型11.1.5大語言模型的應(yīng)用11.1.3大語言模型的工作過程1、預(yù)訓(xùn)練階段核心目標(biāo):在海量文本上進(jìn)行無監(jiān)督學(xué)習(xí),掌握語言基本規(guī)律與模式。關(guān)鍵步驟:(1)數(shù)據(jù)準(zhǔn)備:收集并清洗海量未標(biāo)注文本數(shù)據(jù),確保數(shù)據(jù)的多樣性和覆蓋面。(2)模型訓(xùn)練:使用分布式計(jì)算資源,訓(xùn)練具有數(shù)十億參數(shù)的模型,優(yōu)化目標(biāo)是最大化下一個(gè)詞的預(yù)測概率。(3)知識(shí)積累:通過長時(shí)間的訓(xùn)練,模型逐步積累語言知識(shí)和語義理解能力。11.1.3大語言模型的工作過程2、微調(diào)階段核心目標(biāo):在預(yù)測練模型基礎(chǔ)上,通過特定任務(wù)的監(jiān)督學(xué)習(xí)優(yōu)化參數(shù),適應(yīng)具體應(yīng)用需求。關(guān)鍵步驟:(1)任務(wù)定義:明確具體任務(wù),如文本分類、命名實(shí)體識(shí)別、機(jī)器翻譯等。(2)數(shù)據(jù)準(zhǔn)備:收集并標(biāo)注與任務(wù)相關(guān)的數(shù)據(jù),確保數(shù)據(jù)的質(zhì)量和覆蓋面。(3)模型微調(diào):在預(yù)訓(xùn)練模型的基礎(chǔ)上,使用特定任務(wù)的數(shù)據(jù)進(jìn)行監(jiān)督學(xué)習(xí),調(diào)整模型參數(shù)以提高性能。(4)評(píng)估與優(yōu)化:通過驗(yàn)證集評(píng)估模型性能,進(jìn)行必要的參數(shù)調(diào)整和優(yōu)化,確保模型在實(shí)際應(yīng)用中表現(xiàn)良好。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C大語言模型第一節(jié)11.1.1大語言模型的分類11.1.2大語言模型的基本原理11.1.3大語言模型的工作過程11.1.4常見的大語言模型11.1.5大語言模型的應(yīng)用11.1.4常見的大語言模型1、OpenAIChatGPTChatGPT(ChatGenerativePre-trainedTransformer,聊天生成式預(yù)訓(xùn)練轉(zhuǎn)換器)是由OpenAI公司開發(fā)的一種基于Transformer的語言模型,于2022年發(fā)布,可以進(jìn)行語言理解和生成,提供更接近人類的高效溝通與表達(dá)功能。ChatGPT是人工智能技術(shù)驅(qū)動(dòng)的自然語言處理工具,它能夠基于在預(yù)訓(xùn)練階段所見的模式和統(tǒng)計(jì)規(guī)律來生成回答,還能根據(jù)聊天的上下文進(jìn)行互動(dòng),真正像人類一樣來聊天交流,甚至能完成撰寫論文、郵件、腳本、文案、翻譯文本代碼等任務(wù)。11.1.4常見的大語言模型2、GoogleBard和GeminiGoogleBard是谷歌公司的DeepMind團(tuán)隊(duì)開發(fā)的一款功能強(qiáng)大的聊天機(jī)器人,于2023年2月發(fā)布,建立在LLm基礎(chǔ)上。它可以回答各種不同主題的問題或提供提示,也可以生成不同形式的基于文本的內(nèi)容,如詩歌、代碼、腳本、音樂作品、郵件,還可以總結(jié)文本并進(jìn)行語言間的翻譯。11.1.4常見的大語言模型3、BingChat和CopilotBingChat是一款由微軟公司開發(fā)的聊天機(jī)器人,于2023年發(fā)布。BingChat內(nèi)部集成了GPT-4,旨在通過自然語言處理和機(jī)器學(xué)習(xí)技術(shù)為用戶提供智能的、交互式的聊天體驗(yàn)。BingChat可以回答各種問題,提供有關(guān)各種主題的信息,以及執(zhí)行各種任務(wù),如預(yù)訂餐廳或購買電影票等。11.1.4常見的大語言模型4、百度文心大模型ERNIE百度文心大模型ERNIE(EnhancedRepresentationthroughknowledgeIntEgration,通過知識(shí)融合增強(qiáng)表示)是由百度公司推出的中文LLM。該模型基于深度學(xué)習(xí)技術(shù),使用了海量的中文文本數(shù)據(jù)進(jìn)行訓(xùn)練,可以自動(dòng)學(xué)習(xí)中文語言知識(shí)和語言規(guī)律,在各種自然語言處理任務(wù)中表現(xiàn)出色,如自然語言理解、機(jī)器翻譯、文本分類、命名實(shí)體識(shí)別等。文心一言(ERNIEBot)是百度公司全新一代知識(shí)增強(qiáng)LLM,發(fā)布于2023年,是百度文心大模型家族的成員。其能夠與人互動(dòng),回答問題,協(xié)助創(chuàng)作,高效便捷地幫助人們獲取信息、知識(shí)和靈感。11.1.4常見的大語言模型5、華為盤古大模型華為盤古大模型是華為公司旗下的人工智能大模型,是一種基于人工智能和高性能計(jì)算技術(shù)的多尺度、多物理場的仿真工具,能夠模擬復(fù)雜的自然環(huán)境和工程系統(tǒng),并提供科學(xué)決策支持和工程應(yīng)用服務(wù)。它面向多個(gè)行業(yè),并通過深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)快速場景適配,加速了人工智能行業(yè)應(yīng)用。華為盤古大模型系列不僅包括自然語言處理、計(jì)算機(jī)視覺等領(lǐng)域的大模型,還包括了氣象、礦山、藥物分子等行業(yè)專用大模型。11.1.4常見的大語言模型6、訊飛星火認(rèn)知大模型訊飛星火認(rèn)知大模型是科大訊飛公司于2023年發(fā)布的大模型。訊飛星火認(rèn)知大模型可以通過對(duì)海量文本、代碼和知識(shí)的學(xué)習(xí),擁有跨領(lǐng)域的知識(shí)和語言理解能力,能夠基于自然對(duì)話方式理解和執(zhí)行任務(wù),并持續(xù)進(jìn)化,實(shí)現(xiàn)從提出問題、規(guī)劃問題到解決問題的全流程閉環(huán)。11.1.4常見的大語言模型7、DeepSeek開源大模型DeepSeek公司專注開發(fā)LLM,2023年11月發(fā)布首個(gè)開源模型DeepSeekCoder;2024年1月發(fā)布包含670億參數(shù)的DeepSeekLLM;2024年5月開源第二代MoE(MixtureofExperts,專家混合)大模型DeepSeek-V2,性能出色且價(jià)格低廉;2024年12月上線并開源DeepSeek-V3首個(gè)版本,性能實(shí)現(xiàn)新突破;2025年1月發(fā)布DeepSeek-R1模型,運(yùn)行成本低,性能比肩OpenAIo1正式版。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C大語言模型第一節(jié)11.1.1大語言模型的分類11.1.2大語言模型的基本原理11.1.3大語言模型的工作過程11.1.4常見的大語言模型11.1.5大語言模型的應(yīng)用11.1.5大語言模型的應(yīng)用(1)自然語言處理:LLM在文本生成、機(jī)器翻譯、問答系統(tǒng)、情感分析等諸多方面都有廣泛應(yīng)用,ChatGPT、DeepSeek、文心一言等LLM能夠生成高質(zhì)量的文本內(nèi)容,幫助用戶完成寫作、翻譯、答疑等任務(wù)。(2)計(jì)算機(jī)視覺:LLM可用于圖像分類、目標(biāo)檢測、圖像分割以及人臉識(shí)別等任務(wù),還在藝術(shù)創(chuàng)作、醫(yī)學(xué)影像分析和遙感影像解讀等領(lǐng)域展現(xiàn)出巨大價(jià)值。(3)語音識(shí)別與合成:先進(jìn)的LLM不僅可以精確地將語音轉(zhuǎn)換為文字,還可以通過TTS(Text-To-Speech,文本轉(zhuǎn)語音)技術(shù)將文本內(nèi)容真實(shí)流暢地轉(zhuǎn)化為自然語音,為智能助手、電話機(jī)器人等應(yīng)用場景提供強(qiáng)有力的技術(shù)支撐。11.1.5大語言模型的應(yīng)用(4)多模態(tài)融合:LLM能夠同時(shí)處理和理解文本、圖像、音頻、視頻等多種信息,使人工智能更加接近人類的感知方式,在虛擬現(xiàn)實(shí)、智能推薦、智能客服等方面發(fā)揮更大的優(yōu)勢。(5)與其他技術(shù)深度融合:LLM將與物聯(lián)網(wǎng)、區(qū)塊鏈、量子計(jì)算等其他新興技術(shù)深度融合,創(chuàng)造出更具創(chuàng)新性和顛覆性的應(yīng)用,例如,通過與物聯(lián)網(wǎng)技術(shù)結(jié)合,實(shí)現(xiàn)智慧家居、智慧城市等。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C內(nèi)容導(dǎo)航第十一章11.3提示工程11.1大語言模型11.2AIGCe7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5CAIGC第二節(jié)11.2.2AIGC的原理11.2.1AIGC的定義11.2.3AIGC的應(yīng)用11.2.4AIGC的風(fēng)險(xiǎn)與挑戰(zhàn)11.2.1AIGC的定義1、文本生成(TextGeneration)
人工智能文本生成是使用人工智能算法和模型來生成模仿人類書寫內(nèi)容的文本,它在現(xiàn)有文本的大型數(shù)據(jù)集上訓(xùn)練機(jī)器學(xué)習(xí)模型,以生成在風(fēng)格、語氣和內(nèi)容上與輸入數(shù)據(jù)相似的新文本。2、圖像生成(ImageGeneration)人工智能可用于生成非人類藝術(shù)家作品的圖像。這種類型的圖像被稱為“人工智能圖像”。人工智能圖像可以是現(xiàn)實(shí)的或抽象的,也可以傳達(dá)特定的主題或信息。11.2.1AIGC的定義3、音頻生成(AudioGeneration)
AIGC的音頻生成技術(shù)可以分為兩類,分別是TTS合成和語音克隆。TTS合成需要輸入文本并輸出特定說話者的語音,主要用于機(jī)器人和語音播報(bào)任務(wù)。4、視頻生成(VideoGeneration)AIGC已被用于生成預(yù)告片和宣傳視頻。其工作流程類似于圖像生成,視頻的每一幀都在幀級(jí)別進(jìn)行處理,然后利用人工智能算法檢測視頻片段。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5CAIGC第二節(jié)11.2.1AIGC的定義11.2.3AIGC的應(yīng)用11.2.4AIGC的風(fēng)險(xiǎn)與挑戰(zhàn)11.2.2AIGC的原理11.2.2AIGC的原理1、基于GAN生成模型
GAN是AIGC中常用的方法,適用于生成圖像、視頻等視覺內(nèi)容。(1)生成器:負(fù)責(zé)生成內(nèi)容,接收一組隨機(jī)噪聲向量并輸出與真實(shí)數(shù)據(jù)分布相似的生成數(shù)據(jù)。(2)判別器:用于評(píng)估生成數(shù)據(jù)的真實(shí)性,接收真實(shí)數(shù)據(jù)和生成數(shù)據(jù)并嘗試區(qū)分它們。在訓(xùn)練過程中,判別器不斷優(yōu)化,以提高區(qū)分生成數(shù)據(jù)和真實(shí)數(shù)據(jù)的準(zhǔn)確性。11.2.2AIGC的原理2、
基于自編碼器(Autoencoder)生成模型(1)編碼器:將輸入數(shù)據(jù)壓縮成低維度的潛在表示(LatentRepresentation),這是一種緊湊的特征表達(dá)形式。(2)解碼器:將潛在表示重構(gòu)為原始數(shù)據(jù),從而實(shí)現(xiàn)數(shù)據(jù)的生成與重建。(3)變分自編碼器:自編碼器的改進(jìn)版本,在編碼過程中引入概率分布,使得生成的數(shù)據(jù)具有更好的連續(xù)性和多樣性。11.2.2AIGC的原理3、
基于Transformer生成模型(1)自注意力機(jī)制(Self-Attention):Transformer采用自注意力機(jī)制,能夠捕捉輸入序列中不同位置特征之間的依賴關(guān)系。這使得Transformer在處理長序列數(shù)據(jù)時(shí)表現(xiàn)出色。(2)基于預(yù)訓(xùn)練的生成模型:一些基于Transformer的生成模型,如GPT,通過大規(guī)模的預(yù)訓(xùn)練和微調(diào),實(shí)現(xiàn)了高質(zhì)量的文本生成。這些模型可以生成連貫、上下文相關(guān)的自然語言文本。11.2.2AIGC的原理4、
基于RNN生成模型RNN及其變體(如LSTM和GRU)在序列數(shù)據(jù)生成中表現(xiàn)良好,適用于文本生成、音頻生成等任務(wù)。RNN通過其循環(huán)結(jié)構(gòu),能夠在生成過程中記憶并處理長序列中的依賴關(guān)系。LSTM和GRU通過門控機(jī)制解決了標(biāo)準(zhǔn)RNN中的梯度消失和梯度爆炸問題,從而更有效地生成長序列數(shù)據(jù)。11.2.2AIGC的原理5、
基于多模態(tài)生成模型多模態(tài)生成模型可以同時(shí)處理和生成多種模態(tài)的數(shù)據(jù),如圖像與文本、音頻與視頻等。CLIP和DALL-E等模型通過聯(lián)合學(xué)習(xí)圖像和文本的表示,實(shí)現(xiàn)了跨模態(tài)生成任務(wù)。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5CAIGC第二節(jié)11.2.2AIGC的原理11.2.1AIGC的定義11.2.4AIGC的風(fēng)險(xiǎn)與挑戰(zhàn)11.2.3AIGC的應(yīng)用11.2.3AIGC的應(yīng)用AIGC是一種利用人工智能技術(shù)來生成文本、圖像、音頻、視頻等各種類型內(nèi)容的技術(shù)。它的應(yīng)用非常廣泛,包括文本生成、圖像生成、影視制作、游戲開發(fā)、教育教學(xué)、音樂創(chuàng)作和語音合成等,12.3節(jié)將詳細(xì)介紹。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5CAIGC第二節(jié)11.2.2AIGC的原理11.2.1AIGC的定義11.2.3AIGC的應(yīng)用11.2.4AIGC的風(fēng)險(xiǎn)與挑戰(zhàn)11.2.4AIGC的風(fēng)險(xiǎn)與挑戰(zhàn)AIGC的核心風(fēng)險(xiǎn):內(nèi)容真實(shí)性與版權(quán)問題
1、內(nèi)容真實(shí)性風(fēng)險(xiǎn)原因:AIGC非基于真實(shí)創(chuàng)作經(jīng)歷,而是通過學(xué)習(xí)數(shù)據(jù)和算法運(yùn)算生成內(nèi)容。風(fēng)險(xiǎn):
存在傳播虛假信息的風(fēng)險(xiǎn)。2、版權(quán)問題突出訓(xùn)練數(shù)據(jù)爭議:AIGC訓(xùn)練使用了大量已有作品數(shù)據(jù),其來源和使用方式存在爭議。生成內(nèi)容歸屬模糊:AIGC生成的作品在版權(quán)歸屬上存在模糊地帶。11.2.4AIGC的風(fēng)險(xiǎn)與挑戰(zhàn)AIGC的挑戰(zhàn):就業(yè)影響、應(yīng)對(duì)措施與未來展望
1、挑戰(zhàn):就業(yè)結(jié)構(gòu)變化擔(dān)憂原因:AIGC技術(shù)成熟和應(yīng)用范圍擴(kuò)大。影響:
部分重復(fù)性、規(guī)律性強(qiáng)的創(chuàng)作崗位可能被取代。2、應(yīng)對(duì)措施:
加強(qiáng)對(duì)相關(guān)從業(yè)人員的技能培訓(xùn)和轉(zhuǎn)型指導(dǎo)。3、總體展望與規(guī)范要求:積極面:AIGC開啟了智能創(chuàng)作新時(shí)代,為各行業(yè)創(chuàng)新提供無限可能,應(yīng)積極擁抱。目標(biāo):
確保AIGC在健康、有序軌道上持續(xù)發(fā)展,更好服務(wù)人類社會(huì)。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C內(nèi)容導(dǎo)航第十一章11.1大語言模型11.2AIGC11.3提示工程e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C提示工程第三節(jié)11.3.2提示技術(shù)11.3.1提示詞的基本概念和重要性11.3.3提示工程的應(yīng)用11.3.4提示工程的未來展望11.3.1提示工程的基本概念和重要性1、提示的概念
提示是我們輸入LLM以獲取響應(yīng)的信息。它的形式豐富多樣,可以是一個(gè)簡單的問題、一段陳述、詳細(xì)的指令,甚至可以是文本與圖像或其他模態(tài)的組合。2、提示工程的定義提示工程是一種通過精心構(gòu)建和優(yōu)化提示,引導(dǎo)LLM生成符合預(yù)期的輸出的技術(shù),也是一門精心雕琢提示的藝術(shù),合適的提示能夠挖掘出LLM的最大潛力。11.3.1提示工程的基本概念和生要性3、提示工程的重要性(1)提升輸出質(zhì)量:精心設(shè)計(jì)的提示可以使LLM生成更準(zhǔn)確、更有用、更符合任務(wù)要求的內(nèi)容。(2)控制生成方向:引導(dǎo)LLM朝著特定的方向生成。(3)增強(qiáng)模型適用性:通過巧妙的提示,可以使一個(gè)通用的LLM更好地適應(yīng)各種具體任務(wù)。11.3.1提示工程的基本概念和重要性4、提示工程的基本策略(1)明確任務(wù)類型:清晰地告訴模型是要進(jìn)行文本生成、翻譯、問答還是別的任務(wù)。(2)提供必要細(xì)節(jié):提示應(yīng)包含主題細(xì)節(jié)、風(fēng)格細(xì)節(jié)等。e7d195523061f1c01da5a1f0837ac25283df40ff0a16bfd61AE6AB84AD7EB485CA8019BF267F2027DE2BF09650313B56A435BB3664F8B916CA3777391AC088C283181605E184D6D6879568EB73EB808A103F0784C8DFC3E9CDD14B61FDDA6A8A6237D2DFE3BBAEC8979D824A43E015648F6CB3D1F8D3E352A4BDC9925C075CFF312C4A0BE75FDF5C提示工程第三節(jié)11.3.1提示詞的基本概念和重要性11.3.
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 上海高級(jí)電工試題及答案
- 汽修應(yīng)急預(yù)案培訓(xùn)考試試題及答案
- 脊椎問題科普
- 脈管科養(yǎng)生科普
- 右外踝骨折的傷口護(hù)理
- 2026 年初中英語《固定搭配》專項(xiàng)練習(xí)與答案 (100 題)
- 糖尿病足部護(hù)理服務(wù)模式
- 2026年深圳中考語文經(jīng)典例題變式試卷(附答案可下載)
- 2026年深圳中考物理二輪復(fù)習(xí)專項(xiàng)試卷(附答案可下載)
- 2026年大學(xué)大二(家政學(xué))家庭心理學(xué)基礎(chǔ)綜合測試題及答案
- 牛羊出租合同協(xié)議
- 提高止水鋼板安裝一次合格率
- 函數(shù)圖象問題解題技巧(奇偶性+特值法+極限法)原卷版
- 屋頂綠化改造施工方案
- 鵝產(chǎn)業(yè)風(fēng)險(xiǎn)管理與預(yù)警-深度研究
- 2022年河北省公務(wù)員錄用考試《行測》真題及答案解析
- 電工承包簡單合同(2篇)
- 中國健美協(xié)會(huì)cbba(高級(jí))健身教練證考試復(fù)習(xí)題庫(含答案)
- 湖南省益陽市2024-2025學(xué)年高一(上)期末考試物理試卷(含答案)
- 新能源電站單位千瓦造價(jià)標(biāo)準(zhǔn)值(2024版)
- 軍隊(duì)院校招生文化科目統(tǒng)一考試模擬試卷
評(píng)論
0/150
提交評(píng)論