大學(xué)信息技術(shù)基礎(chǔ)教程課件 6.3利用大模型生成代碼_第1頁(yè)
大學(xué)信息技術(shù)基礎(chǔ)教程課件 6.3利用大模型生成代碼_第2頁(yè)
大學(xué)信息技術(shù)基礎(chǔ)教程課件 6.3利用大模型生成代碼_第3頁(yè)
大學(xué)信息技術(shù)基礎(chǔ)教程課件 6.3利用大模型生成代碼_第4頁(yè)
大學(xué)信息技術(shù)基礎(chǔ)教程課件 6.3利用大模型生成代碼_第5頁(yè)
已閱讀5頁(yè),還剩12頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

6.3利用大模型生成代碼目錄頁(yè)contents6.3.1大規(guī)模預(yù)訓(xùn)練模型概述6.3.2使用大模型進(jìn)行代碼生成6.3.3應(yīng)用場(chǎng)景123選題背景及意義ONE6.3.1大規(guī)模預(yù)訓(xùn)練模型概述6.3.1大規(guī)模預(yù)訓(xùn)練模型概述1.大模型發(fā)展歷程(1)早期探索(1950s-1980s)1950年:圖靈測(cè)試艾倫·圖靈提出圖靈測(cè)試,為人工智能的發(fā)展奠定了基礎(chǔ)。1956年:達(dá)特茅斯會(huì)議人工智能正式成為一門學(xué)科,開啟了人工智能研究的序幕。1960s-1970s:感知機(jī)和專家系統(tǒng)感知機(jī)模型的提出引發(fā)了第一次神經(jīng)網(wǎng)絡(luò)熱潮。專家系統(tǒng)在特定領(lǐng)域取得了一定成功,但局限性明顯。6.3.1大規(guī)模預(yù)訓(xùn)練模型概述1.大模型發(fā)展歷程(2)神經(jīng)網(wǎng)絡(luò)復(fù)興(1980s-1990s)1986年:反向傳播算法反向傳播算法的提出解決了多層神經(jīng)網(wǎng)絡(luò)訓(xùn)練難題,推動(dòng)了神經(jīng)網(wǎng)絡(luò)的發(fā)展。1989年:卷積神經(jīng)網(wǎng)絡(luò)(CNN)YannLeCun提出卷積神經(jīng)網(wǎng)絡(luò),為圖像識(shí)別領(lǐng)域帶來(lái)了突破。1997年:長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)LSTM的提出解決了傳統(tǒng)RNN的梯度消失問(wèn)題,為序列建模奠定了基礎(chǔ)。6.3.1大規(guī)模預(yù)訓(xùn)練模型概述1.大模型發(fā)展歷程(3)深度學(xué)習(xí)崛起(2000s-2010s)2006年:深度學(xué)習(xí)GeoffreyHinton提出深度學(xué)習(xí)概念,開啟了深度學(xué)習(xí)的新時(shí)代。2012年:AlexNetAlexNet在ImageNet圖像識(shí)別挑戰(zhàn)賽中取得突破性成績(jī),深度學(xué)習(xí)引起廣泛關(guān)注。2014年:生成對(duì)抗網(wǎng)絡(luò)(GAN)IanGoodfellow提出生成對(duì)抗網(wǎng)絡(luò),為圖像生成和風(fēng)格遷移等領(lǐng)域帶來(lái)了新的可能性。2017年:TransformerTransformer模型的提出徹底改變了自然語(yǔ)言處理領(lǐng)域,為后續(xù)大模型的發(fā)展奠定了基礎(chǔ)。6.3.1大規(guī)模預(yù)訓(xùn)練模型概述1.大模型發(fā)展歷程(4)大模型時(shí)代(2018年-至今)2018年:GPTOpenAI發(fā)布GPT模型,開啟了大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型的時(shí)代。2019年:GPT-2GPT-2展現(xiàn)出強(qiáng)大的文本生成能力,引發(fā)了對(duì)大模型潛在風(fēng)險(xiǎn)的討論。2020年:GPT-3GPT-3擁有1750億參數(shù),在多種自然語(yǔ)言處理任務(wù)上取得了令人驚嘆的成績(jī)。2022年:ChatGPTChatGPT的出現(xiàn)標(biāo)志著大模型在對(duì)話式AI領(lǐng)域取得了重大突破,引發(fā)了全球范圍內(nèi)的關(guān)注和討論。2023年:GPT-4GPT-4在性能和應(yīng)用范圍上進(jìn)一步提升,推動(dòng)了大模型在各行各業(yè)的應(yīng)用。2024年:DeepSeek-V2DeepSeek-V2在保持高效訓(xùn)練和推理的同時(shí),實(shí)現(xiàn)性能的進(jìn)一步提升,推動(dòng)大模型技術(shù)的實(shí)際應(yīng)用落地。2.模型架構(gòu)模型核心架構(gòu)核心機(jī)制優(yōu)勢(shì)典型應(yīng)用Transformer編碼器-解碼器堆疊結(jié)構(gòu)

(多頭自注意力+前饋網(wǎng)絡(luò))自注意力機(jī)制

并行處理長(zhǎng)序列全局依賴捕捉

高效并行計(jì)算機(jī)器翻譯、文本生成BERTTransformer編碼器堆疊雙向上下文編碼

(MLM掩碼語(yǔ)言模型+NSP下一句預(yù)測(cè))深層語(yǔ)義理解

適應(yīng)多種NLP任務(wù)文本分類、問(wèn)答、實(shí)體識(shí)別ERNIEBERT改進(jìn)+知識(shí)增強(qiáng)知識(shí)驅(qū)動(dòng)的掩碼策略

(實(shí)體/短語(yǔ)級(jí)掩碼+多任務(wù)持續(xù)學(xué)習(xí))融合外部知識(shí)

提升語(yǔ)義推理能力知識(shí)問(wèn)答、搜索、跨語(yǔ)言任務(wù)6.3.1大規(guī)模預(yù)訓(xùn)練模型概述(1)預(yù)訓(xùn)練(Pre-training)在預(yù)訓(xùn)練階段,模型通過(guò)大量的未標(biāo)注數(shù)據(jù)學(xué)習(xí)通用的語(yǔ)言規(guī)律和知識(shí)。例如,模型可能會(huì)學(xué)習(xí)到詞匯的語(yǔ)義、句法結(jié)構(gòu)以及上下文關(guān)系等。這一階段的目標(biāo)是讓模型具備廣泛的語(yǔ)言理解能力,為后續(xù)的特定任務(wù)奠定基礎(chǔ)。(2)微調(diào)(Fine-tuning)微調(diào)階段,模型在預(yù)訓(xùn)練的基礎(chǔ)上,使用特定任務(wù)的標(biāo)注數(shù)據(jù)進(jìn)行進(jìn)一步訓(xùn)練。這使得模型能夠適應(yīng)特定的應(yīng)用場(chǎng)景,如情感分析、機(jī)器翻譯等。微調(diào)的過(guò)程通常需要較少的計(jì)算資源和時(shí)間,因?yàn)槟P鸵呀?jīng)在預(yù)訓(xùn)練階段積累了豐富的通用知識(shí)。3.訓(xùn)練過(guò)程6.3.1大規(guī)模預(yù)訓(xùn)練模型概述選題背景及意義TWO6.3.2使用大模型進(jìn)行代碼生成(1)輸入指令內(nèi)容示例:請(qǐng)編寫一個(gè)冒泡排序算法,確保排序后的數(shù)值按照升序排序,要求:1.使用Python編程語(yǔ)言實(shí)現(xiàn)冒泡排序算法。2.算法應(yīng)包含對(duì)數(shù)組的初始化、冒泡排序邏輯以及最終數(shù)組的輸出。3.請(qǐng)確保代碼簡(jiǎn)潔、易讀,并包含必要的注釋。1.文心一言使用步驟6.3.2使用大模型進(jìn)行代碼生成(2)模型生成代碼文心一言將按照提示詞的要求輸出符合要求的代碼,以及對(duì)代碼中關(guān)鍵處作出解釋說(shuō)明。將文心一言輸出的代碼復(fù)制到Python運(yùn)行環(huán)境中。6.3.2使用大模型進(jìn)行代碼生成2.調(diào)試運(yùn)行代碼6.3.2使用大模型進(jìn)行代碼生成選題背景及意義THREE6.3.3大模型的應(yīng)用場(chǎng)景大模型的應(yīng)用場(chǎng)景教育領(lǐng)域?qū)υ?/p>

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論