版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
項(xiàng)目五五言絕句古詩詞生成深度學(xué)習(xí)應(yīng)用技術(shù)項(xiàng)目引導(dǎo)案例
古詩詞的生成,這是自然語言處理里面最有意思的任務(wù)之一——自然語言生成(NLG),是讓計(jì)算機(jī)具有與人一樣的表達(dá)和寫作能力的技術(shù),即可根據(jù)一些關(guān)鍵信息及其在機(jī)器內(nèi)部的表達(dá)形式,經(jīng)過規(guī)劃自動(dòng)生成一段高質(zhì)量的自然語言文本。
項(xiàng)目引導(dǎo)案例古詩文本數(shù)據(jù)預(yù)處理01模型搭建與訓(xùn)練02搜索一下
“小度”、“小冰”、“樂府”、“薇薇”等機(jī)器詩人做的詩詞,你能發(fā)現(xiàn)與真人作詩的差異嗎?項(xiàng)目引導(dǎo)案例古詩文本數(shù)據(jù)預(yù)處理任務(wù)一職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理了解自然語言處理的概念了解自然語言生成的難點(diǎn)和思路了解文本數(shù)據(jù)預(yù)處理、文本過濾的方法能夠正確使用python過濾無效文本內(nèi)容能夠正確使用python統(tǒng)計(jì)文本能夠使用numpy保存文本數(shù)據(jù)處理后的結(jié)果職業(yè)能力目標(biāo)01知識(shí)目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理
對(duì)古詩文本數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,過濾不符合要求的數(shù)據(jù),提取五言絕句詩句,并建立有效的數(shù)據(jù)利用體系。任務(wù)描述任務(wù)要求過濾古詩詞文本數(shù)據(jù)的無效內(nèi)容;完成五言絕句詩句主體的處理;使用統(tǒng)計(jì)方法分析文本數(shù)據(jù);過濾低頻字符,并建立有效的數(shù)據(jù)利用體系。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理任務(wù)分析常見的文本數(shù)據(jù)處理的方法有哪些?如何統(tǒng)計(jì)文字出現(xiàn)的次數(shù)?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對(duì)本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱五言絕句古詩詞生成任務(wù)名稱古詩文本數(shù)據(jù)預(yù)處理計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請(qǐng)用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號(hào)任務(wù)計(jì)劃1
2
3
4
5
6
7
8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理自然語言生成的基本思路204知識(shí)儲(chǔ)備自然語言介紹1文本數(shù)據(jù)處理3自然語言處理04
自然語言處理(NaturalLanguageProcessing,NLP)是人工智能和語言學(xué)領(lǐng)域的分支學(xué)科。此領(lǐng)域以語言為對(duì)象,利用計(jì)算機(jī)技術(shù)來分析、理解和處理自然語言,并提供可供人與計(jì)算機(jī)之間能共同使用的語言描寫。自然語言處理主要應(yīng)用04語音識(shí)別文字識(shí)別知識(shí)圖譜機(jī)器翻譯輿情監(jiān)測智能回答04NLP、NLU與NLG之間關(guān)系自然語言處理(NLP)主要包括自然語言理解(NLU)與自然語言生成(NLU)兩部分。04自然語言理解自然語言理解(NaturalLanguageUnderstanding,NLU)就是希望機(jī)器能夠像人一樣,具備正常人的語言理解能力。自然語言的關(guān)鍵技能是意圖識(shí)別和實(shí)體提取。語義的多樣性01詞、短語、句子、段落…不同的組合可以表達(dá)出很多的含義。語言的歧義性02聯(lián)系環(huán)境、上下文,語言會(huì)有很大的歧義性。語言的魯棒性03通過語音識(shí)別獲得的文本,會(huì)存在多字、少字、錯(cuò)字、噪音等問題。語言的知識(shí)依賴04語言是對(duì)世界的符號(hào)化描述。如“7天”,可以表示時(shí)間,也可以表示酒店名。自然語言理解難點(diǎn)自然語言生成(NeuralLanguageGeneration,NLG)是自然語言處理的重要組成部分,主要目的是降低人類和機(jī)器之間的溝通鴻溝,根據(jù)一些關(guān)鍵信息及其在機(jī)器內(nèi)部的表達(dá)形式,將非語言格式的數(shù)據(jù)轉(zhuǎn)換成人類可以理解的語言格式。04自然語言生成自然語言生成系統(tǒng)須要決定如何把機(jī)器表述語言轉(zhuǎn)化成人類的語言自然語言生成自然語言理解系統(tǒng)須要厘清輸入句的意涵,從而產(chǎn)生機(jī)器表述語言自然語言理解04自然語言處理研究的難點(diǎn)單詞的邊界界定01在口語中,詞與詞之間通常是連貫的。在書寫上,漢語也沒有詞與詞之間的邊界。詞義的消歧02許多字詞不單只有一個(gè)意思,因而我們必須選出使句意最為通順的解釋。有瑕疵的或不規(guī)范的輸入04例如語音處理時(shí)遇到外國口音或地方口音,或者在文本的處理中處理拼寫,語法或者光學(xué)字符識(shí)別(OCR)的錯(cuò)誤。語言行為與計(jì)劃05句子常常并不只是字面上的意思。例如,“你能把鹽遞過來嗎?”一個(gè)好的回答應(yīng)當(dāng)是動(dòng)手把鹽遞過去。句法的模糊性03自然語言的文法通常是模棱兩可的,我們必須要仰賴語義及前后文的信息才能在其中選擇一棵最為適合的剖析樹。自然語言生成的基本思路204知識(shí)儲(chǔ)備自然語言介紹1文本數(shù)據(jù)處理3204自然語言生成的步驟本實(shí)驗(yàn)將注意力集中在文本生成上,根據(jù)輸入(比如部分詩句)預(yù)測后續(xù)的詩句,來實(shí)現(xiàn)藏頭詩,古詩自動(dòng)補(bǔ)全等功能。傳統(tǒng)上,將輸入數(shù)據(jù)轉(zhuǎn)換為輸出文本的自然語言生成問題,通過將其分解為多個(gè)子問題來解決。04自然語言生成的六個(gè)步驟決定在建文本中包含哪些信息內(nèi)容確定確定將在文本中顯示的信息文本結(jié)構(gòu)決定在單個(gè)句子中呈現(xiàn)哪些信息。此部分將會(huì)通過神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練的方式預(yù)測詩句的文字組合句子聚合找到正確的單詞和短語來表達(dá)信息語法化選擇單詞和短語以識(shí)別域?qū)ο髤⒖急磉_(dá)式生成將所有單詞和短語組合成格式良好的句子語言實(shí)現(xiàn)04完成本實(shí)驗(yàn)的基本思路內(nèi)容確定文本結(jié)構(gòu)句子聚合語法化參考表達(dá)式生成語言實(shí)現(xiàn)刪除錯(cuò)誤符號(hào)、生僻字刪除非五言絕句格式統(tǒng)計(jì)方法+循環(huán)神經(jīng)網(wǎng)絡(luò)自然語言生成的基本思路204知識(shí)儲(chǔ)備自然語言介紹1文本數(shù)據(jù)處理3204文本數(shù)據(jù)的基本體征提取04停用詞數(shù)量01詞匯數(shù)量02字符數(shù)量05特殊字符數(shù)量06數(shù)字?jǐn)?shù)量03平均字長04文本數(shù)據(jù)的基本預(yù)處理04去除稀疏詞01去除標(biāo)點(diǎn)符號(hào)02去除停用詞05拼寫校正06分詞03去除頻現(xiàn)詞04文本數(shù)據(jù)的常用python函數(shù)split()解釋:通過指定分隔符對(duì)字符串進(jìn)行切片,如果參數(shù)num有指定值,則分隔num+1個(gè)子字符串replace()解釋:把字符串中的old(舊字符串)替換成new(新字符串),如果指定第三個(gè)參數(shù)max,則替換不超過max次。join()解釋:用于將序列中的元素以指定的字符連接生成一個(gè)新的字符串。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理05任務(wù)實(shí)施21成果保存3詩句主題處理無效內(nèi)容過濾05本次實(shí)驗(yàn)使用的古詩數(shù)據(jù)集來源于網(wǎng)絡(luò),搜集了43030條古詩詞數(shù)據(jù)保存于根目錄下的data文件夾內(nèi),內(nèi)容包含五言絕句、七言絕句、詩歌詞賦等,原始數(shù)據(jù)包含古詩題目,作者,注釋,詩句本體等內(nèi)容。1、數(shù)據(jù)集介紹環(huán)境、數(shù)據(jù)準(zhǔn)備05涉及代碼函數(shù)介紹2、生成規(guī)整的五言絕句圖像數(shù)據(jù)處理str.split(str,num):通過指定分隔符對(duì)字符串進(jìn)行切片,如果參數(shù)num有指定值,則分隔num+1個(gè)子字符串,返回分割后的字符串列表。list.append(obj):用于在列表末尾添加新的對(duì)象str.replace(old,new[,max]):把字符串中的old(舊字符串)替換成new(新字符串),如果指定第三個(gè)參數(shù)max,則替換不超過max次。str.find(str,beg=0,end=len(string)):檢測字符串中是否包含子字符串str,如果指定beg(開始)和end(結(jié)束)范圍,則檢查是否包含在指定范圍內(nèi),如果包含子字符串返回開始的索引值,否則返回-1。053、刪除帶有無法識(shí)別符號(hào)的無效詩句生僻字被使用符號(hào)“”代替。此部分的無效詩句也需要進(jìn)行過濾。圖像數(shù)據(jù)處理append()函數(shù):用于在列表末尾添加新的對(duì)象。語法:list.append(obj)其中:list:列表對(duì)象;obj:添加到列表末尾的對(duì)象。注意:append()函數(shù)無返回值,但是會(huì)修改原本的列表。05任務(wù)實(shí)施21成果保存3詩句主題處理
無效內(nèi)容過濾051、統(tǒng)計(jì)文字出現(xiàn)次數(shù)涉及代碼函數(shù)介紹訓(xùn)練集和測試集劃分list(seq):用于將元組或字符串轉(zhuǎn)換為列表。sorted(iterable,cmp=None,key=None,reverse=False):對(duì)所有可迭代對(duì)象進(jìn)行排序操作。str.join(sequence):此方法用于將序列中的元素以指定的字符連接生成一個(gè)新的字符串。052、過濾低頻文字由于低頻文字得不到有效訓(xùn)練,因此需要過濾低頻文字,并刪除低頻字所在的詩句。訓(xùn)練集和測試集劃分delname[index]:del是Python中的關(guān)鍵字,專門用來執(zhí)行刪除操作,用來刪除字典、列表的元素。name:表示列表或字典名稱。index:表示元素的索引值。053、建立雙向轉(zhuǎn)換表涉及代碼函數(shù)介紹訓(xùn)練集和測試集劃分zip([iterable,...]):用于將可迭代的對(duì)象作為參數(shù),將對(duì)象中對(duì)應(yīng)的元素打包成一個(gè)個(gè)元組,然后返回由這些元組組成的列表。如果各個(gè)迭代器的元素個(gè)數(shù)不一致,則返回列表長度與最短的對(duì)象相同。sorted(iterable,cmp=None,key=None,reverse=False):對(duì)所有可迭代的對(duì)象進(jìn)行排序操作。05任務(wù)實(shí)施21成果保存3詩句主題處理
無效內(nèi)容過濾051、打印處理結(jié)果打印詩的總數(shù)量等結(jié)果訓(xùn)練集和測試集劃分word2num文字轉(zhuǎn)id對(duì)應(yīng)表num2wordid轉(zhuǎn)文字對(duì)應(yīng)表words文字列表files_content處理后的文字內(nèi)容集合poems五言絕句古詩列表poems_num五言絕句的古詩數(shù)量052、保存成果使用numpy的保存函數(shù),以“.npy”格式將數(shù)組保存到二進(jìn)制文件中。訓(xùn)練集和測試集劃分np.save(file,arr,allow_pickle=True,fix_imports=True)file要保存的文件名稱,需指定文件保存路徑,如果未設(shè)置,保存到默認(rèn)路徑。其文件拓展名為.npyarr為需要保存的數(shù)組,也即把數(shù)組arr保存至名稱為file的文件中。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理任務(wù)檢查與評(píng)價(jià)061、請(qǐng)參照評(píng)價(jià)標(biāo)準(zhǔn)完成自評(píng)和對(duì)其他小組的互評(píng)。2、各組請(qǐng)代表分析本組任務(wù)實(shí)施經(jīng)驗(yàn)。項(xiàng)目名稱五言絕句古詩詞生成任務(wù)名稱古詩文本數(shù)據(jù)預(yù)處理評(píng)價(jià)方式可采用自評(píng)、互評(píng)、老師評(píng)價(jià)等方式說明主要評(píng)價(jià)學(xué)生在項(xiàng)目學(xué)習(xí)過程中的操作技能、理論知識(shí)、學(xué)習(xí)態(tài)度、課堂表現(xiàn)、學(xué)習(xí)能力等
評(píng)價(jià)內(nèi)容與評(píng)價(jià)標(biāo)準(zhǔn)序號(hào)評(píng)價(jià)內(nèi)容評(píng)價(jià)標(biāo)準(zhǔn)分值得分1理論知識(shí)(20%)了解自然語言處理基本知識(shí)和概念、研究的難點(diǎn),自然語言生成的基本思路,和古詩詞文本數(shù)據(jù)的處理方法。(20分)20分
2專業(yè)技能(40%)過濾無效內(nèi)容(15%)正確的探索數(shù)據(jù)集(5分)15分
正確的規(guī)整輸出文本(5分)正確的刪除無效內(nèi)容(5分)3提取主題內(nèi)容(15%)正確的統(tǒng)計(jì)文字出現(xiàn)次數(shù)(5分)15分
正確的過濾低頻文字(5分)正確的建立字符與數(shù)字雙向轉(zhuǎn)換表(5分)4模型數(shù)據(jù)預(yù)處理(10%)正確的檢查預(yù)處理后的結(jié)果(5分)10分
正確的保存預(yù)處理后的結(jié)果(5分)5核心素養(yǎng)(20%)具有良好的自主學(xué)習(xí)能力、分析解決問題的能力、整個(gè)任務(wù)過程中有指導(dǎo)他人(20分)20分
具有較好的學(xué)習(xí)能力和分析解決問題的能力,任務(wù)過程中無指導(dǎo)他人(15分)能夠主動(dòng)學(xué)習(xí)并收集信息,有請(qǐng)教他人進(jìn)行解決問題的能力(10分)不主動(dòng)學(xué)習(xí)(0分)6課堂紀(jì)律(20%)設(shè)備無損壞、設(shè)備擺放整齊、工位區(qū)域內(nèi)保持整潔、無干擾課堂秩序(20分)20分
設(shè)備無損壞、無干擾課堂秩序(15分)無干擾課堂秩序(10分)干擾課堂秩序(0分)總得分職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理任務(wù)小結(jié)07職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一古詩文本數(shù)據(jù)預(yù)處理任務(wù)拓展08使用本次任務(wù)中學(xué)習(xí)到的文本數(shù)據(jù)處理方法,對(duì)新的七言古詩數(shù)據(jù)集進(jìn)行處理。1、刪除無效內(nèi)容2、生成規(guī)整七言古詩3、統(tǒng)計(jì)文字出現(xiàn)次數(shù),過濾低頻文字4、一一對(duì)應(yīng)文字與ID解題
思路提示謝謝大家學(xué)習(xí)項(xiàng)目五五言絕句古詩詞生成深度學(xué)習(xí)應(yīng)用技術(shù)模型搭建與訓(xùn)練任務(wù)二職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練了解RNN循環(huán)神經(jīng)網(wǎng)絡(luò)的相關(guān)內(nèi)容了解長期依賴問題及解決方法了解LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)及實(shí)現(xiàn)步驟能夠掌握keras搭建循環(huán)神經(jīng)網(wǎng)絡(luò);能夠掌握模型訓(xùn)練過程職業(yè)能力目標(biāo)01知識(shí)目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練調(diào)用任務(wù)一處理好的古詩詞文本數(shù)據(jù)信息,在預(yù)訓(xùn)練模型的基礎(chǔ)上進(jìn)行模型微調(diào)訓(xùn)練。任務(wù)描述任務(wù)要求理解循環(huán)神經(jīng)網(wǎng)絡(luò)工作原理;學(xué)習(xí)使用keras框架搭建循環(huán)神經(jīng)網(wǎng)絡(luò);學(xué)習(xí)利用預(yù)處理后的數(shù)據(jù)實(shí)現(xiàn)數(shù)據(jù)生成器;掌握并實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練任務(wù)分析同學(xué)們想一想循環(huán)神經(jīng)網(wǎng)絡(luò)是如何工作的呢?你知道如何解決長期依賴問題嗎?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對(duì)本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱五言絕句古詩詞生成任務(wù)名稱模型搭建與訓(xùn)練計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請(qǐng)用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號(hào)任務(wù)計(jì)劃1
2
3
4
5
6
7
8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練長期依賴問題204知識(shí)儲(chǔ)備RNN循環(huán)神經(jīng)網(wǎng)絡(luò)1LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)3RNN基本概念04神經(jīng)網(wǎng)絡(luò)可以當(dāng)做是能夠擬合任意函數(shù)的黑盒子,只要訓(xùn)練數(shù)據(jù)足夠,將神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練好之后,在輸入層給定一個(gè)x,通過網(wǎng)絡(luò)之后就能夠在輸出層得到特定的y。那么既然有了這么強(qiáng)大的模型,為什么還需要RNN循環(huán)神經(jīng)網(wǎng)絡(luò)呢?RNN基本概念04循環(huán)神經(jīng)網(wǎng)絡(luò)主要應(yīng)用于序列數(shù)據(jù)的處理,因輸入與輸出數(shù)據(jù)之間有時(shí)間上的關(guān)聯(lián)性,所以在常規(guī)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,加上了時(shí)間維度上的關(guān)聯(lián)性,這樣就有了循環(huán)神經(jīng)網(wǎng)絡(luò)。對(duì)于循環(huán)神經(jīng)網(wǎng)絡(luò)而言,它能夠記錄很長時(shí)間的歷史信息,即使在某一時(shí)刻有相同的輸入,但由于歷史信息不同,也會(huì)得到不同的輸出。RNN基本概念04循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶性、參數(shù)共享并且圖靈完備,因此在對(duì)序列的非線性特征進(jìn)行學(xué)習(xí)時(shí)具有一定優(yōu)勢。所有RNN都具有一種重復(fù)神經(jīng)網(wǎng)絡(luò)單元的鏈?zhǔn)叫问?。在?biāo)準(zhǔn)的RNN中,這個(gè)重復(fù)的單元只有一個(gè)非常簡單的結(jié)構(gòu),例如一個(gè)tanh層。04文本生成原理123將一個(gè)長文本序列依次輸入到循環(huán)神經(jīng)網(wǎng)絡(luò);對(duì)于給定前綴序列的序列數(shù)據(jù),對(duì)將要出現(xiàn)的下一個(gè)字符的概率分布建立模型;這樣就可以每次產(chǎn)生一個(gè)新的字符。04文本生成原理hell-->hello每次輸入到循環(huán)神經(jīng)網(wǎng)絡(luò)中一個(gè)字符,并計(jì)算其概率分布。每個(gè)字符的出現(xiàn)概率分布都是基于前面歷史序列得到的。如第二個(gè)“l(fā)”的概率是通過歷史信息“hel”得出,在輸出層可以通過最大似然或者條件隨機(jī)等規(guī)則選擇結(jié)果,再經(jīng)過不斷的迭代、優(yōu)化訓(xùn)練出文本生成的模型。長期依賴問題204知識(shí)儲(chǔ)備RNN循環(huán)神經(jīng)網(wǎng)絡(luò)1LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)3104長期依賴問題“thecloudsareinthesky”“IgrewupinEngland…
IspeakfluentEnglish”。21根據(jù)前面的詞語來預(yù)測下一個(gè)單詞需要更多上下文的情況,考慮嘗試預(yù)測文本中的最后一個(gè)單詞長期依賴問題04
長期依賴是指當(dāng)前系統(tǒng)的狀態(tài),可能受很長時(shí)間之前系統(tǒng)狀態(tài)的影響,是RNN中無法解決的一個(gè)問題。
因?yàn)槌霈F(xiàn)了長期依賴,預(yù)測結(jié)果要依賴于很長時(shí)間之前的信息。不幸的是,隨著距離的增加,RNN無法有效的利用歷史信息。04梯度爆炸01當(dāng)初始的權(quán)值過大,靠近輸入層的隱藏層權(quán)值變化比靠近輸出層的隱藏層權(quán)值變化更快,就會(huì)引起梯度爆炸的問題。02在循環(huán)神經(jīng)網(wǎng)絡(luò)中,誤差梯度可在更新中累積,變成非常大的梯度,導(dǎo)致網(wǎng)絡(luò)權(quán)重的大幅更新,因此使網(wǎng)絡(luò)變得不穩(wěn)定03在極端情況下,權(quán)重的值變得非常大,以至于溢出,導(dǎo)致Nan值。網(wǎng)絡(luò)層之間的梯度(大于1.0)時(shí)重復(fù)相乘導(dǎo)致的指數(shù)級(jí)增長會(huì)產(chǎn)生梯度爆炸04梯度消失A當(dāng)梯度消失出現(xiàn)時(shí),靠近輸出層的隱藏層權(quán)值更新相對(duì)正常,但是靠近輸入層的隱藏層權(quán)值更新變得很慢,導(dǎo)致靠近輸入層的隱藏層權(quán)值幾乎不變,仍接近于初始化的權(quán)值。B梯度消失會(huì)導(dǎo)致靠前的隱藏層幾乎不更新,相當(dāng)于只是映射層對(duì)所有的輸入做函數(shù)映射,該神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)等價(jià)于只有后幾層的隱藏層在學(xué)習(xí)。04梯度爆炸、消失的解決方法預(yù)訓(xùn)練加微調(diào)梯度剪切、正則批規(guī)范化激活函數(shù)LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)長期依賴問題204知識(shí)儲(chǔ)備RNN循環(huán)神經(jīng)網(wǎng)絡(luò)1LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)3104LSTM結(jié)構(gòu)
LSTM是RNN的改進(jìn)版,解決了普通RNN神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中出現(xiàn)的梯度消失和梯度爆炸的問題,能夠?qū)W習(xí)長期的依賴關(guān)系。LSTM的核心思想是通過門控狀態(tài)來控制傳輸,記住需要記憶的信息,忘記不重要的信息。
LSTM在普通RNN循環(huán)結(jié)構(gòu)的基礎(chǔ)上,增加了一些狀態(tài)門,用于控制信息傳遞。04LSTM結(jié)構(gòu)
黃色方框類似于CNN中的激活函數(shù)操作,粉色圓圈表示點(diǎn)操作,單箭頭表示數(shù)據(jù)流向,下圖中第四個(gè)符號(hào)表示兩個(gè)向量的連接操作,第五個(gè)符號(hào)表示向量的拷貝操作,且上圖中的σ表示sigmoid層(該層的輸出時(shí)0-1的值,0表示不能通過,1表示能通過)。04LSTM結(jié)構(gòu)
LSTM共三個(gè)門:(1)遺忘門。主要是對(duì)上一個(gè)節(jié)點(diǎn)傳進(jìn)來的輸入進(jìn)行選擇性忘記,“忘記不重要的,記住重要的”。(2)輸入門。這個(gè)階段的輸入有選擇性地進(jìn)行“記憶”。哪些重要?jiǎng)t著重記錄下來,哪些不重要,則少記一些。(3)輸出門。這個(gè)階段將決定哪些將會(huì)被當(dāng)成當(dāng)前狀態(tài)的輸出。04LSTM實(shí)現(xiàn)步驟步驟1:輸入上一個(gè)神經(jīng)元細(xì)胞輸出的隱藏層向量和當(dāng)前神經(jīng)元細(xì)胞的輸入,并將其連接起來。步驟2:將步驟1中的結(jié)果傳入遺忘門中,該層將刪除不相關(guān)的信息。步驟3:一個(gè)備選層將用步驟1中的結(jié)果創(chuàng)建,這一層將保存可能的會(huì)加入細(xì)胞狀態(tài)的值或者說信息。步驟4:將步驟1中的結(jié)果傳入輸入門中,這一層決定步驟4的備選層中哪些信息應(yīng)該加入到細(xì)胞狀態(tài)中去。步驟5:步驟2、3、4計(jì)算結(jié)束后,用這三個(gè)步驟計(jì)算后的向量和上一個(gè)神經(jīng)元細(xì)胞傳出的細(xì)胞狀態(tài)向量來更新當(dāng)前細(xì)胞的細(xì)胞狀態(tài)。步驟6:結(jié)果就被計(jì)算完了。步驟7:將結(jié)果和新的細(xì)胞狀態(tài)進(jìn)行點(diǎn)乘則是當(dāng)前細(xì)胞狀態(tài)的隱向量。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二
模型搭建與訓(xùn)練05任務(wù)實(shí)施模型數(shù)據(jù)生成21模型搭建3模型訓(xùn)練4模型任務(wù)準(zhǔn)備模型任務(wù)準(zhǔn)備05安裝該項(xiàng)目所需要的依賴庫:1、環(huán)境安裝?
python3?
Tensorflow?
Keras?
h5py?
Numpy模型任務(wù)準(zhǔn)備05導(dǎo)入該項(xiàng)目所需要的依賴庫:2、依賴環(huán)境導(dǎo)入05模型任務(wù)準(zhǔn)備
random:實(shí)現(xiàn)隨機(jī)化的依賴庫。
os:實(shí)現(xiàn)對(duì)文件或目錄進(jìn)行操作的依賴庫。
keras:Keras是用Python編寫的高級(jí)神經(jīng)網(wǎng)絡(luò)API,已集成在tensorflow內(nèi)。
numpy:Python語言的一個(gè)擴(kuò)展程序庫,支持大量的維度數(shù)組與矩陣運(yùn)算,此外也針對(duì)數(shù)組運(yùn)算提供大量的數(shù)學(xué)函數(shù)庫。
LambdaCallback:用于在訓(xùn)練進(jìn)行中創(chuàng)建自定義的回調(diào)函數(shù)。
Model,load_model:Keras模型實(shí)例化方法和模型加載方法。
Adam:Adam優(yōu)化算法是隨機(jī)梯度下降算法的擴(kuò)展式,近來其廣泛用于深度學(xué)習(xí)應(yīng)用中,尤其是計(jì)算機(jī)視覺和自然語言處理等任務(wù)。05模型任務(wù)準(zhǔn)備Input,LSTM,Dropout,Dense:
1.輸入層
a)Input:輸入層,用于實(shí)例化Keras張量。
2.常用層
a)LSTM:長短期記憶網(wǎng)絡(luò)層,用于解決循環(huán)神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中的梯度消失/梯度爆炸問題。
b)Dropout:丟棄層,即根據(jù)比例隨機(jī)丟棄一些神經(jīng)元,防止神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中過度依賴某個(gè)神
經(jīng)元,可用于防止過擬合,提升模型泛化能力。
c)Dense:全連接層,全連接層本質(zhì)就是由一個(gè)特征空間線性變換到另一個(gè)特征空間。因此,dense層目的是將前面提取的特征,在dense經(jīng)過非線性變化,提取這些特征之間的關(guān)聯(lián),最后映射到輸出空間上。簡單來說,全連接就是把以前的局部特征重新通過權(quán)值矩陣組裝成完整的圖。模型任務(wù)準(zhǔn)備05任務(wù)一中已經(jīng)對(duì)數(shù)據(jù)集進(jìn)行處理,提取符合要求的五言絕句詩。這里我們使用np.load()函數(shù)快速加載save文件夾中預(yù)處理后的古詩據(jù)。3、數(shù)據(jù)導(dǎo)入模型任務(wù)準(zhǔn)備05對(duì)一些重要的訓(xùn)練超參數(shù)進(jìn)行簡單介紹4、訓(xùn)練超參數(shù)配置?
weight_file預(yù)訓(xùn)練權(quán)重文件地址?
max_len根據(jù)多少字符的內(nèi)容生成后續(xù)字符?
batch_size每次迭代批處理字符數(shù)量?
learning_rate設(shè)置學(xué)習(xí)率大小?
log_output日志文件存放地址?
model用于存放載入的模型?
load_pretrain_model設(shè)置是否加載預(yù)訓(xùn)練模型,如果想從0開始進(jìn)行訓(xùn)練則設(shè)置False。05任務(wù)實(shí)施模型訓(xùn)練數(shù)據(jù)生成2模型任務(wù)準(zhǔn)備1模型搭建3模型訓(xùn)練4模型訓(xùn)練數(shù)據(jù)生成05生成器1、數(shù)據(jù)生成器定義生成器并不把所有的值放在內(nèi)存中,它可以迭代的方法分批實(shí)時(shí)地生成數(shù)據(jù),以減小內(nèi)存負(fù)擔(dān)。模型訓(xùn)練數(shù)據(jù)生成05yield關(guān)鍵字1、數(shù)據(jù)生成器定義yield是一個(gè)類似return的關(guān)鍵字,不同的是,return在返回值后就結(jié)束,而yield返回的是個(gè)生成器05模型訓(xùn)練數(shù)據(jù)生成函數(shù)執(zhí)行第一次迭代,從開始到達(dá)yield關(guān)鍵字,然后返回yield后的值作為第一次迭代的返回值,但循環(huán)并不終止步驟1后續(xù)每次執(zhí)行此函數(shù)都會(huì)在先前運(yùn)行的基礎(chǔ)上,繼續(xù)執(zhí)行函數(shù)內(nèi)部定義的循環(huán),并返回值。步驟2不斷循環(huán)直到?jīng)]有可以返回的值。步驟3yield工作過程如下:模型訓(xùn)練數(shù)據(jù)生成052、文字生成函數(shù)定義該函數(shù)供類內(nèi)部調(diào)用,輸入用于生成古詩所依據(jù)的字符串,通過模型預(yù)測下一個(gè)文字,再將新文字加入輸入數(shù)據(jù)用于后續(xù)預(yù)測,直到返回length長度的預(yù)測值字符串05sentence:預(yù)測輸入值,傳入用于生成的文字依據(jù)。lenth:預(yù)測出的字符串長度,由于是生成五言絕句,長度已預(yù)設(shè)為24。temperature:使用temperature作為指數(shù)對(duì)所有概率進(jìn)行處理,并重新統(tǒng)計(jì)概率分布,從而調(diào)整備選輸出文字的概率,結(jié)論如下:<1>當(dāng)temperature等于1時(shí),模型輸出正常無變化。<2>當(dāng)temperature小于1時(shí),模型輸出比較開放,將有更多機(jī)會(huì)選擇其他備選文字。即原
概率大的概率比例將被減小,原小概率備選文字的概率比例將被放大。temperature的值越小這種影響越強(qiáng)。<3>當(dāng)temperature大于1時(shí),模型輸出比較保守,更加傾向選擇原高概率的備選文字。即原概率大的概率比例將更大,原小概率備選文字的概率比例將被縮小。temperature的值越大這種影響越強(qiáng)。模型訓(xùn)練數(shù)據(jù)生成05任務(wù)實(shí)施模型訓(xùn)練數(shù)據(jù)生成2模型任務(wù)準(zhǔn)備1模型搭建3模型訓(xùn)練4模型搭建05模型建立通過嵌套的方式逐層搭建而來1、建立模型05Input():輸入層,用于實(shí)例化Keras張量。構(gòu)建的模型輸入需要根據(jù)設(shè)定的文本依據(jù)長度與數(shù)據(jù)庫字符數(shù)量共同決定。LSTM():長短期記憶網(wǎng)絡(luò)層,用于解決循環(huán)神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中的梯度消失/梯度爆炸問題。Dropout():丟棄層,即在訓(xùn)練過程中根據(jù)比例隨機(jī)丟棄一些輸入,丟棄部分對(duì)應(yīng)的參數(shù)不會(huì)更新。Dense():全連接層,全連接層本質(zhì)就是由一個(gè)特征空間線性變換到另一個(gè)特征空間。將前面提取的特征,在dense經(jīng)過非線性變化,提取這些特征之間的關(guān)聯(lián),最后映射到輸出空間上。簡單來說,全連接就是把以前的局部特征重新通過權(quán)值矩陣組裝成完整的圖。softmax:把一些輸入映射為0-1之間的實(shí)數(shù),并且歸一化保證和為1,因此多分類的概率之和也剛好為1。Model():根據(jù)自己的設(shè)置創(chuàng)建完全定制化的模型。模型搭建模型搭建05根據(jù)模型訓(xùn)練要求,對(duì)LSTM優(yōu)化器進(jìn)行配置。2、配置優(yōu)化器05Adam(learning_rate):其中l(wèi)earning_rate:學(xué)習(xí)率,已在超參數(shù)設(shè)置部分定義。將輸出誤差反向傳播給網(wǎng)絡(luò)參數(shù),以此來擬合樣本的輸出。本質(zhì)上是最優(yōu)化的一個(gè)過程,逐步趨向于最優(yōu)解。pile(optimizer,loss,metrics):用于在配置訓(xùn)練方法時(shí),告知訓(xùn)練時(shí)用的優(yōu)化器、損失函數(shù)和準(zhǔn)確率評(píng)測標(biāo)準(zhǔn)。a)optimizer:優(yōu)化器。b)loss:損失函數(shù)。多分類損失函數(shù):二分類交叉熵?fù)p失函數(shù)binary_crossentropy、多類別交叉熵?fù)p失函數(shù)categorical_crossentropy。c)metrics:評(píng)價(jià)指標(biāo)。提供了6種評(píng)價(jià)指標(biāo),分別是準(zhǔn)確率accuracy、二分類準(zhǔn)確率binary_accuracy、分類準(zhǔn)確率
categorical_accuracy、稀疏分類準(zhǔn)確率sparse_categorical_accuracy、多分類TopK準(zhǔn)確率top_k_categorical_accuracy和稀疏多分類TopK準(zhǔn)確率parse_top_k_categorical_accuracy。模型搭建05任務(wù)實(shí)施模型訓(xùn)練數(shù)據(jù)生成2模型任務(wù)準(zhǔn)備1模型搭建3模型訓(xùn)練4模型訓(xùn)練051、加載與訓(xùn)練模型將根據(jù)超參數(shù)配置的預(yù)訓(xùn)練模型地址加載預(yù)訓(xùn)練模型,使用超參數(shù)load_pretrain_model控制是否加載預(yù)訓(xùn)練模型,默認(rèn)為True,即加載預(yù)訓(xùn)練模型并在此基礎(chǔ)上繼續(xù)訓(xùn)練。如果想要體驗(yàn)從零開始訓(xùn)練模型,可將參數(shù)改為False。05理解模型微調(diào)訓(xùn)練,設(shè)置模型參數(shù)2、設(shè)置訓(xùn)練過程的模型測試設(shè)置測試頻率設(shè)置測試日志存放地址模型訓(xùn)練05利用Python的生成器,逐個(gè)生成數(shù)據(jù)的batch并進(jìn)行訓(xùn)練。生成器與模型將并行執(zhí)行以提高效率。函數(shù)返回一個(gè)history對(duì)象。3、開始模型訓(xùn)練模型訓(xùn)練05理解模型微調(diào)訓(xùn)練,設(shè)置模型參數(shù)3、開始模型訓(xùn)練設(shè)置測試頻率設(shè)置測試日志存放地址模型訓(xùn)練05fit_generator(generator,steps_per_epoch,epochs=1,verbose=1,callbacks=None):利用Python的生成器,逐個(gè)生成數(shù)據(jù)的batch并進(jìn)行訓(xùn)練。生成器與模型將并行執(zhí)行以提高效率。函數(shù)返回一個(gè)history對(duì)象。
a)
generator:生成器函數(shù),所有的返回值都應(yīng)該包含相同數(shù)目的樣本。每個(gè)epoch以經(jīng)過模型的
樣本數(shù)達(dá)到steps_per_epoch時(shí),記一個(gè)epoch結(jié)束。
b)
steps_per_epoch:整數(shù),表示一個(gè)epoch中迭代的次數(shù),可根據(jù)實(shí)際情況自定義。常用設(shè)置
為數(shù)據(jù)集樣本數(shù)量除以批量大小,表示一次迭代將所有數(shù)據(jù)訓(xùn)練一次。當(dāng)生成器返steps_per_epoch次數(shù)據(jù)時(shí)計(jì)一個(gè)epoch結(jié)束,執(zhí)行下一個(gè)epoch。
c)
epochs:整數(shù),表示數(shù)據(jù)迭代的輪數(shù),可根據(jù)實(shí)際需求進(jìn)行自定義。
d)
verbose:是否在訓(xùn)練過程顯示訓(xùn)練信息。
e)
callbacks:在訓(xùn)練期間應(yīng)用的回調(diào)函數(shù)??梢允褂没卣{(diào)函數(shù)來查看訓(xùn)練模型的內(nèi)在狀態(tài)和統(tǒng)計(jì)。模型訓(xùn)練054、查看測試日志模型訓(xùn)練日志文件保存于根目錄下的out文件夾內(nèi),點(diǎn)擊日志鏈接快速打開日志文件?;陬A(yù)訓(xùn)練模型得到的日志文件中,輸出文本通常都已達(dá)到較好的效果。055、模型保存模型訓(xùn)練測試結(jié)果滿意后,將模型保存到本地職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練任務(wù)檢查與評(píng)價(jià)061、請(qǐng)參照評(píng)價(jià)標(biāo)準(zhǔn)完成自評(píng)和對(duì)其他小組的互評(píng)。2、各組請(qǐng)代表分析本組任務(wù)實(shí)施經(jīng)驗(yàn)。項(xiàng)目名稱1000五言絕句古詩詞生成任務(wù)名稱模型搭建與訓(xùn)練評(píng)價(jià)方式可采用自評(píng)、互評(píng)、老師評(píng)價(jià)等方式說
明主要評(píng)價(jià)學(xué)生在項(xiàng)目學(xué)習(xí)過程中的操作技能、理論知識(shí)、學(xué)習(xí)態(tài)度、課堂表現(xiàn)、學(xué)習(xí)能力等
評(píng)價(jià)內(nèi)容與評(píng)價(jià)標(biāo)準(zhǔn)序號(hào)評(píng)價(jià)內(nèi)容評(píng)價(jià)標(biāo)準(zhǔn)分值得分1理論知識(shí)(20%)了解RNN循環(huán)神經(jīng)網(wǎng)絡(luò)概念和文本生成原理,長期依賴問題的原因及解決方法,LSTM長短期記憶神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和基本工作流程。(20分)20分
2專業(yè)技能(40%)模型任務(wù)準(zhǔn)備(10%)正確的安裝、導(dǎo)入環(huán)境(3分)10分
3正確導(dǎo)入數(shù)據(jù)(2分)正確配置訓(xùn)練超參數(shù)(5分)4模型訓(xùn)練數(shù)據(jù)生成(10%)正確定義數(shù)據(jù)生成器(5分)10分
正確定義文字生成函數(shù)(5分)5模型搭建(10%)正確建立模型(5分)10分正確配置優(yōu)化器(5分)6模型訓(xùn)練(10%)正確加載與訓(xùn)練模型(4分)10分正確模型訓(xùn)練(4分)正確查看測試日志和保存模型(2分)7核心素養(yǎng)(20%)具有良好的自主學(xué)習(xí)能力、分析解決問題的能力、整個(gè)任務(wù)過程中有指導(dǎo)他人(20分)20分
具有較好的學(xué)習(xí)能力和分析解決問題的能力,任務(wù)過程中無指導(dǎo)他人(15分)能夠主動(dòng)學(xué)習(xí)并收集信息,有請(qǐng)教他人進(jìn)行解決問題的能力(10分)不主動(dòng)學(xué)習(xí)(0分)8課堂紀(jì)律(20%)設(shè)備無損壞、設(shè)備擺放整齊、工位區(qū)域內(nèi)保持整潔、無干擾課堂秩序(20分)20分
設(shè)備無損壞、無干擾課堂秩序(15分)無干擾課堂秩序(10分)干擾課堂秩序(0分)總得分職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練任務(wù)小結(jié)07職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二模型搭建與訓(xùn)練任務(wù)拓展08嘗試調(diào)整模型訓(xùn)練參數(shù),并觀察訓(xùn)練過程的變化。嘗試調(diào)整學(xué)習(xí)率、迭代次數(shù)、批訓(xùn)練次數(shù)等模型訓(xùn)練參數(shù),并觀察模型訓(xùn)練過程變化。解題
思路提示謝謝大家學(xué)習(xí)項(xiàng)目五五言絕句古詩詞生成深度學(xué)習(xí)應(yīng)用技術(shù)模型測試與部署任務(wù)三職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三模型測試與部署了解古詩詞應(yīng)用界面理解模型測試的概念能夠搭建Flask框架部署模型所需的環(huán)境能夠根據(jù)要求完成模型測試能夠使用Flask框架部署古詩詞文本生成模型職業(yè)能力目標(biāo)01知識(shí)目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三模型測試與部署
通過任務(wù)一的有效數(shù)據(jù)提取與任務(wù)二訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò),我們得到了能夠根據(jù)輸入數(shù)據(jù)預(yù)測后續(xù)古詩內(nèi)容的網(wǎng)絡(luò)模型。本部分任務(wù)將調(diào)用模型進(jìn)行輸出測試,并實(shí)現(xiàn)模型在網(wǎng)頁端的部署。任務(wù)描述任務(wù)要求實(shí)現(xiàn)古詩文本生成應(yīng)用的各類功能;測試古詩生成應(yīng)用的各類功能;成功使用flask進(jìn)行應(yīng)用的網(wǎng)頁端部署。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三模型測試與部署任務(wù)分析想一想傳統(tǒng)測試和模型測試的區(qū)別是什么?如何實(shí)現(xiàn)模型在網(wǎng)頁端的部署?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對(duì)本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱五言絕句古詩詞生成任務(wù)名稱模型測試與部署計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請(qǐng)用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號(hào)任務(wù)計(jì)劃1
2
3
4
5
6
7
8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三模型測試與部署古詩詞生成應(yīng)用界面介紹204知識(shí)儲(chǔ)備模型測試1模型測試04不論是傳統(tǒng)軟件還是機(jī)器學(xué)習(xí),測試目的都是檢驗(yàn)被測對(duì)象是否符合預(yù)期。不同點(diǎn)在于:傳統(tǒng)測試,檢測程序的輸出結(jié)果是否符合預(yù)期的正確值。模型測試,是通過檢驗(yàn)一組帶標(biāo)簽的數(shù)據(jù)的模型結(jié)果是否符合預(yù)期的準(zhǔn)確率或誤差,來評(píng)估模型的好壞。04
現(xiàn)有大量的動(dòng)物圖片,一位小朋友通過看這些動(dòng)物圖片就可以學(xué)會(huì)認(rèn)大象。小朋友的大腦結(jié)構(gòu)是個(gè)黑盒,怎么運(yùn)作并不清楚,只知道她讀過一定量帶標(biāo)簽(是大象為1,不是大象為0)的動(dòng)物圖片就能自學(xué)成才,識(shí)別出大象。那么,怎么驗(yàn)證小朋友是真得學(xué)會(huì)了認(rèn)大象?舉個(gè)例子模型測試04(1)先選考題:挑選大量她看過的圖片(大象與非大象)再挑大量她沒看過的圖片(大象與非大象)模型測試(2)開始測驗(yàn)把小朋友看過的圖拿來測試,并記錄結(jié)果把小朋友沒看過的圖拿來測試,并記錄結(jié)果(3)評(píng)估結(jié)果統(tǒng)計(jì):測試看過的圖的準(zhǔn)確率統(tǒng)計(jì):測試沒看過的圖的準(zhǔn)備率這里的小朋友就是模型的化身,檢驗(yàn)他是否學(xué)會(huì)識(shí)別大象,以及識(shí)別的準(zhǔn)不準(zhǔn)的,就是模型測試。古詩詞生成應(yīng)用界面介紹204知識(shí)儲(chǔ)備模型測試1204古詩詞生成應(yīng)用界面介紹域名解析1與服務(wù)器建立連接2發(fā)起HTTP請(qǐng)求3服務(wù)器響應(yīng)HTTP請(qǐng)求,瀏覽器得到html代碼4瀏覽器解析html代碼,并請(qǐng)求html代碼中的資源5瀏覽器對(duì)頁面進(jìn)行渲染呈現(xiàn)給用戶6一個(gè)完整的HTTP請(qǐng)求過程:
本實(shí)驗(yàn)通過使用flask框架快速將模型部署在云端,并設(shè)計(jì)了簡單的前端界面,用戶可以直接通過網(wǎng)站訪問,并在瀏覽器的應(yīng)用內(nèi)實(shí)現(xiàn)交互。該應(yīng)用將會(huì)把用戶輸入的請(qǐng)求傳給后端處理,再將結(jié)果傳回瀏覽器界面顯示。04古詩詞生成應(yīng)用界面介紹職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三模型測試與部署05任務(wù)實(shí)施21應(yīng)用部署3模型測試測試任務(wù)準(zhǔn)備05首先進(jìn)行環(huán)境配置,運(yùn)行該項(xiàng)目需要預(yù)裝的依賴庫如下:1、環(huán)境安裝測試任務(wù)準(zhǔn)備python3tensorflowKerash5pyFlask05環(huán)境安裝好后,根據(jù)測試需要導(dǎo)入必要的依賴環(huán)境。2、導(dǎo)入依賴庫random:實(shí)現(xiàn)隨機(jī)化的依賴庫。os:實(shí)現(xiàn)對(duì)文件或目錄進(jìn)行操作的依賴庫。keras:Keras是一個(gè)用Python編寫的高級(jí)神經(jīng)網(wǎng)絡(luò)API,已經(jīng)集成在tensorflow內(nèi)。numpy:Python語言的一個(gè)擴(kuò)展程序庫,支持大量的維度數(shù)組與矩陣運(yùn)算,此外也針對(duì)數(shù)組運(yùn)算提供大量的數(shù)學(xué)函數(shù)庫。load_model:Keras模型實(shí)例化方法和模型加載方法。測試任務(wù)準(zhǔn)備05模型的運(yùn)行與測試需要依賴任務(wù)一中處理得到的數(shù)據(jù)與轉(zhuǎn)換字典,同時(shí)輸入文本的長度應(yīng)與任務(wù)二中的設(shè)定保持一致。3、數(shù)據(jù)載入測試任務(wù)準(zhǔn)備054、定義文字生成函數(shù)該函數(shù)負(fù)責(zé)古詩詞的文字處理,輸入用于生成古詩所依據(jù)的字符串,通過模型預(yù)測下一個(gè)文字,再將新文字加入輸入數(shù)據(jù)用于后續(xù)預(yù)測,直到返回length長度的預(yù)測值字符串。參數(shù)解釋如下:sentence:預(yù)測輸入值,傳入用于生成的文字依據(jù)。lenth:預(yù)測出的字符串長度,由于是生成五言絕句,長度已預(yù)設(shè)為24。temperature:使用temperature作為指數(shù)對(duì)所有概率進(jìn)行處理,并重新統(tǒng)計(jì)概率分布,從而調(diào)整備選輸出文字的概率測試任務(wù)準(zhǔn)備05任務(wù)實(shí)施21應(yīng)用部署3模型測試測試任務(wù)準(zhǔn)備051、模型加載載入任務(wù)二生成的模型poetry_model.h5進(jìn)行測試,模型內(nèi)自帶網(wǎng)絡(luò)結(jié)構(gòu),因此無需重建網(wǎng)絡(luò)。模型測試052、給出4個(gè)漢字生成藏頭五言絕句詩測試實(shí)現(xiàn)的第一個(gè)功能,通過傳入四個(gè)字生成藏頭詩。實(shí)現(xiàn)方法如下:模型測試1)由于詩句預(yù)測需要滿足max_len個(gè)字符作為輸入,隨機(jī)提取一首詩最后max_len-1個(gè)字符。2)將最后max_len-1個(gè)字符+給出的首個(gè)文字作為初始輸入。形式如逐鳥聲開。初。3)預(yù)測出詩句的第一小節(jié)。4)在每個(gè)小節(jié)前分別加入用戶指定的文字組成輸入。5)重復(fù)上述步驟預(yù)測出剩下3個(gè)小節(jié)詩句。053、給出首節(jié)詩句生成完整五言絕句詩直接給出詩句的首節(jié)作為輸入,預(yù)測后
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年可持續(xù)發(fā)展目標(biāo)在土木工程中的實(shí)現(xiàn)
- 2026年土方工程施工技術(shù)的研究與分析
- 運(yùn)動(dòng)裝備品牌投資加盟協(xié)議書
- 互聯(lián)網(wǎng)營銷推廣方案與實(shí)施
- 機(jī)電一體化設(shè)備安裝調(diào)試操作手冊(cè)
- 施工單位合作函范本及注意事項(xiàng)
- 2026年小區(qū)綠化對(duì)房地產(chǎn)價(jià)值的提升
- 2026年電氣控制系統(tǒng)的開發(fā)與測試流程
- 2026年BIM技術(shù)在古建筑保護(hù)中的應(yīng)用
- 五年級(jí)上冊(cè)第七單元習(xí)作《-即景》教學(xué)課件
- 災(zāi)害應(yīng)急響應(yīng)路徑優(yōu)化-洞察及研究
- T/CAQI 96-2019產(chǎn)品質(zhì)量鑒定程序規(guī)范總則
- 2025既有建筑改造利用消防設(shè)計(jì)審查指南
- 化學(xué)-湖南省永州市2024-2025學(xué)年高二上學(xué)期1月期末試題和答案
- 廣東省廣州市海珠區(qū)2024-2025學(xué)年九年級(jí)上學(xué)期期末考試英語試題(含答案)
- 脊髓血管解剖及脊髓血管疾病基礎(chǔ)
- 2025年貴安發(fā)展集團(tuán)有限公司招聘筆試參考題庫含答案解析
- 語文-2025年1月廣西高三調(diào)研考全科試卷和答案(12地級(jí)市)
- GB/T 15972.40-2024光纖試驗(yàn)方法規(guī)范第40部分:傳輸特性的測量方法和試驗(yàn)程序衰減
- 陜西能源職業(yè)技術(shù)學(xué)院招聘筆試真題2023
- 春運(yùn)志愿者培訓(xùn)
評(píng)論
0/150
提交評(píng)論