下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
習題解答1.填空題神經(jīng)網(wǎng)絡(luò)參數(shù)編碼器解碼器無監(jiān)督預訓練有監(jiān)督微調(diào)預訓練數(shù)據(jù)量模型規(guī)模泛化能力思維鏈推理能力少量單一文本圖文多模態(tài)詞元化嵌入向量數(shù)值段落編碼位置編碼掩碼語言輸入文本預測2019混合專家(MoE)混合專家模型(MoE)2.簡答題簡述GPT-1模型的訓練方法。GPT-1模型的訓練采用了無監(jiān)督預訓練和對應(yīng)任務(wù)的有監(jiān)督微調(diào)。(1)無監(jiān)督預訓練GPT-1的無監(jiān)督預訓練的目標以模型的語言能力為主,思路是先通過大量無標簽的數(shù)據(jù)進行訓練,生成語言模型,能夠運用于與有監(jiān)督任務(wù)沒有關(guān)系的自然語言處理當中。這種方法無需對文本進行標注,就可以使用大量已有的文本信息來訓練GPT,使之擁有基礎(chǔ)的語言能力。(2)有監(jiān)督微調(diào)當?shù)玫搅艘呀?jīng)具備一定語言能力的模型后,可以使用具體任務(wù)的標注數(shù)據(jù)對這個模型進行進一步的微調(diào)。微調(diào)即使用新的訓練目標(TrainingObjective)和損失函數(shù)(LossFunction)來更新模型的參數(shù)。簡述GPT-2推出相對于GPT-1做了哪些改進?GPT-2與GPT-1在架構(gòu)上沒有大的差別,也采用了Transformers架構(gòu)的解碼器方式,只是在規(guī)模、數(shù)據(jù)量等方面略有不同,具體如下:1)GPT-2結(jié)構(gòu)的規(guī)模更大,層數(shù)更多。2)GPT-2數(shù)據(jù)量更大,數(shù)據(jù)類型更多(這有利于增強模型的通用性),并對數(shù)據(jù)進行了更多的質(zhì)量過濾和控制。3)GPT-1對不同的下游任務(wù)采用有監(jiān)督學習方式,而GPT-2對下游采用無監(jiān)督學習方式,對不同的下游任務(wù)不改變參數(shù)及模型(即所謂的zero-shotsetting)。3)GPT-3在GPT-2的基礎(chǔ)上做了哪些改進。GPT-3在GPT-2的基礎(chǔ)上,主要通過3個角度來進一步提升模型的能力。1.增加模型大小。GPT-3的參數(shù)擴大到1750億,與GPT-2的15.42億參數(shù)相比大了100倍以上。2.增加預訓練數(shù)據(jù)量。為了訓練GPT-3大幅度增加的參數(shù)量,GPT-3的預訓練數(shù)據(jù)集大小也由GPT-2中使用的WebText的40GB急劇擴充到了570GB。3.上下文學習。針對零次表現(xiàn)的成績欠佳,GPT-3通過小樣本示例的方式來取得更好的模型表現(xiàn)。4)簡述ChatGPT的訓練步驟。ChatGPT是在GPT-3.5模型基礎(chǔ)上進行微調(diào)而得來。在此基礎(chǔ)之上,ChatGPT采用了一種全新的訓練方式,那便是“從人類反饋中強化學習”。ChatGPT的訓練分為3個步驟。1)通過人工標注訓練一個微調(diào)模型首先準備一定數(shù)量的提示詞樣本,一部分由標注人員自行準備,另一部分來自O(shè)penAI現(xiàn)有的數(shù)據(jù)積累。然后,對這些樣本進行標注,也就是人工對這些提示詞輸出了對應(yīng)的答復,從而構(gòu)成了“提示詞—答復對”這樣的數(shù)據(jù)集。最后用這些數(shù)據(jù)集來微調(diào)GPT-3.5,得到一個微調(diào)模型。2)訓練一個獎勵模型同樣準備一個提示詞樣本集,讓第一步得到的模型來對其進行答復。對于每個提示詞,要求模型輸出多個答復。標注團隊需要做的工作,就是將每個提示詞的答復進行排序,這其中隱含了人類對模型輸出效果的預期,以此形成了新的標注數(shù)據(jù)集,最終用來訓練獎勵模型。通過這個獎勵模型,可以對模型的答復進行打分,也就為模型的答復提供了評價標準。3)通過強化學習算法來優(yōu)化答復策略。這里采用的是一種策略優(yōu)化模型,它會根據(jù)正在采取的行動和收到的獎勵不斷調(diào)整當前策略。具體來說,首先準備一個提示詞樣本集,對其中的提示詞進行答復,然后利用第2)步訓練好的獎勵模型去對該答復進行打分,根據(jù)打分結(jié)果調(diào)整答復策略。在此過程中,人工已經(jīng)不再參與,而是利用“AI訓練AI”的方式進行策略的更新。最終重復這個過程多次之后,就能得到一個答復質(zhì)量更好的策略。經(jīng)過逐步的訓練,ChatGPT逐漸成形,一經(jīng)問世,其出色的自然語言處理能力便贏得了全球的關(guān)注。4)簡述BERT模型的預訓練方法。BERT模型的預訓練過程分為兩個階段:無監(jiān)督預訓練和有監(jiān)督預訓練。無監(jiān)督預訓練階段:在大規(guī)模未標記的文本語料庫上進行預訓練,學習文本中的語言模型。BERT使用了掩碼語言建模和下一句預測這兩個任務(wù)來訓練模型。在掩碼語言建模任務(wù)中,BERT隨機掩蓋輸入文本中的一部分單詞,并通過模型預測被掩蓋的單詞。這樣的訓練方式使得模型能夠理解上下文信息,并學習到單詞之間的關(guān)聯(lián)關(guān)系。在下一句預測任務(wù)中,BERT能夠判斷兩個句子是否為連續(xù)的,通過這個任務(wù),模型可以學習到句子之間的關(guān)系,對于一些需要理解句子關(guān)聯(lián)性的任務(wù)具有幫助。有監(jiān)督預訓練階段:在特定任務(wù)上進行微調(diào),以便模型適應(yīng)具體的NLP任務(wù)。在這個階段,通過在有標記數(shù)據(jù)上進行訓練,調(diào)整模型的參數(shù),使其能夠更好地適應(yīng)具體任務(wù)的要求。微調(diào)過程采用了有監(jiān)督學習的方法,通常還會采用梯度下降等優(yōu)化算法進行參數(shù)更新。這兩個任務(wù)使得BERT能夠有效地學習和理解語言的上下文和結(jié)構(gòu),并且所有的訓練數(shù)據(jù)都是從無監(jiān)督文本中自動生成的,不用人工標注訓練數(shù)據(jù)。這種自監(jiān)督學習的方式使得BERT能夠廣泛應(yīng)用于各種自然語言處理任務(wù)中。5)簡述T5模型預訓練策略。T5模型考慮了三種預訓練策略1)編解碼器(encoder-decoder)。在該策略中,編碼器是雙向的,前后都可見,結(jié)果傳遞給解碼器,解碼器只可見前面的單向信息。BERT就是只用編碼器的典型模型。2)語言模型(languagemodel,LM)。該策略跟只用解碼器的GPT模型很類似,這種單向、自回歸的語言模型允許每個輸出僅依賴之前的輸出,從而能夠生成連續(xù)的文本。3)前綴語言模型(pref
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 幼兒園早教課程開發(fā)與評估報告
- 中小企業(yè)互聯(lián)網(wǎng)品牌建設(shè)方案
- 建筑幕墻施工組織設(shè)計案例分析
- 家庭護工聘用合同范文及解讀
- 小學課后反思:課堂教學效果分析
- 人教版四年級數(shù)學應(yīng)用題練習與解題技巧
- 大班額管理責任分權(quán)規(guī)范
- 醫(yī)療設(shè)備校準記錄表模板
- 幼兒園師德演講比賽主持詞范例
- 物業(yè)項目驗收標準與流程
- 2025年書記員面試題(附答案)
- 2025年1月國開(中央電大)法學本科《知識產(chǎn)權(quán)法》期末考試試題及答案
- 小學蘇教版科學二年級上冊(2024)知識點梳理及2025秋期末測試卷
- 2026年售后服務(wù)管理制度完善與企業(yè)售后工作規(guī)范化指南
- 2024-2025學年山東省煙臺市招遠市一年級(上)期末數(shù)學試卷
- 營銷分析年終總結(jié)
- 2025年高考化學習題分類練:化學反應(yīng)機理的探究
- “一帶一路”人工智能應(yīng)用場景案例集2025
- 國網(wǎng)公司兩票課件
- 2025-2026學年蘇教版(新教材)小學科學三年級上冊科學期末復習卷及答案
- 2025年全國高校輔導員素質(zhì)能力大賽基礎(chǔ)知識測試題(附答案)
評論
0/150
提交評論