版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
最優(yōu)化算法(下)02常見的最優(yōu)化算法隨機(jī)梯度下降算法隨機(jī)梯度下降利用單個(gè)樣本計(jì)算損失函數(shù),直接用反向傳播算法更新模型參數(shù)。
隨機(jī)梯度下降的優(yōu)點(diǎn):(1)在學(xué)習(xí)過程中加入了噪聲,提高了泛化誤差。(2)由于不是在全部訓(xùn)練數(shù)據(jù)上的損失函數(shù),而是在每輪迭代中,隨機(jī)優(yōu)化某一條訓(xùn)練數(shù)據(jù)上的損失函數(shù),這樣每一輪參數(shù)的更新速度大大加快。
隨機(jī)梯度下降的缺點(diǎn):(1)不能在一個(gè)樣本中使用矩陣計(jì)算,不能并行操作,學(xué)習(xí)過程變得很慢。(2)單個(gè)樣本并不能代表全體樣本的趨勢。在pytorch中,隨機(jī)梯度下降算法的類名稱為torch.optim.SGD。
02常見的最優(yōu)化算法小批量梯度下降算法(平均隨機(jī)梯度下降算法)小批量梯度下降,是對批量梯度下降以及隨機(jī)梯度下降的一個(gè)折中辦法。隨機(jī)梯度下降算法中模型參數(shù)的更新方向不穩(wěn)定和,我們常采用平均隨機(jī)梯度下降算法。其計(jì)算梯度不同的是,不是每得一個(gè)梯度就更新一次參數(shù),而是得到幾個(gè)梯度后,對其求平均,然后確定參數(shù)的更新值。批量梯度下降算法隨機(jī)梯度下降算法小批量梯度下降算法更新方向穩(wěn)定不穩(wěn)定相對穩(wěn)定梯度更新所需樣本全部樣本單個(gè)樣本小批量(自定義)能否并行可以不可以可以02牛頓梯度下降算法常見的最優(yōu)化算法圖片來源:https:///p/e426c3eca226?? ?? ?
?? ??0 +(??
?
??0)??′ ??0求
?? ?? =0根據(jù)泰勒公式的數(shù)值解將??
??
=0??′0代入得??(??0)?? ???0?
??因?yàn)橥购瘮?shù)的優(yōu)化問題,就是求導(dǎo)數(shù)為0的位置。我們將上述f(x)用f(x)的導(dǎo)數(shù)代替,就可以快速求出f(x)的導(dǎo)數(shù)為0的點(diǎn)。牛頓梯度下降算法要優(yōu)于最速梯度下降算法,但是它需要計(jì)算海森矩陣(Hessian
matrix)。02常見的最優(yōu)化算法動(dòng)量梯度下降算法引入動(dòng)量的梯度下降算法中,參數(shù)的更新量不僅與梯度有關(guān),還與原來的更新量有關(guān)。也就是在原來的更新表達(dá)式中加入了上一次更新與其權(quán)重的乘積項(xiàng)。從而促使參數(shù)更新更穩(wěn)定地向最優(yōu)點(diǎn)方向移動(dòng)。????+1=???????
??????(????)????+1=????
+
????+1式中v為參數(shù)的更新量,t為迭代的次數(shù),θ為模型參數(shù),f為目標(biāo)函數(shù),?為梯度,α和μ都為常量。02常見的最優(yōu)化算法Nesterov動(dòng)量梯度下降算法然而,引入動(dòng)量的梯度下降算法也存在缺陷,那就是在低曲率的地方,也就是梯度很小的地方,更新量主要表現(xiàn)為原來的更新量,不懂得轉(zhuǎn)彎。為克服上述問題,常采用1983年Nesterov提出的方法,常稱為Nesterov動(dòng)量。與經(jīng)典動(dòng)量方法不同的是,它先調(diào)整梯度的方向,再改變大小,從而避免了低曲率的地方,更新方向不容易更改的問題。????+1=?????????????(????+
??????)????+1=????
+
????+1式中v為參數(shù)的更新量,t為迭代的次數(shù),θ為模型參數(shù),f為目標(biāo)函數(shù),?為梯度,α和μ都為常量。02常見的最優(yōu)化算法ADAGRAD自適應(yīng)學(xué)習(xí)率算法學(xué)習(xí)率的設(shè)置是一個(gè)兩難選擇:其值過高可能導(dǎo)致在接近極值附近來回振蕩,而不收斂;過低又可能引起在接近極值時(shí),更新量趨近0,從而導(dǎo)致學(xué)習(xí)速度慢。基于上述想法,美國加州大學(xué)John
Duchi等2011年提出ADAGRAD。在pytorch中,該方法的類名稱為torch.optim.Adagrad。式中v為參數(shù)的更新量,t為迭代的次數(shù),θ為模型參數(shù),f為目標(biāo)函數(shù),?為梯度,α為學(xué)習(xí)率。02常見的最優(yōu)化算法ADADELTA自適應(yīng)學(xué)習(xí)率算法ADAGRAD方法隨著迭代次數(shù)增加,導(dǎo)致分母的累計(jì)值越來越大,經(jīng)過多次迭代后最終趨近于0而停止參數(shù)更新。為克服上述問題,為此,2012年,紐約大學(xué)的Matthew
D.
Zeiler提出了自適應(yīng)學(xué)習(xí)率方法ADADELTA。在pytorch中,該方法的類名稱為torch.optim.Adadelta式中分母為前W次梯度的平方的平均值的平方根,分子為前W次更新值的平方的平均值的平方根
。常見的最優(yōu)化算法02圖片來源:https://www.cnblogs.com/tornadomeet/p/3430312.html最優(yōu)化算法
–
DropConnectDropOut與DropConnect的區(qū)別:DropConnect與Dropout不同的地方是在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型過程中,它不是隨機(jī)的將隱層節(jié)點(diǎn)的輸出變成0,而是將節(jié)點(diǎn)中的每個(gè)與其相連的輸入權(quán)值變成0。(DropOut是針對輸出時(shí)變?yōu)?,而DropConnect是針對輸入時(shí)變化)常見的最優(yōu)化算法02停止標(biāo)準(zhǔn)有三種第二類停止標(biāo)準(zhǔn):當(dāng)泛化損失和進(jìn)程(如迭代次數(shù))的商大于指定的值時(shí)就停止。最優(yōu)化算法
–
早停法(Early
Stopping)在訓(xùn)練的過程中,如果迭代次數(shù)太少,算法容易欠擬合,而迭代次數(shù)太多,算法容易過擬合。早停法可以限制模型最小化代價(jià)函數(shù)所需的訓(xùn)練迭代次數(shù)。早停法通常用于防止訓(xùn)練中過度表達(dá)的模型泛化性能差。第一類停止標(biāo)準(zhǔn):當(dāng)泛化損失超過一定的閾值時(shí),停止訓(xùn)練。第三類停止標(biāo)準(zhǔn):完全依賴于泛化錯(cuò)誤的變化,即當(dāng)泛化錯(cuò)誤在連續(xù)S個(gè)周期內(nèi)增長的時(shí)候停止。常見的最優(yōu)化算法02最優(yōu)化算法
–
早停法Early
Stopping開始時(shí),將訓(xùn)練的數(shù)據(jù)分為訓(xùn)練集和驗(yàn)證集。每個(gè)批次結(jié)束后(或每N個(gè)批次
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 共建家庭圖書館:Lets make a home library!- 小學(xué)五年級(jí)英語(外研版三起)Module 4 Unit 1 教學(xué)設(shè)計(jì)
- Unit 11 情感探索與表達(dá):事物如何影響我們的感受?-人教版九年級(jí)英語單元整體教學(xué)設(shè)計(jì)
- 2025公路水運(yùn)試驗(yàn)檢測師橋梁隧道工程真題及參考答案
- 外研版初中英語八年級(jí)下冊 Module 7 單元整體教學(xué)設(shè)計(jì):語言能力、文化意識(shí)與思維品質(zhì)的協(xié)同發(fā)展
- 初中音樂七年級(jí)上冊《我的太陽》與《伏爾加船夫曲》對比鑒賞教學(xué)設(shè)計(jì)
- 針對醫(yī)院院感感染風(fēng)險(xiǎn)評估和對應(yīng)的感染風(fēng)險(xiǎn)控制措施方案
- 校企合作項(xiàng)目推進(jìn)工作報(bào)告
- 電力項(xiàng)目招標(biāo)技術(shù)文件編制實(shí)例
- 小升初語文古詩文專項(xiàng)訓(xùn)練
- 醫(yī)院2024年法律合規(guī)管理方案
- 華電集團(tuán)企業(yè)介紹
- 2025年安徽省從村(社區(qū))干部中錄用鄉(xiāng)鎮(zhèn)(街道)機(jī)關(guān)公務(wù)員考試測試題及答案
- 2025年AI時(shí)代的技能伙伴報(bào)告:智能體、機(jī)器人與我們(英文版)
- 中國舞蹈知識(shí)常見考點(diǎn)測試卷
- 人力資源管理社會(huì)實(shí)踐調(diào)研報(bào)告
- 2025年醫(yī)保網(wǎng)絡(luò)安全自檢自查報(bào)告
- 制造企業(yè)總經(jīng)理年終總結(jié)
- 供應(yīng)室去污區(qū)工作總結(jié)
- 超高層建筑深基坑施工風(fēng)險(xiǎn)動(dòng)態(tài)評估體系研究
- 牙槽外科常見病例討論
- 藥品研發(fā)異常管理辦法
評論
0/150
提交評論