【《深度學(xué)習(xí)的基礎(chǔ)理論綜述》2700字】_第1頁(yè)
【《深度學(xué)習(xí)的基礎(chǔ)理論綜述》2700字】_第2頁(yè)
【《深度學(xué)習(xí)的基礎(chǔ)理論綜述》2700字】_第3頁(yè)
【《深度學(xué)習(xí)的基礎(chǔ)理論綜述》2700字】_第4頁(yè)
【《深度學(xué)習(xí)的基礎(chǔ)理論綜述》2700字】_第5頁(yè)
已閱讀5頁(yè),還剩5頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

深度學(xué)習(xí)的基礎(chǔ)理論綜述目錄TOC\o"1-3"\h\u16953深度學(xué)習(xí)的基礎(chǔ)理論綜述 112201.1深度學(xué)習(xí)的概念 114071.2卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)成 130765e1.3卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 61.1深度學(xué)習(xí)的概念提及有關(guān)于深度學(xué)習(xí)的理論,我們不難把它和通用近似定理聯(lián)系到一起。這意味著充斥遍布著神經(jīng)元的單層前饋網(wǎng)絡(luò)可以向任一函數(shù)無(wú)限擬合。這里所說(shuō)的函數(shù)是指實(shí)數(shù)范圍內(nèi)存在的所有連續(xù)函數(shù)。

換一種簡(jiǎn)單的說(shuō)法,當(dāng)神經(jīng)元的數(shù)量達(dá)到一定的值時(shí),單層前饋神經(jīng)網(wǎng)絡(luò)就有辦法逼近所有的復(fù)雜函數(shù),當(dāng)然,前提是這些函數(shù)必須是連續(xù)性的。二十世紀(jì)八十年代末,通用近似定理被智慧的人類提出后,研究就有了嶄新的理論基礎(chǔ),即神經(jīng)網(wǎng)絡(luò)有辦法處理現(xiàn)實(shí)中各類復(fù)雜的難題。

一位知名教授在他的研究中提出,有關(guān)于深度學(xué)習(xí)理論的探討可以分成以下三部分。第一部分:表征問(wèn)題的研究。在表達(dá)能力方面,為何深層網(wǎng)絡(luò)要強(qiáng)于淺層網(wǎng)絡(luò)。第二部分:最優(yōu)化問(wèn)題的研究。為何隨著梯度的降低,可以獲取更優(yōu)良的極小值解,優(yōu)良極小值解的特征是怎樣的。第三部分:泛化問(wèn)題的研究。為什么在過(guò)參數(shù)化的情況下仍舊可以得到較為優(yōu)良的泛化性,也不會(huì)發(fā)生過(guò)擬合現(xiàn)象。針對(duì)表征問(wèn)題,應(yīng)當(dāng)致力于了解深度神經(jīng)網(wǎng)絡(luò)的表達(dá)能力從何而來(lái)以及這其中的復(fù)合機(jī)制。不單單是局限于“可以擬合任意函數(shù)”諸如此類的定性描述。能夠?qū)μ卣鬟M(jìn)行提取表達(dá),僅僅是擁有了擬合的功能。如果想要深度學(xué)習(xí)模型達(dá)到最好的效果,還要找出優(yōu)良的極小值解。不同的神經(jīng)網(wǎng)絡(luò)如何進(jìn)行最優(yōu)化、高級(jí)復(fù)雜函數(shù)中的良好極值點(diǎn)應(yīng)該如何獲取、極值點(diǎn)的各種特性都須要完備的理論支撐。最后是泛化功能,深度模型的價(jià)值就體現(xiàn)在它泛化至未知樣本的能力。1.2卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)成卷積神經(jīng)網(wǎng)絡(luò)能夠優(yōu)良地處理解析輸入數(shù)據(jù),并得到相對(duì)準(zhǔn)確的測(cè)試結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)的最前端一般情況下是數(shù)據(jù)層,這樣就可以讀取數(shù)據(jù)的信息。在數(shù)據(jù)輸入之后,卷積層從中一一提取出特征表達(dá)。把這些獲取的特征表達(dá)轉(zhuǎn)移到后面的卷積特征圖中,并作為輸入數(shù)據(jù)進(jìn)入池化層。將特征的具體位置模糊化是池化層主要功能的一部分。最后再連接上全連接層來(lái)進(jìn)行分類處理。如圖所示:圖1.1CNN模型(1)卷積層從名字中不難看出,卷積層是卷積神經(jīng)網(wǎng)絡(luò)中最為核心的部分。與傳統(tǒng)的全連接層不同的是,卷積層里各個(gè)節(jié)點(diǎn)的輸入都僅僅是上一級(jí)神經(jīng)網(wǎng)絡(luò)中的一小部分,這個(gè)部分的大小可能是3*3也可能是5*5。卷積層意在把神經(jīng)網(wǎng)絡(luò)中的各個(gè)小部分進(jìn)行更為深入的解析,進(jìn)一步獲取更為抽象化的特征。通常情況下,經(jīng)過(guò)卷積層解析后,節(jié)點(diǎn)矩陣深度變大,如圖所示:圖1.2卷積層示意圖特征圖像一般會(huì)作為下一級(jí)的輸入進(jìn)行處理。第一個(gè)卷積層的輸入即為原始圖像。卷積核是一個(gè)滑動(dòng)的窗口,它具有參數(shù)。想要獲取輸出的特征圖,只需作卷積操作即可。在實(shí)際運(yùn)用中,一般用多層卷積,初始化多個(gè)卷積核。如圖所示:圖1.3級(jí)聯(lián)卷積示意圖(2)池化層池化層并不能夠使圖像矩陣的深度增大或減小,但能夠使矩陣的大小發(fā)生變化。將特征的具體位置模糊化是池化層主要功能的一部分,所以池化操作其實(shí)就是把能夠高度分辨的圖像模糊化直至分辨率降低到一定的值。池化層處理之后,能夠再次減少后面全連接層里參數(shù)的數(shù)目,最終使整個(gè)神經(jīng)網(wǎng)絡(luò)里的參數(shù)數(shù)量降低。如圖所示:

圖1.4池化層示意圖(3)全連接層如圖所示,圖片在卷積層和池化層的層層解析處理下,再通過(guò)連在神經(jīng)網(wǎng)絡(luò)最后面的一至兩個(gè)全連接層來(lái)進(jìn)行分類。圖1.5神經(jīng)網(wǎng)絡(luò)示意圖經(jīng)過(guò)一層又一層的反復(fù)處理,圖像里的特征表達(dá)越發(fā)的抽象化,也因此包含了更加多的信息量。卷積層與池化層的操作是進(jìn)行特征提取表達(dá)的流程。這一操作流程結(jié)束以后,依舊要在后面接上全連接層來(lái)進(jìn)行最終分類。如圖所示:圖1.6全連接層示意圖(4)激活函數(shù)為了提高神經(jīng)網(wǎng)絡(luò)模型的非線性特性,引入了激活函數(shù)。往神經(jīng)網(wǎng)絡(luò)模型中導(dǎo)入非線性因素可以解決很多現(xiàn)實(shí)生活中存在的非線性問(wèn)題。以下列舉出三個(gè)常見(jiàn)激活函數(shù)。1)sigmoid函數(shù)sigmoid函數(shù)的公式:S(1.1)圖1.7sigmoid函數(shù)圖像如圖所示,函數(shù)的映射區(qū)間為0到1,簡(jiǎn)單且連續(xù)單調(diào),非常適合用作輸出,缺點(diǎn)是容易產(chǎn)生梯度消失。2)tanh函數(shù)tanh函數(shù)的公式:tan(1.2)圖1.8tanh函數(shù)圖像如圖所示,函數(shù)的映射區(qū)間為-1到1,收斂的速度比sigmoid函數(shù)更快,缺點(diǎn)也是容易產(chǎn)生梯度消失。3)relu函數(shù)relu函數(shù)的公式為:f(1.3)Softplus函數(shù)的公式為:f(1.4)圖1.9relu函數(shù)圖像e1.3卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn)圖1.10隱藏層示意圖卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是人造網(wǎng)絡(luò),它是模擬生物的大腦皮層構(gòu)造而成的,這種特別的設(shè)計(jì)含有多隱層。卷積層、池化層、激活函數(shù)是該網(wǎng)絡(luò)的重要組成成分。卷積神經(jīng)網(wǎng)絡(luò)采取部分感受野,權(quán)重共享,減少采樣這三種方式,將復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型簡(jiǎn)單化,與此同時(shí),當(dāng)目標(biāo)發(fā)生平移、旋轉(zhuǎn)、尺度縮放等大變化時(shí),并不影響模型效果。所以卷積神經(jīng)網(wǎng)絡(luò)被大量運(yùn)用于圖像分類、目標(biāo)識(shí)別等方面。卷積神經(jīng)網(wǎng)絡(luò)的輸入即為初始圖片,能夠在龐大的樣本數(shù)據(jù)中學(xué)習(xí)到有用的特征,同時(shí)也規(guī)避了繁冗的特征提取流程。卷積神經(jīng)網(wǎng)絡(luò)能夠簡(jiǎn)單方便地處理圖像,所以被廣泛開(kāi)發(fā)應(yīng)用于圖像處理解析領(lǐng)域,也獲得了不少的研究成果。在卷積神經(jīng)網(wǎng)絡(luò)中導(dǎo)入非線性因素,對(duì)于在初始圖像里提取出的特征進(jìn)一步抽象化,整個(gè)流程中僅僅包含極少量的人為干預(yù)。如圖所示:

圖1.11卷積神經(jīng)網(wǎng)絡(luò)示意圖(1)局部感知在卷積神經(jīng)網(wǎng)絡(luò)中,并不是所有的神經(jīng)元都要感知圖片里的所有像素,神經(jīng)元僅僅需要感知圖像的一部分像素,接著在進(jìn)入下一步驟時(shí)把這些小部分的信息統(tǒng)一整合起來(lái),進(jìn)一步獲取圖像的所有特征表達(dá)。不同層的神經(jīng)元通過(guò)局部的辦法進(jìn)行連接,也就是說(shuō)每一級(jí)的神經(jīng)元僅僅和上一級(jí)中少數(shù)神經(jīng)元連接。單個(gè)神經(jīng)元僅僅對(duì)感受野范圍內(nèi)的部分進(jìn)行響應(yīng),超出感受野范圍內(nèi)的部分則不會(huì)響應(yīng)。這樣的部分連接模式,可以讓模型在每一個(gè)特應(yīng)部位都具備最強(qiáng)的響應(yīng)。圖1.12局部感知對(duì)比圖(2)參數(shù)共享權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量。這種網(wǎng)絡(luò)結(jié)構(gòu)下,當(dāng)目標(biāo)發(fā)生平移、旋轉(zhuǎn)、尺度縮放等大變化時(shí),并不影響模型效果。并且卷積神經(jīng)網(wǎng)絡(luò)把初始圖像當(dāng)成輸入,能夠在龐大的樣本數(shù)據(jù)中學(xué)習(xí)到有用的特征,同時(shí)也規(guī)避了繁冗的特征提取流程。圖1.13權(quán)值共享圖和傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)體現(xiàn)在,它里面有一個(gè)特征抽取器,這個(gè)機(jī)制由卷積層與池化樣層組建而成。在卷積層中,單個(gè)神經(jīng)元僅僅和上一級(jí)中少數(shù)神經(jīng)元相連。共享權(quán)值不僅能夠有效減少層級(jí)之間的互連,也防止了過(guò)擬合現(xiàn)象的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論