版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
卷積神經(jīng)網(wǎng)絡(luò)概述CNN(英文全稱為ConvolutionalNeuralNetworks,卷積神經(jīng)網(wǎng)絡(luò))是以卷積操作為核心的,在結(jié)構(gòu)上往往擁有較大深度的前向網(wǎng)絡(luò),CNN實(shí)現(xiàn)中有2個(gè)重要的概念:第一個(gè)概念是局部感受野,第二個(gè)則是權(quán)值共享。1962年,Hubel和Wiesel[22]在研究動(dòng)物的大腦對(duì)于外界的視覺信息刺激的反應(yīng)時(shí),發(fā)現(xiàn)并不是所有的神經(jīng)元都會(huì)對(duì)刺激做出反應(yīng),即存在“局部反應(yīng)”這個(gè)概念。而人工卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)脫胎于自然的神經(jīng)元結(jié)構(gòu),因此在設(shè)計(jì)時(shí),引入了局部感受野,或者說(shuō)局部連接的特性。如圖2-1所示,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)采用全連接,即相鄰的兩層內(nèi)的所有神經(jīng)元兩兩相連,但是在卷積神經(jīng)網(wǎng)絡(luò)中不采用這種方式,而是將部分連接起來(lái)。相比之下,卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量遠(yuǎn)遠(yuǎn)小于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)。此時(shí),神經(jīng)元采集不同的部分的信息后再在更高的維度上進(jìn)行合并,由此來(lái)得到全部的圖像信息。局部感受野的基本原理是圖像區(qū)域相聚越遠(yuǎn),其關(guān)聯(lián)性便會(huì)隨之下降。圖2-1全連接(左)與部分連接(右)對(duì)比圖1998年,LeCunY[8]等人設(shè)計(jì)并發(fā)表的LeNet-5網(wǎng)絡(luò)結(jié)構(gòu)率先提出了權(quán)值共享這個(gè)概念。權(quán)值共享指的是每一個(gè)神經(jīng)元使用的參數(shù)相同。在卷積神經(jīng)網(wǎng)絡(luò)中,卷積核(或者過濾器)相當(dāng)于一個(gè)滑動(dòng)窗口,以特定步長(zhǎng)在輸入圖像上滑動(dòng)并與輸入圖像進(jìn)行卷積運(yùn)算,得到特征圖。這個(gè)卷積核的參數(shù)是由整張圖片所共享的,不會(huì)隨圖像位置改變而改變。權(quán)值共享可行的主要原理在于當(dāng)圖像的位置平移時(shí),其特征也會(huì)跟著移動(dòng)。權(quán)值共享的好處是參數(shù)量相比于局部連接后又進(jìn)一步減少了,但是會(huì)帶來(lái)只能提取一個(gè)特征的問題,解決辦法是采用多個(gè)不同參數(shù)的卷積核來(lái)操作,這樣,就可以用數(shù)量來(lái)彌補(bǔ)單一卷積核的不足。卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2-2所示一個(gè)完整的CNN網(wǎng)絡(luò)結(jié)構(gòu),從圖中可以看出CNN可以被分為多個(gè)層級(jí)結(jié)構(gòu),比如卷積層等,下面逐一介紹每個(gè)層的結(jié)構(gòu)和作用。圖2-2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖輸入層:即網(wǎng)絡(luò)的輸入。CNN的輸入一般是一個(gè)圖像的二維像素矩陣,下文稱之為輸入矩陣。對(duì)于RGB圖像,輸入矩陣由3個(gè)顏色通道的像素矩陣疊加而成,因此RGB圖像的輸入矩陣會(huì)是一個(gè)三維矩陣,相對(duì)于二維像素矩陣多了一個(gè)深度方向的維度。卷積層:完成卷積操作的層,是完成提取特征這一工作的地方。卷積操作的實(shí)現(xiàn)流程如圖2-3所示,卷積核在輸入矩陣上按一定間隔移動(dòng)的同時(shí)與輸入矩陣的對(duì)應(yīng)區(qū)域做矩陣的叉乘,得到輸出矩陣。圖2-3卷積流程示意圖圖2-3中,4×4的輸入矩陣進(jìn)行卷積操作后變成了2×2的輸出矩陣,即輸出規(guī)模小于輸入,這種卷積模式稱為validmode。通過邊界擴(kuò)充,還可以得到另外2種卷積模式:fullmode和samemode。邊界擴(kuò)充即是在輸入矩陣外補(bǔ)充元素(通常補(bǔ)“0”),當(dāng)不補(bǔ)充元素時(shí),是validmode,當(dāng)補(bǔ)充元素使得卷積核在剛與輸入矩陣有交集時(shí)就進(jìn)行運(yùn)算,稱為fullmode,當(dāng)補(bǔ)充元素使得卷積核能夠以半個(gè)寬度與輸入矩陣相交時(shí)進(jìn)行運(yùn)算,稱為samemode。顯然,validmode得到的輸出矩陣小于輸入矩陣,samemode得到的輸出矩陣與輸入矩陣規(guī)模一致而fullmode得到的輸出矩陣規(guī)模大于輸入矩陣。一般來(lái)說(shuō),validmode采用的最多。輸出規(guī)模的大小可以由公式(2-1)計(jì)算得出。 式中:N——輸出規(guī)模;W——輸入規(guī)模;P——填充量大小;F——卷積核規(guī)模;S——卷積核移動(dòng)間隔;激活層:?jiǎn)渭兊木矸e運(yùn)算只是線性操作,為了描述復(fù)雜的現(xiàn)實(shí)場(chǎng)景,需要引入非線性量,這就是激活層存在的原因。實(shí)際使用中,通過激活函數(shù)對(duì)輸入量進(jìn)行非線性映射,即可得到引入了非線性特征的輸出量。常用的激活函數(shù)有最開始大行其道的Sigmod函數(shù),后來(lái)出現(xiàn)的Tanh函數(shù)以及最常用的Relu函數(shù)及其基礎(chǔ)上改進(jìn)的LeakyRelu函數(shù)。Sigmoid函數(shù)的數(shù)學(xué)表達(dá)式如式(2-2)所示: Sigmoid函數(shù)的圖像如圖2-4所示,該函數(shù)將一個(gè)實(shí)數(shù)輸入值映射到一個(gè)0到1的輸出值,當(dāng)實(shí)數(shù)較大時(shí)輸出1,當(dāng)實(shí)數(shù)較小時(shí)則輸出0。通過這種映射規(guī)律,函數(shù)在神經(jīng)網(wǎng)絡(luò)中加入了非線性特征。Sigmoid函數(shù)曾經(jīng)風(fēng)靡一時(shí),但是它有2個(gè)缺點(diǎn):一是當(dāng)輸入的實(shí)數(shù)的絕對(duì)值較大時(shí),導(dǎo)數(shù)接近0,在反向傳播的過程中會(huì)導(dǎo)致傳播中斷;二是輸入值經(jīng)過函數(shù)的映射后,輸出值的均勻量不接近0,有可能會(huì)出現(xiàn)權(quán)值的“Z字型”更新,減緩模型收斂速度。圖2-4Sigmoid函數(shù)圖像Tanh函數(shù)的數(shù)學(xué)表達(dá)式如式(2-3)所示: Tanh函數(shù)的圖像如圖2-5所示,實(shí)數(shù)輸入會(huì)被函數(shù)映射到一個(gè)關(guān)于x軸對(duì)稱的值域內(nèi),這樣輸出值的均勻量為0,可以避免“Z字型”更新。但是,Tanh函數(shù)的一階導(dǎo)數(shù)依然在2頭是“平直”的,意味著Tanh函數(shù)也存在在極大或極小的輸入下,出現(xiàn)梯度為0,無(wú)法更新的情況。圖2-5Tanh函數(shù)圖像ReLu函數(shù)的數(shù)學(xué)表達(dá)式如式(2-4)所示: ReLu函數(shù)的圖像如圖2-6所示,ReLu函數(shù)是一個(gè)分段的線性函數(shù),對(duì)于負(fù)值輸入,輸出為0,對(duì)于正值輸出則輸出輸入值。這樣做,有2個(gè)優(yōu)點(diǎn):一是輸入為正時(shí),函數(shù)的導(dǎo)數(shù)不變,不會(huì)出現(xiàn)梯度消失的現(xiàn)象;二是ReLu函數(shù)相對(duì)于常規(guī)的曲線型函數(shù),求導(dǎo)方便。但是,ReLu函數(shù)的值域的均勻量不為0,會(huì)出現(xiàn)“Z字型”更新現(xiàn)象,同時(shí)在負(fù)值部分,因?yàn)閷?dǎo)數(shù)始終為0,會(huì)出現(xiàn)權(quán)值無(wú)法更新的問題。圖2-6ReLu函數(shù)圖像LeakyReLu函數(shù)的數(shù)學(xué)表達(dá)式如式(2-5)所示: LeakyReLU函數(shù)的函數(shù)圖像如圖2-7所示,該函數(shù)是ReLu函數(shù)的一個(gè)衍生,在負(fù)數(shù)定義域上,LeakyReLu函數(shù)將自變量與一個(gè)小的常數(shù)相乘得到因變量,這樣相對(duì)于ReLu函數(shù)就可以克服在負(fù)定義域上由于導(dǎo)數(shù)為0而出現(xiàn)權(quán)值無(wú)法更新的問題。但是,常數(shù)α的選擇沒有很好的推理手段,通常需要靠人為判斷。圖2-7LeakyReLu函數(shù)圖像池化層:池化層一個(gè)重要的作用就是下采樣,按照取值策略的不同,可以分為最大值池化和平均值池化。池化操作就是將原矩陣按塊縮放為更小的矩陣,最大值池化取值策略為取最值,而平均值池化則取平均,如圖2-8所示。(a)最大值池化(b)平均值池化圖2-8池化操作池化最主要的作用就是減小輸出規(guī)模,減小參數(shù)量,加快運(yùn)算速度的同時(shí)還可以一定程度上防止過擬合。此外池化操作還有兩個(gè)作用,一是增加了模型的魯棒性,對(duì)于不大的噪聲,采用池化操作,可以達(dá)到減噪的效果;二是增強(qiáng)了圖像平移不變性,降低了圖像變形對(duì)結(jié)果的影響。全連接層:全連接層用于整合前面各層傳遞而來(lái)的特征信息。輸出層:在網(wǎng)絡(luò)的最末,用于處理全連接層的結(jié)果,將最終結(jié)果轉(zhuǎn)化成更符合要求的形式。如圖2-9所示,是一個(gè)辨認(rèn)手寫數(shù)字的CNN輸出結(jié)果示例,其輸出被處理為了數(shù)字。圖2-9辨認(rèn)手寫數(shù)字的CNN輸出結(jié)果示例卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)過程卷積神經(jīng)網(wǎng)絡(luò)的本質(zhì)可以理解為一個(gè)“萬(wàn)能函數(shù)”,如Y=F(X),可以解釋為對(duì)于一個(gè)給定的入X,X可以是一個(gè)標(biāo)量,也可以是一個(gè)多維向量(比如數(shù)字圖像矩陣)神經(jīng)網(wǎng)絡(luò)輸出一個(gè)預(yù)測(cè)值Y,Y可以是一個(gè)類別,也可以是一個(gè)預(yù)測(cè)框和類別的復(fù)合。這個(gè)預(yù)測(cè)值理論上最完美的情況是等于真實(shí)值,但在實(shí)際中,只需要兩者越接近越好。因此,卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)過程可以理解為通過改變網(wǎng)絡(luò)的權(quán)重使得預(yù)測(cè)值向接近真實(shí)值的方向上前進(jìn),即一個(gè)優(yōu)化問題。而為了達(dá)到這個(gè)目的,需要一個(gè)用來(lái)度量預(yù)測(cè)值和真實(shí)值差距的標(biāo)準(zhǔn),這個(gè)標(biāo)準(zhǔn)就是損失函數(shù)。損失函數(shù)將一個(gè)變量或者多個(gè)變量映射到某個(gè)非負(fù)實(shí)數(shù)上,用該實(shí)數(shù)表征模型的真實(shí)值和預(yù)測(cè)值的差距,差距越小,模型效果越好。損失函數(shù)有很多,下面簡(jiǎn)明地舉例幾個(gè)常用的損失函數(shù)形式。均方差損失函數(shù)(MeanSquaredError,MSE)常用于線性回歸問題中,其計(jì)算方法是計(jì)算真實(shí)值與預(yù)測(cè)值的平方誤差的均值,如式(2-6)所示。 對(duì)數(shù)損失函數(shù)(LogLossFunction)的計(jì)算公式如式(2-7)所示,該函數(shù)常用于解決邏輯回歸問題: 式中:Y——已知分類的類別;X——樣本值。交叉熵?fù)p失函數(shù)(CrossEntropyLossFunction)往往應(yīng)用于分類,其輸出是概率的形式,計(jì)算式如式(2-8)所示: 式中:N——樣本總數(shù);C——類別總數(shù)。而卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)過程就是圍繞著損失函數(shù)展開的,其過程可以分為前向傳播,反向傳播和權(quán)值更新三個(gè)部分,目的是盡可能地減小損失函數(shù)。前向傳播(FeedForwardRun)就是網(wǎng)絡(luò)從頭開始,通過隨機(jī)或者按照一定的規(guī)律設(shè)置初始權(quán)重,然后給定輸入,計(jì)算每一層的輸出,并將輸出傳遞至下一層,直至最終輸出;反向傳播(BackPropagation,BP)可以理解為“誤差反向傳播,損失函數(shù)就是“誤差”,計(jì)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 我國(guó)上市公司收購(gòu)法律制度的完善:基于實(shí)踐與國(guó)際經(jīng)驗(yàn)的審視
- 我國(guó)上市公司并購(gòu)交易模式的多維度剖析與展望
- 印刷設(shè)備電氣裝調(diào)工發(fā)展趨勢(shì)評(píng)優(yōu)考核試卷含答案
- 燃?xì)庥脩舭惭b檢修工道德知識(shí)考核試卷含答案
- 寶劍工安全理論能力考核試卷含答案
- 制漿工崗前技術(shù)實(shí)務(wù)考核試卷含答案
- 飛機(jī)操縱系統(tǒng)安裝調(diào)試工安全知識(shí)宣貫測(cè)試考核試卷含答案
- 企業(yè)產(chǎn)品質(zhì)量控制制度
- 2026新疆兵投檢驗(yàn)檢測(cè)有限責(zé)任公司招聘15人備考題庫(kù)及一套完整答案詳解
- 大單元整合·深度復(fù)習(xí):新中國(guó)成就的立體透視與中考備考
- 勾股定理復(fù)習(xí)導(dǎo)學(xué)案
- GB/T 22900-2022科學(xué)技術(shù)研究項(xiàng)目評(píng)價(jià)通則
- SB/T 11094-2014中藥材倉(cāng)儲(chǔ)管理規(guī)范
- GB/T 6418-2008銅基釬料
- GB/T 3452.4-2020液壓氣動(dòng)用O形橡膠密封圈第4部分:抗擠壓環(huán)(擋環(huán))
- GB/T 16621-1996母樹林營(yíng)建技術(shù)
- GB/T 14518-1993膠粘劑的pH值測(cè)定
- GB/T 14072-1993林木種質(zhì)資源保存原則與方法
- GA/T 1310-2016法庭科學(xué)筆跡鑒定意見規(guī)范
- 垃圾分類科普指南課件(21張PPT)
- DB37-T 4328-2021 建筑消防設(shè)施維護(hù)保養(yǎng)技術(shù)規(guī)程
評(píng)論
0/150
提交評(píng)論