版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
Chapter3卷積神經網絡理論及實踐第三章DeepLearningAndAutonomousDriving深度學習與自動駕駛應用DeepLearningAndAutonomousDriving深度學習與自動駕駛應用3.4實踐斑馬線檢測3.1深層全連接神經網絡的問題3.3卷積神經網絡應用示例3.2卷積神經網絡詳解目錄Content第2頁全連接神經網絡模型回顧問題導入建立模型損失函數(shù)參數(shù)學習第3頁問題導入全連接神經網絡(DNN)模型存在哪些不足?思考第4頁建立模型損失函數(shù)參數(shù)學習Step1Step2Step3問題導入模型不足模型架構不夠靈活模型參數(shù)過多第5頁……………………………………y1y2ymx1x2xn…………問題導入16x16=256256個神經元1000個神經元1000個神經元10個神經元假設對16x16的圖片進行分類手寫字體識別任務,設計了如上所示的網絡。那對100*100的圖片做相同的任務,只有通過增加每層的神經元個數(shù)或者增加網絡的層數(shù)來完成。模型結構不夠靈活網絡結構不夠靈活第6頁……………………………………y1y2ymx1x2xn…………問題導入16x16=256256X103權重參數(shù)106權重參數(shù)104權重參數(shù)256個神經元例如:輸入為16x16的圖片,輸入層為256個神經元,隱藏層每層1000個神經元,輸出層10個神經元。假設共5層,則共需要學習(256*103+106+106+104)個w再加(1000+1000+1000+10)個b。模型參數(shù)太多1000個神經元1000個神經元10個神經元第7頁……………………………………y1y2ymx1x2xn…………16x16=256256X103權重參數(shù)106權重參數(shù)104權重參數(shù)如果輸入為100*100的圖片或者更大的圖片呢?如果網絡的層數(shù)為十層呢?參數(shù)爆炸?。。?000個神經元1000個神經元10個神經元256個神經元問題導入例如:輸入為16x16的圖片,輸入層為256個神經元,隱藏層每層1000個神經元,輸出層10個神經元。假設共5層,則共需要學習(256*103+106+106+104)個w再加(1000+1000+1000+10)個b。模型參數(shù)太多第8頁問題導入如何改進?思考第9頁圖像模式的特性一
應用一次該方法只能提取一個特征所以對應同一張圖片輸入,應該應用多次該方法圖像模式的特征第一個發(fā)現(xiàn):鳶尾花僅出現(xiàn)在圖像局部區(qū)域并不是所有具有相似形態(tài)特征的鳶尾花都位于圖像的同一個位置如何應用這個發(fā)現(xiàn)?可能的做法:定義一種提取局部的特征的方法,可有效響應特定局部模式用這種方法遍歷整張圖片第10頁第二個發(fā)現(xiàn):大小改變,鳶尾花仍然可以有效區(qū)分如何利用這個特性?可能的做法:在神經網絡逐層累加的過程中,可以直接對圖像進行縮放;縮放到適當大小后,可以在特征提取過程中得到有效響應。圖像模式的特性二圖像模式的特征第11頁建立模型損失函數(shù)參數(shù)學習模型改進如何改進?Step1全連接神經網絡卷積神經網絡第12頁目錄深層全連接神經網絡的問題卷積神經網絡詳解卷積神經網絡應用示例實踐:斑馬線檢測第13頁第一個發(fā)現(xiàn)對應的可能的做法:定義一種提取局部的特征的方法,可有效響應特定局部模式;用這種方法遍歷整張圖片。第二個發(fā)現(xiàn)對應的可能的做法:在神經網絡逐層累加的過程中,可以直接對圖像進行縮放。池化:下采樣被檢測物體不變模式卷積:平移不變模式圖像模式的特性——小結卷積和池化那是不是卷積和池化操作就夠了?我們是不是還需要更深的模型?第14頁卷積層+激活函數(shù)+池化層+全連接層
CNN基礎結構CNN應用圖像模式的一般框架(以分類為例)在最后出現(xiàn)一次或多次,用于做分類出現(xiàn)多次,用于提取特征第15頁建立模型卷積神經網絡(CNN)卷積層Pooling層損失函數(shù)參數(shù)學習使用步驟第16頁建立模型卷積神經網絡結構上的三大特性局部連接權重共享下采樣減少網絡參數(shù),加快訓練速度第17頁建立模型局部連接全連接神經元卷積神經網絡的神經元在進行圖像識別的時候,不需要對整個圖像進行處理,只需要關注圖像中某些特殊的區(qū)域640x480640x480
輸入為640x480個像素
輸入為16x16個像素16x16第18頁640x480建立模型權重共享…………
卷積神經網絡的神經元
只依靠局部連接就足以減少參數(shù)?每個神經元起作用的只是局部區(qū)域,為了使各部分都起作用,就需要增加神經元的個數(shù)第19頁建立模型下采樣下采樣對圖像像素進行下采樣,并不會對物體進行改變。雖然下采樣之后的圖像尺寸變小了,但是并不影響我們對圖像中物體的識別。640x480320x240第20頁全連接神經網絡卷積神經網絡相同顏色的箭頭代表相同的權重參數(shù)卷積核大?。?X1建立模型對比示例兩層卷積第21頁建立模型卷積神經網絡(CNN)卷積層Pooling層使用步驟損失函數(shù)參數(shù)學習第22頁101010101010101010101010101010101010000000000000000000*=121000-1-2-10建立模型卷積核inputimage(輸入圖像)kernel(卷積核)featuremap(特征映射層)
注:*為卷積操作第23頁101010101010101010101010101010101010000000000000000000*=121000-1-2-100建立模型卷積核
inputimagekernelfeaturemap注:*為卷積操作第24頁101010101010101010101010101010101010000000000000000000*=121000-1-2-1000建立模型卷積核
inputimagekernelfeaturemap注:*為卷積操作第25頁101010101010101010101010101010101010000000000000000000*=121000-1-2-10000建立模型卷積核
inputimagekernelfeaturemap注:*為卷積操作第26頁101010101010101010101010101010101010000000000000000000*=121000-1-2-1000040建立模型卷積核
注:*為卷積操作inputimagekernelfeaturemap第27頁建立模型卷積核*=121000-1-2-1404040404040000101010101010101010101010101010101010000000000000000000
00004040inputimagekernelfeaturemap注:*為卷積操作第28頁101010101010101010101010101010101010000000000000000000*=121000-1-2-1000040404040404040400000建立模型卷積核
注:*為卷積操作inputimagekernelfeaturemap第29頁101010101010101010101010101010101010000000000000000000*=121000-1-2-1000040404040404040400000建立模型卷積核注:*為卷積操作inputimagekernelfeaturemap
卷積核在網絡連接里面相當于是神經元,里面的9個值是權重參數(shù)值,卷積核中的參數(shù)需要在訓練的過程學習第30頁建立模型卷積層*=ABCDkernelfeature
mapinputimage456789123123456789
權重共享局部連接注:*為卷積操作第31頁123456789建立模型卷積層*=456789123
kernelfeature
mapinputimage權重共享局部連接注:*為卷積操作第32頁123456789建立模型卷積層*=456789123
kernelfeature
mapinputimage權重共享局部連接注:*為卷積操作第33頁建立模型卷積層123456789*=456789123權重共享
kernelfeature
mapinputimage局部連接注:*為卷積操作第34頁featuremapinputimage建立模型卷積層123456789*=456789123全連接output
kernelfeature
mapinputimage權重共享局部連接注:*為卷積操作第35頁建立模型卷積層123456789*=456789123一次卷積,只需學習kernel
size大小的參數(shù)個數(shù),如上所示的例子,從input
image到feature
map只需要學習4個參數(shù)。全連接
kernelfeature
mapinputimagefeaturemapinputimageoutput卷積大大減少了模型所需學習的參數(shù)量?。?!權重共享局部連接注:*為卷積操作,未考慮bias.第36頁建立模型卷積層123456789*=456789123全連接單個卷積核相當于只能提取單一特征,如何利用卷積核提取更復雜的特征?注:*為卷積操作
kernelfeature
mapinputimagefeaturemapinputimageoutput權重共享局部連接第37頁
建立模型卷積層123456789*=456789123一個卷積核可以提取圖像的一種特征==多個卷積核提取多種特征。同一kernel權重共享注:*為卷積操作
3
kernels
3
feature
mapsinputimage
3
featuremapsinputimage全連接
output局部連接第38頁
建立模型卷積層123456789*=456789123==同一kernel權重共享全連接
對于如上size為3*3的image,如需提取3個特征,卷積層需要3個卷積核,假設卷積核大小為4,則共需4*3=12個參數(shù)。
3
feature
mapsinputimage
3
featuremapsinputimageoutput局部連接
3
kernels如何對feature
maps繼續(xù)進行卷積操作?第39頁建立模型多通道卷積*=注:*為卷積操作
kernel
feature
map
feature
maps假設上一個卷積層已得到3個3x3的feature
maps,可表示為具有三個通道的feature
map,大小為3x3x33個2x2的卷積核,可表示為具有三個通道卷積核立方體,大小為3x2x2生成一個2x2大小的feature
map卷積核通常表示為一個立方體
第40頁建立模型多通道卷積*=注:*為卷積操作
kernel
feature
map
feature
maps卷積核通常表示為一個立方體卷積核通常表示為一個立方體輸出為對應通道在滑動窗口內的卷積的和3個3X3的feature
maps
3個2x2的卷積核生成一個2X2大小的feature
map
第41頁建立模型多通道卷積*=注:*為卷積操作
kernel
feature
map
feature
maps卷積核通常表示為一個立方體輸出為對應通道在滑動窗口內的卷積的和3個3X3的feature
maps3個2x2的卷積核生成一個2X2大小的feature
map
第42頁建立模型多通道卷積*=注:*為卷積操作
kernel
feature
map
feature
maps卷積核通常表示為一個立方體輸出為對應通道在滑動窗口內的卷積的和3個3X3的feature
maps3個2x2的卷積核生成一個2X2大小的feature
map
第43頁建立模型多通道卷積*=注:*為卷積操作
kernel
feature
map
feature
maps卷積核通常表示為一個立方體輸出為對應通道在滑動窗口內的卷積的和3個3X3的feature
maps
3個2x2的卷積核生成一個2X2大小的feature
map
第44頁建立模型多通道多核卷積*=注:*為卷積操作
n
kernels
n
feature
maps
feature
mapsn個卷積核立方體生成n個feature
maps==……n個2X2的feature
maps…3個3X3的feature
maps第45頁建立模型卷積神經網絡(CNN)卷積層Pooling層使用步驟損失函數(shù)參數(shù)學習第46頁10101081091010101010101010101071000010000001000000000*=121000-1-2-10-2-1540302030403017240102010Poolinginputimagekernelfeaturemap通過下采樣縮減feature
map尺度。常用max
pooling和average
pooling.Max
pooling下采樣后的featuremap下采樣注:*為卷積操作640x480320x240建立模型池化層又叫下采樣層,目的是壓縮數(shù)據(jù),降低數(shù)據(jù)維度第47頁10101081091010101010101010101071000010000001000000000*=121000-1-2-10-2-1540302030403017240102010Poolinginputimagekernelfeaturemap通過下采樣縮減feature
map尺度。常用max
pooling和average
pooling.Max
pooling40下采樣后的featuremap下采樣注:*為卷積操作640x480320x240建立模型第48頁10101081091010101010101010101071000010000001000000000*=121000-1-2-10-2-1540302030403017240102010Pooling通過下采樣縮減feature
map尺度。常用max
pooling和average
pooling.Max
pooling4030下采樣注:*為卷積操作inputimagekernelfeaturemap下采樣后的featuremap640x480320x240建立模型第49頁10101081091010101010101010101071000010000001000000000*=121000-1-2-10-2-1540302030403017240102010Pooling通過下采樣縮減feature
map尺度。常用max
pooling和average
pooling.Max
pooling403040下采樣注:*為卷積操作inputimagekernelfeaturemap下采樣后的featuremap640x480320x240建立模型第50頁10101081091010101010101010101071000010000001000000000*=121000-1-2-10-2-1540302030403017240102010Pooling通過下采樣縮減feature
map尺度。常用max
pooling和average
pooling.Max
pooling40304024下采樣增大感受野:經過pooling后,一個數(shù)字的感受野增大了,前一層每一個數(shù)字感受的信息范圍比較窄,下一層放大數(shù)字的感受范圍,每一層的語義信息的力度都不一樣。注:*為卷積操作inputimagekernelfeaturemap下采樣后的featuremap640x480320x240建立模型第51頁1.卷積層+激活函數(shù)+池化層的組合多次出現(xiàn)提取特征2.多個全連接層或特殊的CNN結構做為輸出層
做分類器/檢測器/分割器CNN網絡搭建小結卷積神經網絡的一般結構第52頁建立模型卷積神經網絡(CNN)卷積層Pooling層使用步驟損失函數(shù)參數(shù)學習第53頁建立模型卷積神經網絡(CNN)卷積層Pooling層使用步驟損失函數(shù)參數(shù)學習第54頁損失函數(shù)分類損失回歸損失損失函數(shù)的設計依賴于具體的任務常用:交叉熵損失函數(shù)常用:平方損失函數(shù)第55頁損失函數(shù)多分類損失CarscoreTrunkscoreMotorscoref(w?x+b)1.隨機賦值w,b的情形下,模型的初始計算結果必然和對應的標簽不一致;2.如何定義損失函數(shù),衡量網絡計算結果與標簽值的差異?+B:一般初始賦值為0,待優(yōu)化label第56頁損失函數(shù)多分類損失交叉熵損失函數(shù)&SoftMax概率歸一化normalize交叉熵用來衡量兩個分布間的差異性:根據(jù)網絡輸出結果和標簽(p(x)代表標簽的真實概率分布,q(x)代表模型概率分布如何根據(jù)損失函數(shù)對網絡的權重參數(shù)w和b進行更新?label1.7960.1990.452q(x)log(q(x))p(x)交叉熵explog第57頁建立模型卷積神經網絡(CNN)卷積層Pooling層使用步驟損失函數(shù)參數(shù)學習第58頁梯度下降法選擇一個初始值w,Random,RBMpre-train
η
是“學習率”迭代參數(shù)學習
第59頁梯度下降法
η
是“學習率”參數(shù)學習每一步都沿著損失下降就快的方向進行;一步一步走下去,直到所在的位置非常接近最低點;學習率(超參數(shù)):每次更新的步幅大小。第60頁梯度下降法使用樣本方式的變種參數(shù)學習第61頁梯度下降方式的優(yōu)化參數(shù)學習
第62頁反向傳播算法參數(shù)學習第63頁目錄卷積神經網絡詳解卷積神經網絡應用示例深層全連接神經網絡的問題實踐:斑馬線檢測第64頁經典模型(LeNet-5)應用示例LeNet-5由LeCun等人提出于1998年提出,主要用于手寫數(shù)字識別和英文字母識別的經典卷積神經網絡,LeNet雖小,各模塊齊全,是學習CNN的基礎。在MNIST上的準確率達到約99%。參考:/exdb/lenet/第65頁MNIST數(shù)據(jù)集:計算機視覺領域的一個經典案例,0~9的手寫數(shù)字識別數(shù)據(jù)集,輸入的原始圖像是28x28x1的灰度圖像,要從中識別出圖片是0~9這10個數(shù)字中哪一個。MNIST一般會被當著深度學習中的基本練習,類似于學習編程時的“HelloWorld”。MNIST數(shù)據(jù)集應用示例第66頁經典模型(LeNet-5)應用示例用字母C代表卷積層(Convolutional
layer),用字母S代表下采樣層(Sub-samplinglayer),整個網絡中共有C1、S2、C3、S4、C5共5個卷積加池化層構成了特征提取的主干部分,因此把該網聯(lián)稱為LeNet-5。第67頁C1層(卷積層):6個卷積核,卷積核大小為5×5,步長為1,featuremap的大小為
32-5+1=28,得到6個大小為32-5+1=28的特征圖,也就是神經元的個數(shù)為6×28×28=4704;6個卷積核,卷積核大小為5×5,共有6×25+6=156個參數(shù)(加了6個偏置)。應用示例經典模型(LeNet-5)第68頁S2層(pooling層):池化核大小選擇2?2,每個下采樣節(jié)點的4個輸入節(jié)點求和后乘上一個權重參數(shù),再加上一個偏置參數(shù)作為激活函數(shù)的輸入,激活函數(shù)的輸出即是節(jié)點的值,得到6個14×14大小的feature
map;每個feature
map的權值和偏置值都是一樣的,則共有6×2=12個參數(shù)。經典模型(LeNet-5)應用示例第69頁C3層(卷積層):C3層有16個10x10的特征圖,
共有60個卷積核,C3跟S2并不是全連接的,具體連接方式如右上表所示,每個卷積核大小為5×5;則共有60×25+16=1516個參數(shù)(加16個偏置)。經典模型(LeNet-5)應用示例第70頁C3層(卷積層):
C3與S2中前3個圖相連的卷積結構。經典模型(LeNet-5)應用示例第71頁S4層(下采樣層):對C3的16張10×10特征圖進行最大池化,池化核大小為2×2,得到16張大小為5×5的特征圖,神經元個數(shù)已經減少為:16×5×5=400;每個下采樣節(jié)點的4個輸入節(jié)點求和后乘上一個權重參數(shù)加上一個偏置參數(shù)作為sigmoid激活函數(shù)的輸入,激活函數(shù)的輸出即是節(jié)點的值,每個特征圖的權值和偏置值都是一樣的,則共有16×2=32個參數(shù)。經典模型(LeNet-5)應用示例第72頁C5層(卷積層):用5×5的卷積核進行卷積,然后我們希望得到120個特征圖,特征圖大小為5-5+1=1,神經元個數(shù)為120(這里實際上用卷積實現(xiàn)了全連接);由S4中的16個5×5大小的特征圖變?yōu)?20個1×1的特征圖,S4和C5的所有特征圖之間全部相連,有120×16=1920個卷積核,每個卷積核大小為5×5;則共有1920×25+120=48120個參數(shù)。經典模型(LeNet-5)應用示例第73頁F6層(全連接層):有84個節(jié)點,該層的訓練參數(shù)和連接數(shù)都(120+1)×84=10164。Output層(輸出層):共有10個節(jié)點,分別代表數(shù)字0到9,該層的訓練參數(shù)和連接數(shù)都(84+1)×10=850。采用的是徑向基函數(shù)(RBF)的網絡連接方式(現(xiàn)在已經變?yōu)閟oftmax)。經典模型(LeNet-5)應用示例第74頁一般池化操作是沒有參數(shù)的,LeNet-5中在池化層整體增加了權重參數(shù)和偏置;卷積層的參數(shù)相對較少,大量的參數(shù)都存在于全連接層;隨著神經網絡的加深,激活值尺寸會逐漸變小,但是,如果激活值尺寸下降太快,會影響神經網絡的性能。經典模型(LeNet-5)應用示例ActivationShapeActivationUnitSizeParameters輸入層(32,32,1)1024C1層(28,28,6)4704(5x5x1+1)x6=156S2層(14,14,6)11762x6=12C3層(10,10,16)1600
60×25+16=1516S4層(5,5,16)4002x16=32C5層(120,1)120(400+1)x120=48120F6層(84,1)84(120+1)x84=10164輸出層(10,1)10(84+1)x10=850第75頁在卷積神經網絡中,卷積核大小、卷積核個數(shù)(特征圖需要多少個)、池化核大小(采樣率多少)這些參數(shù)都是變化的,這就是所謂的CNN調參,需要學會根據(jù)需要進行不同的選擇。經典模型(LeNet-5)應用示例ActivationShapeActivationUnitSizeParameters輸入層(32,32,1)1024C1層(28,28,6)4704(5x5x1+1)x6=156S2層(14,14,6)11762x6=12C3層(10,10,16)160016×(6×(5×5)+1)=2416S4層(5,5,16)4002x16=32C5層(120,1)120(400+1)x120=48120F6層(84,1)84(120+1)x84=10164輸出層(10,1)10(84+1)x10=850第76頁LeNet-5網絡要求的輸入圖像的尺寸是32x32x1,需要對原始尺寸為28x28x1的MNIST數(shù)據(jù)集中的圖像進行一些預處理,比如在原始圖像周邊填充上足量的0,或者對原始圖像使用插值法來調整尺寸。LeNet-5用于MNIST數(shù)據(jù)集應用示例第77頁經典模型(AlexNet)應用示例1、AlexNet由多倫多大學的AlexKrizhevsky等人與2012年在ImageNet圖像分類競賽中提出的用于圖像識別的卷積神經網絡,并取得了當年的ImageNet大規(guī)模視覺識別競賽冠軍。2、AlexNet是用于ImageNet圖像分類競賽的,而ImageNet是由李飛飛團隊創(chuàng)建的一個用于圖像識別的大型圖像數(shù)據(jù)庫,包含了超過1400萬張帶標簽的圖像。3、相較于LeNet用于處理的手寫數(shù)字識別問題,ImageNet圖像分類很明顯數(shù)據(jù)量更加龐大,任務難度提升巨大,因此要求神經網絡的性能也就更加強大。第78頁經典模型(AlexNet)應用示例AlexNet的網絡結構,包括1個輸入層、5個卷積層、2個全連接層以及1個輸出層。此外,AlexNet的網絡訓練也與之前的神經網絡有所不同,由于參數(shù)量相較之前極為龐大,為了提升訓練速度,作者使用2塊GPU并行訓練網絡模型。第79頁經典模型(AlexNet)應用示例相較于LeNet,AlexNet結構明顯變得更加復雜,需要計算的參數(shù)量也更加龐大。共有大約65萬個神經元以及6千萬個參數(shù)。第80頁經典模型(AlexNet)應用示例AlexNet相較于之前的其他網絡的創(chuàng)新之處在于:1)使用了兩種數(shù)據(jù)增強方法,分別是鏡像加隨機剪裁和改變訓練樣本RGB通道的強度值,通過使用數(shù)據(jù)增強方法能夠從數(shù)據(jù)集方面增加多樣性,從而增強網絡的泛化能力;2)激活函數(shù)使用ReLU,相較于tanh等飽和的非線性函數(shù),ReLU在梯度下降計算的時候會比它們速度更快。而且ReLU函數(shù)會使部分神經元的輸出為0,可以提高網絡的稀疏性,并且減少參數(shù)之間的相關性,也可以一定程度上減少網絡的過擬合;3)使用局部響應歸一化對局部神經元創(chuàng)建競爭機制,使得響應較大的值更大,響應較小的神經元受到抑制,增強模型泛化能力;4)引入dropout,對于一層的神經元,按照定義的概率將部分神經元輸出置零,即該神經元不參與前向及后向傳播,同時也保證輸入層與輸出層的神經元個數(shù)不變。從另一種角度看,dropout由于是隨機置零部分神經元,因此也可以看成是不同模型之間的組合,可以有效的防止模型過擬合。第81頁經典模型(AlexNet)應用示例模型代碼示例:/projectdetail/5422835第82頁經典模型(VGGNet)應用示例VGG是2014年ILSVRC分類任務比賽的亞軍,由Simonyan等人在AlexNet的基礎上針對卷積神經網絡的深度進行改進提出的卷積神經網絡。VGG的結構與AlexNet的結構及其相似,區(qū)別在于其網絡深度更深,并且基本采用3×3的卷積核,因此從形式上看更加簡單。第83頁經典模型(VGGNet)應用示例原作者通過對比不同深度的網絡在圖像分類中的性能證明了卷積神經網絡的深度提升有利于提高圖像分類的準確率,但是深度加深并非是沒有限制的,當神經網絡的深度加深到一定程度后繼續(xù)加深網絡會導致網絡性能的退化,因此,經過對比,VGG網絡的深度最終被確定在了16~19層之間。第84頁經典模型(VGGNet)應用示例第85頁InputImageAA-LRNBCDE11layers11layers13layers16layers16layers19layersInput(224×224×3RGBimage)Conv3-64Conv3-64LRNConv3-64Conv3-64Conv3-64Conv3-64Conv3-64Conv3-64Conv3-64Conv3-64MaxpoolConv3-128Conv3-128Conv3-128Conv3-128Conv3-128Conv3-128Conv3-128Conv3-128Conv3-128Conv3-128MaxpoolConv3-256Conv3-256Conv3-256Conv3-256Conv3-256Conv3-256Conv3-256Conv3-256Conv1-256Conv3-256Conv3-256Conv3-256Conv3-256Conv3-256Conv3-256Conv3-256MaxpoolConv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv1-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512MaxpoolConv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv1-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512Conv3-512MaxpoolFC-4096FC-4096FC-4096softmax經典模型(VGGNet)應用示例第86頁以上六種網絡結構相似,都是由5層卷積層加上3層全連接層組成,區(qū)別在于每層卷積的子卷積層數(shù)量和卷積核大小不一樣,由A到E網絡層數(shù)由11層逐漸增加至19層。表格中conv3-64表示64個卷積核大小為3×3的卷積層,大卷積層之間由最大池化maxpool隔開,F(xiàn)C-4096表示由4096個神經元構成的全連接層,最終輸出層為softmax層。在這六種網絡中,D為著名的VGG16,E為VGG19。經典模型(VGGNet)應用示例第87頁圖為最經典的VGG16網絡結構,VGG16總共包含16個子層,VGG16的輸入層為224×224×3的三通道RGB圖像,第1層卷積層由2個conv3-64組成,第2層卷積層由2個conv3-128組成,第3層卷積層由3個conv3-256組成,第4層卷積層由3個conv3-512組成,第5層卷積層由3個conv3-512組成,然后是2個FC4096的全連接層,1個FC1000的全連接層,總共16層。經典模型(VGGNet)應用示例第88頁VGG模型示例:/projectdetail/2799241?contributionType=1經典模型(GoogleNet)應用示例第89頁VGGNet獲得了2014年的ILSVRC分類比賽的亞軍,而獲得當年分類任務比賽冠軍的則是GoogleNet。與VGGNet模型相比較,GoogleNet模型的網絡深度已經達到了22層,如果只計算有參數(shù)的網絡層,GoogleNet網絡有22層,如果加上池化層的話則有27層,并且在網絡架構中引入了Inception單元,從而進一步地提升了模型整體的性能。雖然GoogleNet的深度達到了22層,但參數(shù)量卻比AlexNet和VGGNet小得多,GoogleNet參數(shù)總量約為500萬個,而VGG16參數(shù)約為138million個,是GoogleNet的27倍多,是AlexNet的兩倍多。經典模型(GoogleNet)應用示例第90頁如圖為Inception模塊最初的版本,其基本組成結構包含4個部分:1×1卷積、3×3卷積、5×5卷積以及3×3最大池化,分別經過這四個部分計算之后的結果再進通道上的組合就得到最終的輸出。經典模型(GoogleNet)應用示例第91頁NaiveInception模塊有兩個問題:1、所有卷積層直接和前一層輸入的數(shù)據(jù)對接會造成卷積層中的計算量很大;2、在這個模塊中使用的最大池化層保留了輸入數(shù)據(jù)的特征圖的深度,所以在最后進行合并時,總的輸出的特征圖的深度只會增加,這樣就增加了該模塊之后的網絡結構的計算量。因此,為了
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026上半年貴州事業(yè)單位聯(lián)考玉屏侗族自治縣招聘41人備考題庫有答案詳解
- 初級社工考試題庫及答案
- 測量理論考試試卷及答案
- 頸椎骨折選擇試題及答案
- 2025-2026人教版二年級數(shù)學上期末卷
- 2025-2026五年級信息技術期末測試粵教版
- 腸道菌群與代謝病線粒體功能障礙
- 腸道-腦軸在麻醉藥品依賴性評價中的意義
- 肝血管瘤臨床路徑變異的觀察策略
- 探店汽修店衛(wèi)生管理制度
- 農投集團安全生產制度
- 近五年貴州中考物理真題及答案2025
- 2025年黑龍江省大慶市中考數(shù)學試卷
- 山東煙草2026年招聘(197人)考試備考試題及答案解析
- 二級醫(yī)院的DRGs培訓課件
- 空芯光纖行業(yè)分析報告
- 置業(yè)顧問崗位招聘考試試卷及答案
- 大眾試駕協(xié)議書
- 2026年醫(yī)療行業(yè)患者滿意度改善方案
- GB/T 4605-2025滾動軸承推力滾針和保持架組件及推力墊圈
- 老年機構養(yǎng)老心理健康評估方案
評論
0/150
提交評論