【《yolo v2車輛檢測算法分析案例》2300字】_第1頁
【《yolo v2車輛檢測算法分析案例》2300字】_第2頁
【《yolo v2車輛檢測算法分析案例》2300字】_第3頁
【《yolo v2車輛檢測算法分析案例》2300字】_第4頁
【《yolo v2車輛檢測算法分析案例》2300字】_第5頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

yolov2車輛檢測算法分析案例目錄TOC\o"1-3"\h\u11611yolov2車輛檢測算法分析案例 1282211.1Yolov1算法原理 118001.2損失函數(shù) 2158751.3Yolov2算法原理 3Yolo系列算法屬于一階段深度學習目標檢測算法的一種。相對于兩階段目標檢測算法,Yolo系列算法更加深刻的貫徹了采用直接回歸的方法獲取到當前需要檢測的目標,不需要更加復雜的設計過程以及目標類別的一種思想。2015年,YoloV1算法是被提出。時隔兩年,作者JoseRedmon和AliFarhadi又提出了對YOLOV1算法的改進,即YOLOv2。1.1Yolov1算法原理Yolov1是一種基于直接回歸的目標檢測算法。Yolov1算法原理是把每張圖像分成S*S格子(cell)。在圖像上,物體的中心落在哪個格子上,這個物體的預測就由這個格子負責。每一個格子都需要預測B個邊界框(boundingbox)和C個類別的概率,計算出該邊界框的置信度(confidence)。Boundingbox實際上是一個四維向量(x,y,w,h)。(x,y)是指所生的物體邊框中心坐標,(w,h)是指所生成的邊界框的寬和高。在目標分類中,還需要預測C個目標類別的概率,它表示該預測邊界框中的檢測目標屬于各個類別的概率,不過這是一個條件概率,記成:。根據類別的概率可以計算出預測框中目標類別的置信度,各個預測框的類別的置信度計算公式如下:置信度包括了邊界框是否含有物體的概率和這個生成框和真是物體的叫交并比兩方面。當該被檢測目標不存在當前預測框中,;當被檢測目標存在當前預測框中,。置信度的計算公式如下: YoloV1的模型結構基礎也是基于卷積神經網絡,包括輸入層、卷積層、池化層和全連接層。YOLOV1結構圖如下:1.2損失函數(shù)YOLOV1算法采用損失函數(shù)為平方誤差函數(shù),目的是讓預測邊界框中心坐標值、預測邊界框的寬和高、置信度以及分類概率四個部分達到更好的平衡。關于物體邊框損失函數(shù)(LossFuction)計算公式如下:其中,、代表已標注的bbox的中心點坐標,、代表已關注的bbox的長與寬。關于置信度的損失函數(shù)如下:置信度損失函數(shù)不僅與含有檢測目標的預測框的置信度有關,也與不含檢測目標的預測框的置信度有關。其中noobj代表不包含檢測目標的預測框的置信度,目的是平衡過多的“非物體”格子。關于分類概率的損失函數(shù)計算公式如下:

綜上所述,損失函數(shù)的表達式:1.3Yolov2算法原理Yolov2算法是在Yolov1算法的基礎上做出了改良,Yolov1目標檢測算法雖然在檢測速度上已經滿足了要求,但是準確度還不夠高,對擁擠的物體、小物體檢測度不好。Yolov2基于這些問題做了改良,網絡結構如下:(1)首先引入BN層歸一化處理(BatchNormalization,BN)的本質原理是插入一個歸一化層在網絡的每一個卷積或池化層之后,換句話說就是在進入下一層網絡之前先做一個歸一化至均值0、方差為1的處理。YOLOV2算法引入批量歸一化處理,有助于改善流經網絡的梯度、對正則化的依賴,并且減少過擬合現(xiàn)象。在YOLOV2中,用每一層卷積層后面用批量歸一化代替隨機篩選(Droput)操作后,平均檢測精度直接提升了2%。(2)AnchorBoxYOLOV1算法是將輸入圖分成7*7的網格,每個網格預測2個邊界框,它包含全連接層,也能直接預測出邊界框的坐標值,但也會導致丟失較多的信息,定位精度較低。YOLOV2移除了FC(fullyconnection)層和最后一個Pooling層,引入了AnchorBox預測boundingbox。這樣做提高了對特征圖的分辨率,并且將448*448的網格大小替換成416*416的,也就意味著每個特征圖在劃分單元格的時候會只有一個中心單元格。因為對于大多數(shù)檢測目標,特別是大目標,更傾向于占據圖像的中心位置,一個中心單元格相較于四個相鄰的單元格,則能更好的預測目標的位置。AnchorBox是預設好的虛擬邊框。Yolov2算法通過預測AnchorBox的偏移度與置信度,也就是說訓練樣本的真實邊框的位置是根據虛擬邊框的偏移得到的,檢測目標的大概位置由虛擬邊框先“框”出,然后在根據框出的位置進行調整得到真實邊框。(3)高分辨率模型現(xiàn)在一般的目標檢測方法在檢測之前都會先在ImagNet上預訓練分類器,然后再進行檢測。但自AlexNet開始,大部分分類器的分辨率一般都低于256*256。就像YOLOV1預訓練的輸入圖像尺寸和檢測的輸入圖像尺寸不一致,預訓練時的輸入尺寸是224*224,然后檢測的輸入尺寸是448*448,這導致網絡還需要適應分辨率變化。在YOLOv2中,用尺寸是448*448的ImageNet數(shù)據集微調分類網絡的10個迭代周期,使得網絡可以適應高分辨率的輸入圖片。然后繼續(xù)用高分辨率圖片微調監(jiān)測網絡,在原論文中,作者提到這樣做能夠將mAP提高接近4個百分點。(4)細粒度特征在主干網絡提取特征是分淺層、中層、深層。對于淺層特征而言,一般情況下對應的圖像的物理信息,即直線、邊緣、角、點等信息。中層特征是對淺層特征更高維的抽象,可以理解為把一些特殊的形狀單元拼接在一起形成簡單的圖像。高層特征繼續(xù)在中層特征的基礎上進一步的抽象融合,在高層特征的時候會出現(xiàn)很明顯的具有語意性的特征。特征映射經過此處理過程會丟失很多細粒度特征,這會影響網絡對小目標的檢測效果,因此研究者引入了passthrough層。把23*23*512的特征圖,經過passthrough層轉化成大小為13*13*2048的特征圖,這樣就可與原來的特征圖相連形成13*13*3027的特征圖,對小目標的識別起到了很好的效果。(4)多尺度訓練在網絡訓練過程中,如果只有一個輸入尺寸,可能會出現(xiàn)大的圖像被縮小化的情況,這種情況就意味著我們沒有在訓練的時候就出現(xiàn)了信息的流失,這是不愿意被看到的情況。YOLOv2算法針對這一問題初試多尺度。多尺度訓練是并不把所有的圖像都歸到同一個大小的訓練,而是橫跨不同的精度訓練,它能夠幫助網絡適應不同大小的圖像。在YOLOV2的網絡中移除了全連接層,僅包含卷積層和池化層,網絡對輸入的特征映射大小要求降低,這也就意味著網絡能夠陳承接住滿足為網絡下采樣32的倍數(shù)的特征映射,提升了魯棒性。因此在YOLOV

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論