【《車(chē)輛行人檢測(cè)算法研究的國(guó)內(nèi)外文獻(xiàn)綜述》2700字】_第1頁(yè)
【《車(chē)輛行人檢測(cè)算法研究的國(guó)內(nèi)外文獻(xiàn)綜述》2700字】_第2頁(yè)
【《車(chē)輛行人檢測(cè)算法研究的國(guó)內(nèi)外文獻(xiàn)綜述》2700字】_第3頁(yè)
【《車(chē)輛行人檢測(cè)算法研究的國(guó)內(nèi)外文獻(xiàn)綜述》2700字】_第4頁(yè)
【《車(chē)輛行人檢測(cè)算法研究的國(guó)內(nèi)外文獻(xiàn)綜述》2700字】_第5頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

XXXV車(chē)輛行人檢測(cè)算法研究的國(guó)內(nèi)外文獻(xiàn)綜述目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一個(gè)重要且值得深入研究的方向,在自動(dòng)駕駛、輔助駕駛領(lǐng)域都有應(yīng)用。目標(biāo)檢測(cè)不僅要精確判斷出目標(biāo)屬于哪一類(lèi)別,又要精確定位出目標(biāo)。車(chē)輛行人檢測(cè)是對(duì)圖像或視頻中的行人車(chē)輛目標(biāo)分類(lèi)和定位的綜合性圖像處理問(wèn)題??v觀目標(biāo)檢測(cè)技術(shù)這些年的研究,根據(jù)特征提取主要可劃分為如下兩個(gè)階段:基于人工設(shè)計(jì)特征的傳統(tǒng)目標(biāo)檢測(cè)和基于深度學(xué)習(xí)卷積特征的目標(biāo)檢測(cè)。1.1傳統(tǒng)的車(chē)輛行人檢測(cè)現(xiàn)狀對(duì)于傳統(tǒng)的車(chē)輛行人檢測(cè)算法來(lái)說(shuō),步驟很簡(jiǎn)單,如圖1-1所示,根據(jù)幾個(gè)步驟進(jìn)行:首先是要對(duì)交通車(chē)輛行人圖像進(jìn)行預(yù)處理,然后對(duì)每一張輸入的圖像進(jìn)行滑動(dòng)窗口的遍歷操作,通過(guò)不同尺寸的窗口在圖像上滑動(dòng)提取相關(guān)的特征,利用的是人工設(shè)計(jì)構(gòu)造的目標(biāo)的某種特征。圖1-1傳統(tǒng)車(chē)輛行人檢測(cè)Fig.1-1Traditionalvehicleandpedestriandetection相關(guān)學(xué)者根據(jù)采用的特征以及分類(lèi)器的選擇做了以下研究如下:Dalal等人提出一種用來(lái)描述局部圖像信息的特征,梯度方向直方圖(HistogramofOrientedGradient,HOG)特征,并將該特征輸入支持向量機(jī)(SupportVectorMachine,SVM)分類(lèi)器,用于行人檢測(cè)[5]。Zhu[6]等人為了加速圖像特征的提取,提出HOG特征并且和能夠進(jìn)行篩選特征的adaboost分類(lèi)器結(jié)合,進(jìn)而通過(guò)提升特征的細(xì)節(jié)信息,提高模型的檢測(cè)精度和檢測(cè)速度。Mu[7]等人提出了用來(lái)提取局部特征紋理的局部二值模式(LocalBinaryPatterns,LBP),特征的兩個(gè)改進(jìn)版本是Semantie-LBP和Fourier-LBP[8]。Lowe[9]提出了一種更具表達(dá)能力的尺度不變特性的特征(ScaleInvariantFeatureTransform,SIFT),該特征描述了圖像的梯度和方向信息。2008年可變形部件模型[10](DeformablePartModels,DPM)提出人工地設(shè)置卷積核,利用卷積核提取圖像的特征,最后通過(guò)分類(lèi)和回歸進(jìn)行目標(biāo)檢測(cè),DPM模型在目標(biāo)檢測(cè)任務(wù)中比較受歡迎。這些傳統(tǒng)的方法都是基于人工設(shè)計(jì)的特征沒(méi)有很好的魯棒性,特征表達(dá)能力較弱,存在一定弊端的,過(guò)于依賴(lài)以往經(jīng)驗(yàn),不能很好地表達(dá)圖像的高級(jí)語(yǔ)義信息且檢測(cè)效果不好,檢測(cè)算法的穩(wěn)健性不強(qiáng)。由于容易出現(xiàn)錯(cuò)誤檢測(cè)的問(wèn)題,傳統(tǒng)的方法在復(fù)雜的交通場(chǎng)景中檢測(cè)性能不佳。1.2基于深度學(xué)習(xí)的車(chē)輛行人檢測(cè)現(xiàn)狀近幾年來(lái),隨著深度學(xué)習(xí)在很多領(lǐng)域都有突破性進(jìn)展,目標(biāo)檢測(cè)也迎來(lái)了新的發(fā)展機(jī)遇。卷積神經(jīng)網(wǎng)絡(luò)CNN對(duì)特征提取地比較全面,GPU的特點(diǎn)是并行計(jì)算,促使CNN得以推廣。車(chē)輛行人檢測(cè)也開(kāi)始采用卷積神經(jīng)網(wǎng)絡(luò)的方法。CNN的優(yōu)勢(shì)是能提取圖像中高層語(yǔ)義特征,不再用人工設(shè)計(jì)的特征,隨后很多基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法應(yīng)運(yùn)而生。CNN在ImageNet圖像比賽上獲得了不錯(cuò)的成就,2012年AlexNet通過(guò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)獲得ImageNet比賽的冠軍[11],CNN也受到人們更多的關(guān)注了。根據(jù)檢測(cè)思想原理不一樣,可以將深度學(xué)習(xí)目標(biāo)檢測(cè)算法分成兩類(lèi):基于區(qū)域生成的二階段檢測(cè)算法和基于回歸預(yù)測(cè)的一階段檢測(cè)算法。這兩類(lèi)目標(biāo)檢測(cè)算法在檢測(cè)精度和檢測(cè)速度上各有優(yōu)勢(shì),下面分別對(duì)這兩類(lèi)算法進(jìn)行詳細(xì)地介紹和分析?;趨^(qū)域生成的二階段檢測(cè)方法的特點(diǎn)是需要使用生成算法找到不同的候選框,如圖1-2所示,然后將候選框上提取出來(lái)的特征作為回歸和分類(lèi)的輸入。Girshick等人提出了一種名為R-CNN[12]的檢測(cè)方法,該方法是首先根據(jù)選擇性搜索算法對(duì)輸入的圖像生成候選區(qū)域,其次將所有候選區(qū)域輸入到CNN模型中進(jìn)行特征的提取,最后將特征使用SVM分類(lèi)器進(jìn)行分類(lèi)回歸。FastR-CNN[13]是R-CNN的改進(jìn)算法,改進(jìn)的部分是提出了ROI池化層將不同特征圖的尺寸歸一化,不再重復(fù)計(jì)算。FastR-CNN的另一個(gè)特點(diǎn)是通過(guò)softmax層代替SVM分類(lèi)器來(lái)提高檢測(cè)結(jié)果。2015年,RossGirshick[14]對(duì)SPPnet[15]和R-CNN的思想進(jìn)行了綜合改進(jìn),提出了FasterR-CNN[16]。該模型使用了(regionproposalnetwork)RPN,RPN是全卷積區(qū)域建議網(wǎng)絡(luò),用卷積神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行區(qū)域生成候選框,同時(shí)引入了anchor的概念。在RPN中,每個(gè)滑動(dòng)窗口位置檢測(cè)到的區(qū)域就是anchor。通過(guò)不同大小的anchor進(jìn)行多尺度的檢測(cè),結(jié)果也更加精確?;贔astR-CNN改進(jìn)的多尺度感知行人檢測(cè)模型[17]取得不錯(cuò)的成果。這些區(qū)域生成目標(biāo)檢測(cè)算法一般檢測(cè)準(zhǔn)確率較高,但是因?yàn)樵趨^(qū)域生成的計(jì)算上花費(fèi)了太多時(shí)間,檢測(cè)速度相對(duì)較慢。首先生成候選區(qū)域,接著對(duì)候選區(qū)域進(jìn)行分類(lèi)和位置的回歸,一來(lái)增加了模型的訓(xùn)練難度,二來(lái)導(dǎo)致模型的網(wǎng)絡(luò)運(yùn)行速度過(guò)于慢,用于交通場(chǎng)景上的車(chē)輛行人檢測(cè)是沒(méi)法滿足實(shí)時(shí)檢測(cè)的要求。圖1-2基于區(qū)域生成的二階段檢測(cè)算法Fig.1-2Two-stagedetectionalgorithmbasedonregiongeneration基于回歸預(yù)測(cè)的一階段檢測(cè)方法是一步到位,將整張圖片輸入卷積神經(jīng)網(wǎng)絡(luò),進(jìn)行卷積操作提取特征,在圖像上不同的位置回歸出目標(biāo)的檢測(cè)邊框和目標(biāo)的類(lèi)別,完成端到端的檢測(cè)。該方法的優(yōu)點(diǎn)是提高了檢測(cè)速度,但是檢測(cè)的準(zhǔn)確率卻降低了。2016年YOLO(YouOnlyLookOnce,YOLO)由RedomJ[18]提出,這是一階段(onestage)目標(biāo)檢測(cè)算法具有代表性的實(shí)時(shí)性檢測(cè)經(jīng)典模型,YOLO的檢測(cè)流程是將輸入圖像分成S×S的網(wǎng)格,在每個(gè)網(wǎng)格上進(jìn)行預(yù)測(cè),每個(gè)預(yù)測(cè)框要預(yù)測(cè)目標(biāo)的類(lèi)別置信度和每個(gè)框的坐標(biāo),最后通過(guò)非極大值抑制算法把多余的預(yù)測(cè)框去掉,得到最后的預(yù)測(cè)。因?yàn)樘^(guò)了候選區(qū)域生成這一步,檢測(cè)性能有了很大程度的提升,但是該算法對(duì)小尺度目標(biāo)檢測(cè)效果不太好。2016年,Liu提出了SSD[19](SingleShotMultiBoxDetector,SSD)算法,SSD借鑒了YOLO,采用FasterR-CNN的anchor機(jī)制,使用多尺度特征圖預(yù)測(cè)。SSD算法在不同尺度的特征圖上設(shè)定不同尺寸和寬高比的默認(rèn)框(defaultbox),解決了YOLO算法檢測(cè)精度低的問(wèn)題,對(duì)小目標(biāo)的漏檢也得到改善。針對(duì)小目標(biāo)檢測(cè)及遮擋目標(biāo)漏檢導(dǎo)致檢測(cè)精度低的問(wèn)題,Kim[20]綜合了SPP網(wǎng)絡(luò)和YOLO-V3的特點(diǎn),通過(guò)多層預(yù)測(cè)提高遮擋目標(biāo)的檢測(cè)精度。FUCY等人提出DSSD[21](DeconvolutionalSingleShotDetector),在反卷積操作下對(duì)高層特征和低層特征進(jìn)行融合,提升小目標(biāo)的檢測(cè)精度。LiuS提出的RFB[22](ReceptiveFieldBlockNetforAccurateandFastObjectDetection),RFB結(jié)合SSD的優(yōu)勢(shì),對(duì)感受野大小改進(jìn),提升小目標(biāo)檢測(cè)性能。Nguyen[23]在FasterR-CNN的基礎(chǔ)上改進(jìn),采用了上下文感知池化,提高了小目標(biāo)車(chē)輛和遮擋車(chē)輛的檢測(cè)精度。Zhou等人[24]將對(duì)抗網(wǎng)絡(luò)與級(jí)聯(lián)的FasterR-CNN相結(jié)合,對(duì)小目標(biāo)及遮擋目標(biāo)有更好的魯棒性。Cai等人[25]提出CascadeRCNN方法,通過(guò)級(jí)聯(lián)的方式并且改變IoU閾值。ZhuCC等提出的FSAF[26]自適應(yīng)學(xué)習(xí)目標(biāo)特征,SSD網(wǎng)絡(luò)中加入FSAF模塊,對(duì)小目標(biāo)檢測(cè)友好。但目前的方法對(duì)交通場(chǎng)景下的小目標(biāo)檢測(cè)效果還是不理想。參考文獻(xiàn)[1]鄒偉.中國(guó)機(jī)動(dòng)車(chē)保有量達(dá)2.64億輛[J]廣東交通,2015(1):56-56.[2]李生才,笑蕾.2018年5-6月國(guó)內(nèi)生產(chǎn)安全事故統(tǒng)計(jì)分析[J].安全與環(huán)境學(xué)報(bào),2018,18(04):1639-1640.[3]郁梅,郁伯康.智能交通系統(tǒng)中的計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)用[J].計(jì)算機(jī)工程與應(yīng)用,2001,37(10):101-103.[4]李珊珊.基于深度學(xué)習(xí)的交通場(chǎng)景多目標(biāo)檢測(cè)[D].湖南大學(xué),2017:2-3.[5]DalalN,TriggsB.HistogramsofOrientedGradientsforHumanDetection[C].IEEEConferenceonComputerVisionandPatternRecognition,SanDiego,CA,USA,2005:886-893.[6]ZhuQ,YehMC,ChengKT,eta1.FastHumanDetectionUsingACascadeofHistogramsofOrientedGradients[C].IEEEConferenceonComputerVisionandPatternRecognition,NewYork,NY,USA,2006:1491-1498.[7]MuY,YanS,LiuY,etal.Discriminativelocalbinarypatternsforhumandetectioninpersonalalbum[C].InProceedingsofComputerVisionandPatternRecognition,2008:1-8.[8]AhonenT,HadidA,PietikainenM.Facedescriptionwithlocalbinarypatterns:Applicationtofacerecognition[J].PatternAnalysisandMachineIntelligence,IEEETransactionson,2006,28(12):2037-2041.[9]LoweDG.ObjectRecognitionfromLocalScale-InvariantFeatures[C].ProceedingsoftheInternationalConferenceonComputerVision,Kerkyra,Corfu,Greece,1999:1150-1157.[10]FelzenszwalbP,McallesterD,RamananD.ADiscriminativelyTrained,Multiscale,DeformablePartModel[C].IEEEConferenceonComputerVisionandPatternRecognition,Anchorage,Alaska,USA,2008:1-8.[11]KrizhevskyA,SutskeverI,HintonGE.ImageNetclassificationwithdeepconvolutionalneuralnetworks[C]//InternationalConferenceonNeuralInformationProcessingSystems.Doha:SpringerCham,2012:1097-1105.[12]GirshickR,DonahueJ,DarrellT,etal.Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation[C]//ComputerVisionandPatternRecognition.Columbus:IEEEPress,2014:580-587.[13]GirshickR.FastR-CNN[C]//IEEEInternatonalConferenceonComputerVision.Santiago:IEEEPress,2015:1440-1448.[14]RenShaoqing,HeKaiming,GirshickR,etal.FasterR-CNN:TowardsReal-TimeObjectDetectionwithRegionProposalNetworks[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(6):1137-1138.[15]HeK,ZhangX,RenS,etal.Spatialpyramidpoolingindeepconvolutionalnetworksforvisualrecognition[J].IEEEtr

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論