【《基于SSD算法的車輛檢測(cè)實(shí)踐探究》12000字(論文)】_第1頁(yè)
【《基于SSD算法的車輛檢測(cè)實(shí)踐探究》12000字(論文)】_第2頁(yè)
【《基于SSD算法的車輛檢測(cè)實(shí)踐探究》12000字(論文)】_第3頁(yè)
【《基于SSD算法的車輛檢測(cè)實(shí)踐探究》12000字(論文)】_第4頁(yè)
【《基于SSD算法的車輛檢測(cè)實(shí)踐探究》12000字(論文)】_第5頁(yè)
已閱讀5頁(yè),還剩27頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第1章緒論1.1研究背景及意義隨著我國(guó)經(jīng)濟(jì)快速發(fā)展,城市人口和機(jī)動(dòng)車保有量急劇增長(zhǎng),交通流量日益增大,擁擠堵塞頻發(fā),道路交通事故的發(fā)生頻率也在不斷增加。針對(duì)這一問題,智能交通系統(tǒng)作為解決方案被提出并且迅速成為研究熱點(diǎn)。智能交通系統(tǒng)中的車輛控制系統(tǒng)利用計(jì)算機(jī)視覺技術(shù)對(duì)車輛的周圍環(huán)境進(jìn)行檢測(cè),對(duì)得到的信息進(jìn)行融合和處理,自動(dòng)識(shí)別出危險(xiǎn)狀態(tài),將獲得的道路交通信息傳遞給駕駛員,協(xié)助駕駛員進(jìn)行安全輔助駕駛或者自動(dòng)駕駛,從而避免道路交通事故的發(fā)生或者減少交通事故帶來(lái)的損失。而想要達(dá)到這個(gè)目的,車輛的自動(dòng)檢測(cè)就成了至關(guān)重要的一步。針對(duì)復(fù)雜道路交通問題,傳統(tǒng)的車輛檢測(cè)主要基于光流法、幀差法、匹配法。隨著機(jī)器視覺的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)[1]、CNN和幾何約束[2]也被學(xué)者應(yīng)用于車輛檢測(cè)。但是當(dāng)前車輛檢測(cè)方面仍然存在著小目標(biāo)檢測(cè)漏檢、模型計(jì)算量大等問題。本文通過(guò)對(duì)傳統(tǒng)的車輛檢測(cè)方法進(jìn)行歸納和總結(jié),針對(duì)如何快速、精準(zhǔn)識(shí)別前方車輛的問題,研究基于SSD算法下的實(shí)時(shí)車輛檢測(cè)方法。1.2國(guó)內(nèi)外研究現(xiàn)狀目前,SSD目標(biāo)檢測(cè)算法是目標(biāo)檢測(cè)技術(shù)最為流行的方法之一。許多研究人員試圖從各個(gè)角度解決該方法存在的小目標(biāo)檢測(cè)性能較差、模型參數(shù)量和計(jì)算量較大和運(yùn)行效率低的問題,來(lái)提升算法的檢測(cè)精度和檢測(cè)效率。總體上來(lái)看,基于SSD的目標(biāo)檢測(cè)算法的研究方向可歸納為以下幾個(gè)方面:融合上下文特征信息。為了提高小目標(biāo)的檢測(cè)精度,2017年Fu等提出了一種DSSD[3]目標(biāo)檢測(cè)方法,該方法將SSD網(wǎng)絡(luò)模型的基礎(chǔ)網(wǎng)絡(luò)換成特征提取能力更強(qiáng)的ResNet-101,然后引入反卷積模塊,將多尺度特征提取中的深層特征與淺層特征進(jìn)行上下文信息融合后,再進(jìn)入預(yù)測(cè),最后,在輸出的特征圖分支上引入殘差網(wǎng)絡(luò)作為新的預(yù)測(cè)模塊,以此提高小目標(biāo)的檢測(cè)精度。優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),增強(qiáng)特征提取能力。2017年Shen等人以SSD目標(biāo)檢測(cè)算法為基礎(chǔ),從微調(diào)預(yù)訓(xùn)練網(wǎng)絡(luò)模型和直接訓(xùn)練網(wǎng)絡(luò)模型的差異考慮,設(shè)計(jì)出一種可從零開始訓(xùn)練的DSOD[4]目標(biāo)檢測(cè)算法,即訓(xùn)練一個(gè)網(wǎng)絡(luò)模型,不需要大量的數(shù)據(jù)和預(yù)訓(xùn)練好的模型,解決了由于預(yù)訓(xùn)練模型的限制,導(dǎo)致遷移模型結(jié)構(gòu)靈活性差,難以改變網(wǎng)絡(luò)結(jié)構(gòu)等問題。改進(jìn)損失函數(shù)。對(duì)于SSD目標(biāo)檢測(cè)算法來(lái)說(shuō),無(wú)需候選區(qū)域,直接采用回歸的方式來(lái)確定檢測(cè)框的坐標(biāo),這種方式速度更快,但是其精度往往會(huì)出現(xiàn)一定程度的降低。2018年Lin等從正負(fù)樣本不平衡和難易樣本不平衡兩個(gè)方面研究,提出一種更適合目標(biāo)檢測(cè)的FocalLoss損失函數(shù)[5],該函數(shù)是在標(biāo)準(zhǔn)交叉熵?fù)p失基礎(chǔ)上進(jìn)行改進(jìn),通過(guò)減少易分類樣本的權(quán)重,使得網(wǎng)絡(luò)模型在訓(xùn)練時(shí)更專注于難分類的樣本。實(shí)驗(yàn)結(jié)果表明,RetinaNet利用Focalloss損失函數(shù)不僅可以提高目標(biāo)檢測(cè)網(wǎng)絡(luò)的檢測(cè)精度,同時(shí)保持了實(shí)時(shí)性。壓縮網(wǎng)絡(luò)模型,使用輕量化網(wǎng)絡(luò),降低模型參數(shù)量和計(jì)算量。為了提升目標(biāo)檢測(cè)算法的檢測(cè)效率,網(wǎng)絡(luò)模型的輕量化研究也是目標(biāo)檢測(cè)技術(shù)中一個(gè)研究熱點(diǎn)。2016年由Berkeley和Stanford的研究人員共同提出的SqueezeNet[6]算法是主要針對(duì)模型壓縮的一種方法,該方法在ImageNet數(shù)據(jù)集上與AlexNet算法保持相同檢測(cè)精度下,網(wǎng)絡(luò)模型的參數(shù)量減少到AlexNet的1/50。1.3主要研究?jī)?nèi)容本文針對(duì)SSD算法存在的檢測(cè)精度不高,運(yùn)算效率低和模型計(jì)算量大的問題進(jìn)行改進(jìn)研究。首先引入了輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNetV2,作為SSD算法的特征提取部分;然后對(duì)MobileNetV2的部分bottleneck層進(jìn)行特征融合,提高對(duì)小目標(biāo)的檢測(cè)能力;最后在特征層后嵌入SENet模塊,讓模型能夠更加關(guān)注比較重要的通道特征。1.4論文結(jié)構(gòu)安排本文結(jié)構(gòu)安排如下所示:第1章:緒論。主要介紹了本文的研究背景和意義,同時(shí)對(duì)國(guó)內(nèi)外研究現(xiàn)狀進(jìn)行了介紹,并闡述了本文研究的主要內(nèi)容以及論文的結(jié)構(gòu)。第2章:相關(guān)理論概述。首先對(duì)目標(biāo)檢測(cè)的實(shí)現(xiàn)流程及相關(guān)的各個(gè)模塊功能進(jìn)行介紹,接著對(duì)卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)進(jìn)行介紹,最后對(duì)本文所用的深度可分離卷積進(jìn)行說(shuō)明。第3章:改進(jìn)SSD算法。首先針對(duì)傳統(tǒng)SSD算法前置特征提取網(wǎng)絡(luò)參數(shù)冗余模型復(fù)雜的問題,引入了MobileNetV2網(wǎng)絡(luò);其次對(duì)特征提取網(wǎng)絡(luò)的部分層進(jìn)行均衡化處理,使淺層特征和深層特征都能被更大程度的利用;最后添加了SE模塊,來(lái)提高模型準(zhǔn)確率。第4章:實(shí)驗(yàn)及結(jié)果分析。利用本文構(gòu)建的改進(jìn)SSD模型在VOC數(shù)據(jù)集上進(jìn)行測(cè)試,分析改進(jìn)前后模型性能,在道路監(jiān)控?cái)?shù)據(jù)集UA-DETRAC上進(jìn)行檢測(cè)實(shí)驗(yàn),驗(yàn)證算法的實(shí)際可行性。第5章:總結(jié)與展望。對(duì)本文的研究與應(yīng)用內(nèi)容進(jìn)行總結(jié),同時(shí)針對(duì)不足之處進(jìn)行了建議和展望。第2章相關(guān)理論概述2.1目標(biāo)檢測(cè)的組成目標(biāo)檢測(cè)的任務(wù)是找出圖像中所有感興趣的目標(biāo),確定它們的類別和位置。目標(biāo)檢測(cè)算法流程:首先生成可能存在目標(biāo)的區(qū)域,然后對(duì)每個(gè)區(qū)域進(jìn)行特征提取和分類,接著對(duì)候選區(qū)域邊框進(jìn)行回歸分析,最后合并目標(biāo)周圍重復(fù)的候選框。候選框生成進(jìn)行目標(biāo)檢測(cè)首先需要產(chǎn)生目標(biāo)可能存在的感興趣區(qū)域。因?yàn)橐粡垐D片中含有大量背景信息,一個(gè)可行的方法是先產(chǎn)生目標(biāo)可能存在的大致區(qū)域,即候選框,再對(duì)這些感興趣區(qū)域進(jìn)行微調(diào)。主要方法有:滑動(dòng)窗口。使用大小不同的窗口,對(duì)輸入圖進(jìn)行從左往右、從上到下的滑動(dòng),進(jìn)而生成候選框;選擇性搜索。對(duì)輸入圖像進(jìn)行分割算,法產(chǎn)生許多小的子區(qū)域;然后根據(jù)這些子區(qū)域之間相似性進(jìn)行區(qū)域合并,不斷的進(jìn)行區(qū)域迭代合并。每次迭代過(guò)程中對(duì)這些合并的子區(qū)域做外切矩形,這些子區(qū)域外切矩形就是通常所說(shuō)的候選框。特征提取及分類特征提取的目的是對(duì)候選區(qū)域?qū)ふ乙环N具有代表性的表征方式,并進(jìn)一步用于分類、回歸等任務(wù)。在目標(biāo)檢測(cè)中,通常使用預(yù)訓(xùn)練好的分類模型進(jìn)行視覺特征的提取,因?yàn)榉诸惸P吞崛〉囊曈X特征具有很好的通用性。邊框位置特征提取之前需要生成多個(gè)可能包含待檢測(cè)目標(biāo)的候選框,由于候選框的位置可能不是很準(zhǔn)確,因此在目標(biāo)檢測(cè)過(guò)程中需要對(duì)其進(jìn)行調(diào)整使其更接近待檢測(cè)目標(biāo)的真實(shí)位置,如圖2.1所示。圖2.1車輛檢測(cè)預(yù)測(cè)框與真實(shí)框在車輛檢測(cè)時(shí),綠色框表示目標(biāo)的真是位置,紅色框表示候選框預(yù)測(cè)位置,二者相差較大,盡管候選框能夠成功識(shí)別目標(biāo),檢測(cè)仍不準(zhǔn)確,因此需要對(duì)預(yù)測(cè)框進(jìn)行位置回歸。預(yù)測(cè)框和真實(shí)框之間的重疊程度用交并比(IoU)表示,其計(jì)算方式如公式(2-1)所示:(2-1)其中A(C)代表預(yù)測(cè)框的面積,A(G)代表真實(shí)框的面積,IoU從數(shù)學(xué)上看表示預(yù)測(cè)框與真實(shí)框的重疊部分除以集合部分得到的比值。在回歸過(guò)程中,需要對(duì)預(yù)測(cè)框的位置進(jìn)行調(diào)整,使其更接近真實(shí)框,令P為原始生成的候選框,G為真實(shí)框,代表P經(jīng)過(guò)位置回歸后的檢測(cè)框。用四維向量(x,y,w,h)來(lái)表示矩形框在圖像中的位置,其中x,y分別代表矩形框左上角在像素坐標(biāo)系中的橫縱坐標(biāo),w和h分別代表矩形框在像素坐標(biāo)系中的寬和高,則回歸的過(guò)程可以表示為找到一種映射關(guān)系F使得:(2-2)所使用的回歸方式是先對(duì)邊框進(jìn)行平移再對(duì)邊框的寬和高進(jìn)行一定比例的縮放。非極大值抑制在預(yù)測(cè)步驟完成后,模型通常會(huì)輸出許多重復(fù)的預(yù)測(cè)框,因此還需要對(duì)冗余的預(yù)測(cè)框進(jìn)行剔除。非極大值抑制算法(NMS)就是一種這樣的方法。它的一般思想是將輸出預(yù)測(cè)框數(shù)量減少到圖片中真實(shí)目標(biāo)的數(shù)目,對(duì)于某一目標(biāo)只保留最高置信度及其對(duì)應(yīng)的候選框。NMS算法流程圖如圖2.2所示。圖2.2NMS算法流程圖首先將預(yù)測(cè)框的置信度從高到低排序,選出最高置信度和其對(duì)應(yīng)的候選框,然后遍歷其余的候選框,如果和當(dāng)前最高置信度候選框的交并比大于給定閾值(通常設(shè)定為0.5)就將其刪除,直到所有的同類框均被掃描過(guò)時(shí)結(jié)束。經(jīng)NMS算法處理后的目標(biāo)檢測(cè)效果如圖2.3所示。圖2.3NMS算法處理效果可以看出在使用NMS前有多個(gè)矩形框都對(duì)車輛目標(biāo)進(jìn)行了預(yù)測(cè),而使用了NMS后,只保留了一個(gè)具有較好匹配程度的矩形框,其他均被剔除。經(jīng)典目標(biāo)檢測(cè)網(wǎng)絡(luò)——SSD算法[12]SSD(SingleShotMultiBoxDetector)算法的核心就是如何利用多尺度錨點(diǎn)框回歸邊框信息,在回歸邊框信息的過(guò)程中不是只拿最后一層特征圖做預(yù)測(cè),而是同時(shí)采用的上下層的特征圖做預(yù)測(cè)?;赟SD算法的思想,構(gòu)建單階段多尺度檢測(cè)網(wǎng)絡(luò)模型如圖2.4所示。圖2.4SSD算法基本思想其中特征提取網(wǎng)絡(luò)是按照VGG16網(wǎng)絡(luò)來(lái)設(shè)計(jì)的,在檢測(cè)網(wǎng)絡(luò)中,用一系列不同維度的卷積核在不同尺度的特征圖上提取檢測(cè)結(jié)果,分別對(duì)尺度為38、19、10、5、3、1的六個(gè)特征圖進(jìn)行卷積操作提取特征,然后利用回歸的思想得到預(yù)測(cè)框的位置以及類別得分。這樣操作的原因是大尺度的特征圖含有大量的目標(biāo)空間位置特征,能用來(lái)檢測(cè)相對(duì)較小的物體,而小尺度的特征圖含有大量的語(yǔ)義信息,能用來(lái)檢測(cè)相對(duì)較大的物體。最后通過(guò)非極大值抑制算法去除多余的候選框,得到最終結(jié)果。2.2神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)2.1介紹了目標(biāo)檢測(cè)的基本流程,其中基于候選區(qū)域進(jìn)行檢測(cè)是很重要的一環(huán)?,F(xiàn)在,基于卷積神經(jīng)網(wǎng)絡(luò)的檢測(cè)算法也延續(xù)了這種思想。卷積神經(jīng)網(wǎng)絡(luò)流程如圖2.5所示。圖2.5卷積神經(jīng)網(wǎng)絡(luò)流程圖首先將圖像X輸入到網(wǎng)絡(luò)模型中,模型內(nèi)使用了卷積層、池化層和激活函數(shù)對(duì)輸入圖像進(jìn)行計(jì)算;然后將計(jì)算后的結(jié)果輸出到下一層,由此將原始圖像的低維特征信息轉(zhuǎn)化成高維特征信息;最后,使用反向傳播使目標(biāo)函數(shù)的誤差傳播到網(wǎng)絡(luò)的各層并更新每層的參數(shù)。卷積層卷積層在網(wǎng)絡(luò)中起到提取特征的作用,其中卷積操作指的是二維離散卷積,具體操作如圖2.6。圖2.6卷積操作示意圖假設(shè)左側(cè)5×5矩陣為卷積的輸入特征圖,中間的3×3矩陣為卷積核,將卷積核從左上角開始與輸入特征圖對(duì)應(yīng)位置的數(shù)值進(jìn)行卷積操作得到右側(cè)3×3特征圖。激活函數(shù)激活函數(shù)在卷積層后面,對(duì)卷積層輸出的結(jié)果進(jìn)行非線性變換,激活函數(shù)可以根據(jù)給定的輸入數(shù)據(jù)來(lái)決定神經(jīng)元的輸出,使得模型能夠擬合復(fù)雜的數(shù)據(jù),具有更好的學(xué)習(xí)能力,如果在卷積神經(jīng)網(wǎng)絡(luò)中不加入激活函數(shù),則網(wǎng)絡(luò)模型只能學(xué)到線性表達(dá)函數(shù),無(wú)法處理非線性的數(shù)據(jù)。池化層池化層在相鄰的兩個(gè)卷積層之間,對(duì)輸入特征進(jìn)行下采樣和降維操作,減少計(jì)算量的同時(shí)能夠擴(kuò)大感知視野減小過(guò)擬合。常用的操作有兩種:最大池化和平均池化。具體池化示例如圖2.7。圖2.7池化操作示例假設(shè)圖中4×4矩陣為池化層的輸入特征圖,進(jìn)行最大池化時(shí)取局部域中最大的點(diǎn),對(duì)于右上角2×2區(qū)域,最大值為9則池化后對(duì)應(yīng)特征圖區(qū)域?yàn)?,其他區(qū)域操作過(guò)程與上述相同;進(jìn)行平均池化時(shí)取局部域中所有數(shù)值的平均值,對(duì)于右上角2×2區(qū)域,平均值為6則池化后對(duì)應(yīng)特征圖區(qū)域?yàn)?,其他區(qū)域操作過(guò)程與上述相同,以此完成池化操作。2.4本章小結(jié)本章主要研究了目標(biāo)檢測(cè)技術(shù)和神經(jīng)網(wǎng)絡(luò)的相關(guān)理論基礎(chǔ)。首先介紹了目標(biāo)檢測(cè)技術(shù)的主要流程;然后對(duì)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法進(jìn)行研究;最后對(duì)本文所用的深度可分離卷積進(jìn)行闡述,為第3章SSD算法的改進(jìn)做鋪墊。第3章改進(jìn)SSD車輛檢測(cè)算法3.1改進(jìn)SSD算法總體架構(gòu)本研究將多尺度特征融合加入到了MobileNetV2-SSD網(wǎng)絡(luò)框架,之后在多尺度檢測(cè)的六個(gè)特征圖后加入SE-Net模塊對(duì)通道進(jìn)行加權(quán),增強(qiáng)模型的性能。整體網(wǎng)絡(luò)框架設(shè)計(jì)如圖3.1所示。圖3.1改進(jìn)SSD算法網(wǎng)絡(luò)框架其中藍(lán)色特征圖表示深度可分離卷及操作,紅色特征圖表示上采樣操作,黃色特征圖表示SE-Net操作。整個(gè)結(jié)構(gòu)的特征提取網(wǎng)絡(luò)采用了MobileNetV2的倒置殘差塊結(jié)構(gòu)并在后面對(duì)部分層進(jìn)行特征融合,對(duì)特征融合后的卷積塊進(jìn)行卷積操作,形成多尺度卷積層,對(duì)選定的多尺度卷積層進(jìn)行SE-Net操作后,作為多尺度檢測(cè)層。其中選擇分辨率為38×38,19×19,10×10,5×5,3×3,1×1這六層的特征圖生成不同比例和尺寸的檢測(cè)框進(jìn)行預(yù)測(cè)回歸。最后通過(guò)非極大值抑制的方法去除多余的檢測(cè)框從而得到預(yù)測(cè)結(jié)果。3.2MobileNetV2-SSD網(wǎng)絡(luò)框架MobilenetV2網(wǎng)絡(luò)結(jié)構(gòu)能在基本不損失檢測(cè)精度的情況下降低模型參數(shù)量,減少模型的計(jì)算量。本研究把優(yōu)化后的特征提取網(wǎng)絡(luò)與SSD算法中的多尺度檢測(cè)網(wǎng)絡(luò)相融合形成基于MobileNetV2-SSD的網(wǎng)絡(luò)框架。,示意圖如圖3.2所示。圖3.2MobileNerV2-SSD網(wǎng)絡(luò)框架該網(wǎng)絡(luò)架構(gòu)以MobileNetV2作為特征提取網(wǎng)絡(luò),借助SSD多尺度目標(biāo)檢測(cè)的思想,構(gòu)建該網(wǎng)絡(luò)框架,結(jié)合兩種結(jié)構(gòu)的優(yōu)勢(shì)來(lái)實(shí)現(xiàn)對(duì)SSD算法的改進(jìn)。本研究延續(xù)SSD算法中多尺度檢測(cè)框的思想來(lái)保證對(duì)大小不同的物體都有良好的檢測(cè)效果。在引入了MobilenetV2網(wǎng)絡(luò)的思想后,本文所構(gòu)建的特征提取網(wǎng)絡(luò)結(jié)構(gòu)如圖3.3所示。圖3.3引入倒置殘差塊后卷積操作其中兩個(gè)不同的流程表示在不同步長(zhǎng)下的卷積操作。在做深度可分離卷積的過(guò)程前面加上了1×1的卷積核進(jìn)行通道的擴(kuò)增,當(dāng)步長(zhǎng)為1的時(shí)候?qū)ζ洳捎脷埐罹W(wǎng)絡(luò)中的跳躍連接,當(dāng)步長(zhǎng)為2的時(shí)不使用跳躍連接操作。在這種改進(jìn)后的殘差塊中特征圖尺寸和通道數(shù)的變化如表3.1所示。表3.1改進(jìn)后通道數(shù)變化輸入操作輸出h×w×k1×1Conv,Relu6h×w×(tk)h×w×tk3×3Deepwise,s=s,Relu6××(tk)××tk1×1Conv2dLinear××其中t代表的通道(channels)“擴(kuò)張”的倍數(shù),s代表步長(zhǎng)??梢钥闯鲈谔幚淼倪^(guò)程中先把特征圖通道數(shù)提升了t倍,然后保持該通道數(shù)不變對(duì)其進(jìn)行深度可分離卷積操作提取特征,最后再把通道數(shù)縮小為原輸入尺寸。3.3多尺度特征融合在實(shí)現(xiàn)基于MobileNetV2-SSD的網(wǎng)絡(luò)框架后,以MobileNetV2-SSD網(wǎng)絡(luò)框架為基礎(chǔ),進(jìn)行多尺度特征層的融合,網(wǎng)絡(luò)結(jié)構(gòu)如圖3.4。圖3.4特征融合的網(wǎng)絡(luò)結(jié)構(gòu)首先為對(duì)特征提取網(wǎng)絡(luò)的部分層進(jìn)行金字塔特征圖重構(gòu)操作,再統(tǒng)一融合特征圖大小,對(duì)融合后的特征圖進(jìn)行卷積變換,形成多尺度的特征圖,最后再通過(guò)SSD算法的多尺度檢測(cè)思想實(shí)現(xiàn)網(wǎng)絡(luò)模型。以MobileNetV2特征提取網(wǎng)絡(luò)中的bottleneck-6、bottleneck-13、bottleneck-17以及通過(guò)bottleneck-17進(jìn)行卷積操作的block1作為融合特征圖,以bottleneck-6為融合的基礎(chǔ)層,具體操作如圖3.5所示。圖3.5特征融合過(guò)程bottleneck-6作為C2、bottleneck-13作為C3、bottleneck-17作為C4,通過(guò)bottleneck-17進(jìn)行卷積操作的block1作為C5,對(duì)C5進(jìn)行1×1卷積操作,各通道對(duì)應(yīng)點(diǎn)的線性加權(quán)作為P5,再對(duì)P5進(jìn)行上采樣,放大特征圖,將放大后的特征圖與C4進(jìn)行1×1卷積操作后的結(jié)果進(jìn)行融合,形成P4特征圖,對(duì)P4進(jìn)行上采樣,放大特征圖,將放大后的特征圖與C3進(jìn)行1×1卷積操作后的結(jié)果進(jìn)行融合,形成P3特征圖,對(duì)P3進(jìn)行上采樣,放大特征圖,將放大后的特征圖與C2進(jìn)行1×1卷積操作后的結(jié)果進(jìn)行融合,形成P2特征圖,以P2作為特征融合的結(jié)果進(jìn)行之后的操作。3.4SE-Net模塊本文所使用的SENet(SequeezeandExcitationNet)本質(zhì)上就是一個(gè)基于通道的注意力模型,它通過(guò)建模各個(gè)特征通道的重要程度,然后針對(duì)不同的任務(wù)增強(qiáng)或者抑制不同的通道,原理如圖3.6。圖3.6通道注意力機(jī)制左邊為的特征圖,經(jīng)過(guò)一系列卷積池化操作之后,得到C×H×W大小的特征圖;接下來(lái)進(jìn)行SequeezeandExcitationblock操作。在Sequeeze操作中,對(duì)C×H×W大小的特征圖進(jìn)行全局平均池化得到1×1×C大小的特征圖,這個(gè)特征圖可以理解為具有全局感受野;之后,在Excitation操作中,使用一個(gè)全連接神經(jīng)網(wǎng)絡(luò),對(duì)Sequeeze之后的結(jié)果進(jìn)行非線性變換;最后以Excitation得到的結(jié)果為權(quán)重,輸入到特征上。SE模塊很容易嵌入到其它網(wǎng)絡(luò)中,雖然會(huì)提高一定的計(jì)算量但是嵌入SE模塊后分類準(zhǔn)確度有一定的提升,因此對(duì)選定的多尺度卷積層進(jìn)行SE-Net操作后,作為多尺度檢測(cè)層。3.5改進(jìn)SSD算法具體實(shí)現(xiàn)步驟改進(jìn)SSD算法的實(shí)現(xiàn)步驟如下所示:讀取有關(guān)圖像建立MobileNetV2-ssd模型在MobileNetV2-ssd模型的目標(biāo)檢測(cè)框架上進(jìn)行金字塔特征圖重構(gòu)操作設(shè)定MobileNetV2-ssd模型各個(gè)特征層的默認(rèn)候選框參量在MobileNetV2-ssd模型的六個(gè)特征層后嵌入SE-Net模塊,得到改進(jìn)的MobileNetV2-ssd模型用VOC數(shù)據(jù)集訓(xùn)練改進(jìn)的MobileNetV2-ssd模型,獲得模型權(quán)重參數(shù),用VOC數(shù)據(jù)集測(cè)試模型效果用UA-DETRAC進(jìn)行車輛檢測(cè)改進(jìn)MobileNetV2-ssd算法偽代碼如表3.2所示:表3.2改進(jìn)MobileNetV2-ssd算法偽代碼算法1:MobileNetV2算法輸入:帶有特征圖片的張量輸出:目標(biāo)分類和邊框位置回歸01.輸入imagedata02.MobileNetV2網(wǎng)絡(luò)輸出特征圖bottleneck03.對(duì)bottleneck-6,bottleneck-13,bottleneck-17,及bottleneck-17卷積操作后的block1進(jìn)行特征融合featuremapblock04.對(duì)特征融合后的featuremapblock進(jìn)行多次卷積操作,在卷積操作后的層中選取五個(gè)特征層,與featuremapblock作為多尺度特征層featurelayer05.六個(gè)特征層后進(jìn)行SE-Net操作生成featurelayer_se06.對(duì)特征層進(jìn)行多尺度檢測(cè)07.通過(guò)非極大值抑制獲得最終的預(yù)測(cè)框其中,步驟2)具體操作如下:將SSD模型中原有的VGG基礎(chǔ)網(wǎng)絡(luò)替換成MobileNetV2刪除MobileNetV2網(wǎng)絡(luò)的池化層和全連接層,添加額外卷積層block1~4確定金字塔特征層,分別為mobilenetv2中的bottleneck-6、bottleneck-13、bottleneck-17以及額外的block1步驟3)具體操作如下:確定融合的特征圖為bottleneck-6、bottleneck-13、bottleneck-17以及block1的輸出,融合的基礎(chǔ)層是bottleneck-13統(tǒng)一融合特征圖的大小將特征在通道上融合,并進(jìn)行歸一化,形成融合后的新特征圖featuremapblock以featuremapblock為基礎(chǔ)生成后續(xù)六個(gè)金字塔特征層featurelayer1~6特征融合算法偽代碼如表3.3所示:表3.3特征融合算法偽代碼算法2:特征融合算法輸入:帶有特征圖片的張量輸出:統(tǒng)一尺寸的特征圖01.輸入不同尺寸的特征圖02.用1×1卷積特征圖的維度變?yōu)?12;03.對(duì)小于bottleneck-6的特征圖采用均值法進(jìn)行上采樣,使其與bottleneck-6的特征圖尺寸一致04.對(duì)大于bottleneck-6的特征圖采用池化法進(jìn)行下采樣,使其與bottleneck-6的特征圖尺寸一致。05.對(duì)大于bottleneck-13的特征圖采用池化法進(jìn)行降采樣,使其與bottleneck-13的特征圖尺寸一致。3.5本章小結(jié)本章針對(duì)SSD算法在檢測(cè)速度和占用空間上的不足對(duì)其進(jìn)行改進(jìn),以達(dá)到算法可以滿足實(shí)時(shí)檢測(cè)的需求。首先對(duì)引入的MobileNetV2網(wǎng)絡(luò)性能進(jìn)行分析并將其作為SSD目標(biāo)檢測(cè)算法的特征提取網(wǎng)絡(luò);接著對(duì)多尺度檢測(cè)層改進(jìn)以提高對(duì)淺層圖像的利用;并嵌入SE-Net模塊對(duì)通道進(jìn)行加權(quán)提高對(duì)重要特征的重視程度。為下一章的的模型測(cè)試和實(shí)際應(yīng)用做了鋪墊。第4章實(shí)驗(yàn)及結(jié)果分析為了驗(yàn)證改進(jìn)的SSD算法在不同類別多目標(biāo)檢測(cè)任務(wù)中的優(yōu)越性,本章基于Tensorflow深度學(xué)習(xí)框架,在公用數(shù)據(jù)集圖片上對(duì)本文所設(shè)計(jì)模型和傳統(tǒng)模型進(jìn)行訓(xùn)練,對(duì)比各自的檢測(cè)結(jié)果并進(jìn)行主觀評(píng)價(jià)和客觀分析。4.1實(shí)驗(yàn)環(huán)境本研究使用的是keras深度學(xué)習(xí)框架和Pycharm編譯器完成實(shí)驗(yàn)的。Keras是一個(gè)由Python編寫的開源人工神經(jīng)網(wǎng)絡(luò)庫(kù),可以作為Tensorflow的高階應(yīng)用程序接口,進(jìn)行深度學(xué)習(xí)模型的設(shè)計(jì)、調(diào)試、評(píng)估、應(yīng)用和可視化。在代碼結(jié)構(gòu)上由面向?qū)ο蠓椒ň帉?,完全模塊化并具有可擴(kuò)展性,其運(yùn)行機(jī)制和說(shuō)明文檔將用戶體驗(yàn)和使用難度納入考慮,并簡(jiǎn)化了復(fù)雜算法的實(shí)現(xiàn)難度。Keras支持現(xiàn)代人工智能領(lǐng)域的主流算法,包括前饋結(jié)構(gòu)和遞歸結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),也可以通過(guò)封裝參與構(gòu)建統(tǒng)計(jì)學(xué)習(xí)模型。在硬件和開發(fā)環(huán)境方面,Keras支持多操作系統(tǒng)下的多GPU并行計(jì)算,可以根據(jù)后臺(tái)設(shè)置轉(zhuǎn)化為Tensorflow系統(tǒng)下的組件。本研究所選用的軟硬件環(huán)境如表4.1所示:表4.1軟硬件環(huán)境軟硬件名稱型號(hào)或版本中央處理器IntelCorei7-8700操作系統(tǒng)Windows1064位內(nèi)存16GB顯卡NVIDIAGTX2080語(yǔ)言Python3.6深度學(xué)習(xí)框架Tensorflow-gpu1.16.0在實(shí)驗(yàn)中,使用輔助工具CUDA9.0、卷積神經(jīng)網(wǎng)絡(luò)加速器cudnn7.0.5為深度學(xué)習(xí)框架進(jìn)行加速。4.2評(píng)價(jià)指標(biāo)一個(gè)優(yōu)秀的模型,需要從多個(gè)維度判斷模型的的性能是否良好。這時(shí)就需要要一些評(píng)價(jià)指標(biāo),將模型的好壞轉(zhuǎn)化成可以量化的指標(biāo)。幀率(Frames

PerSecondFPS)FPS表示一秒鐘能處理的圖片數(shù)量,值越大說(shuō)明算法的檢測(cè)速度越快。精確率、召回率精確率的含義是檢測(cè)正確的目標(biāo)在整個(gè)檢測(cè)結(jié)果中的比例,召回率的含義是檢測(cè)正確的數(shù)量占整個(gè)正樣本集的比例。精確率和召回率計(jì)算公式如下:(4-1)(4-2)其中,TP(TruePositive)代表正樣本被檢測(cè)為正類,F(xiàn)P(FalsePositive)代表負(fù)樣本被檢測(cè)為正類,F(xiàn)N(FalseNegative)代表正樣本被檢測(cè)為負(fù)類。P-R圖、平均精度(AP)、均值平均精度(mAP)P-R圖是以Precision值為縱坐標(biāo)、Recall值為橫坐標(biāo)繪制的曲線圖,通過(guò)調(diào)節(jié)識(shí)別閾值得到多組Precision和Recall值繪制而成,根據(jù)P-R曲線與坐標(biāo)軸圍成的面積,可以計(jì)算出模型的平均精度AP

(

Average

Precision),以此來(lái)評(píng)估目標(biāo)檢測(cè)算法的綜合性能,面積越大表示算法的綜合性能越好。若檢測(cè)任務(wù)需要對(duì)多類目標(biāo)進(jìn)行檢測(cè),則分別計(jì)算每一類的AP,然后取所有類別的AP平均值即可得到mAP。mAP綜合反映了算法的查準(zhǔn)率和查全率,值越大,說(shuō)明算法的整體性能越好。假設(shè)在一次檢測(cè)中待檢測(cè)的物體共有N個(gè)類別,則AP和mAP的計(jì)算公式分別如下式(4-3)(4-4)

本文使用矩形框的重疊率(IoU)來(lái)作為檢測(cè)結(jié)果準(zhǔn)確性的指標(biāo),它是網(wǎng)絡(luò)模型預(yù)測(cè)出來(lái)的矩形框與真實(shí)目標(biāo)的標(biāo)注框的重合度,值越大代表得到的矩形框越接真實(shí)物體。IoU

計(jì)算方法如式4-5(4-5)其中Bp為預(yù)測(cè)的矩形框,Be

為實(shí)際的標(biāo)注框。本文設(shè)定的IoU閾值為0.5。4.3數(shù)據(jù)集VOC數(shù)據(jù)集在進(jìn)行模型改進(jìn)的測(cè)試階段,本實(shí)驗(yàn)選擇的數(shù)據(jù)集為PASCAL

VOC數(shù)據(jù)集。VOC數(shù)據(jù)集來(lái)源于PASCALVOC可視化對(duì)象類挑戰(zhàn)賽,它整理收集了一些列的數(shù)據(jù)集,將深度學(xué)習(xí)任務(wù)劃分為:圖像分類任務(wù)、目標(biāo)檢測(cè)任務(wù)、語(yǔ)義分割任務(wù))等。PASCAL

VOC數(shù)據(jù)集圖片包括20個(gè)類別,所標(biāo)注的物體有人、動(dòng)物、交通工具、家具,目前擁有07和12兩個(gè)版本,該數(shù)據(jù)集中圖片標(biāo)注完整,圖像質(zhì)量好,可以很好的地用來(lái)測(cè)試算法的性能。圖4.1為該數(shù)據(jù)集中的一些圖片樣例。圖4.1VOC數(shù)據(jù)集圖片示例本研究只關(guān)注目標(biāo)檢測(cè)所涉及的標(biāo)注信息,圖4.2展示了文件路徑結(jié)構(gòu)。圖4.2VOC數(shù)據(jù)集路徑結(jié)構(gòu)文本文件train.txt、val.txt和test.txt分別存放的是訓(xùn)練集、驗(yàn)證集和測(cè)試集的文件名稱。標(biāo)注文件樣例如圖4.3所示。圖4.3VOC數(shù)據(jù)集標(biāo)注文件示例標(biāo)注文件都是xml標(biāo)記文本,bndbox標(biāo)簽表示對(duì)應(yīng)的filename標(biāo)簽圖片的邊界框標(biāo)注信息。UA-DETRAC數(shù)據(jù)集UA-DETRAC是一個(gè)生活場(chǎng)景的多目標(biāo)檢測(cè)數(shù)據(jù)集。該數(shù)據(jù)集包括在中國(guó)北京和天津的24個(gè)不同地點(diǎn)使用CannonEOS550D相機(jī)拍攝的10小時(shí)視頻。視頻以每秒25幀(fps)的速度錄制,分辨率為960×540像素。UA-DETRAC數(shù)據(jù)集中有超過(guò)14萬(wàn)個(gè)幀,手動(dòng)注釋了8250個(gè)車輛,總共有121萬(wàn)個(gè)標(biāo)記的對(duì)象邊界框。圖4.4為該數(shù)據(jù)集的文件路徑結(jié)構(gòu)。圖4.4UA-DETRAC數(shù)據(jù)集路徑結(jié)構(gòu)標(biāo)簽是XML格式,且一個(gè)xml對(duì)應(yīng)一個(gè)視頻序列,每一個(gè)xml內(nèi)容包含該視頻序列中所有幀的標(biāo)注信息。標(biāo)注的評(píng)估指標(biāo)包括:車輛ID,box坐標(biāo),以及一些屬性:方向,速度,軌跡長(zhǎng)度,遮擋率,車輛類別。評(píng)估指標(biāo)的統(tǒng)計(jì)如圖4.5所示。圖4.5UA-DETRAC標(biāo)注信息統(tǒng)計(jì)其中車輛分為四類,即轎車、公共汽車、廂式貨車和其他車輛;天氣情況分為四類,即多云、夜間、晴天和雨天;標(biāo)注的車輛的尺度定義為其像素面積的平方根。將車輛分為三種規(guī)模:小型(0-50像素)、中型(50-150像素)和大型(大于150像素)。遮擋比我們使用車輛包圍框被遮擋的比例來(lái)定義遮擋的程度;遮擋程度分為三類:無(wú)遮擋、部分遮擋和重遮擋。具體來(lái)說(shuō),定義了部分遮擋(如果車輛遮擋率在1%-50%之間)和重遮擋(如果遮擋率大于50%);截尾率表示車輛部件在幀外的程度,用于訓(xùn)練樣本的選擇。數(shù)據(jù)集預(yù)處理本實(shí)驗(yàn)需要VOC格式的數(shù)據(jù)作為輸入,原數(shù)據(jù)是UA-DETRAC格式,因此需要進(jìn)行一個(gè)轉(zhuǎn)換,從UA-DETRAC的標(biāo)注樣式轉(zhuǎn)換到VOC的標(biāo)注樣式。去除了天氣,截尾率,背景的目標(biāo)軌跡等標(biāo)注信息,只保留了與目標(biāo)檢測(cè)相關(guān)的標(biāo)注信息,xml標(biāo)注文件也去除了圖片的路徑、來(lái)源、分割、遮擋等無(wú)關(guān)的標(biāo)注信息。預(yù)處理出30k張不同的圖片用于訓(xùn)練,其中60%的訓(xùn)練集,20%的驗(yàn)證集,和20%的測(cè)試集。4.4算法流程車輛檢測(cè)總流程車輛檢測(cè)流程圖如圖4.6所示。圖4.6車輛檢測(cè)流程圖在進(jìn)行車輛檢測(cè)時(shí),首先進(jìn)行訓(xùn)練,將數(shù)據(jù)集UA-DETRAC的標(biāo)注文件轉(zhuǎn)化成所需要的VOC格式,輸入到網(wǎng)絡(luò)中;對(duì)輸入數(shù)據(jù)進(jìn)行特征提取,訓(xùn)練分類器;通過(guò)非極大值抑制算法去除冗余框;重復(fù)訓(xùn)練進(jìn)行模型的權(quán)重調(diào)整得到比較優(yōu)秀的權(quán)重文件。再進(jìn)行測(cè)試,將測(cè)試集輸入到網(wǎng)絡(luò)中,用訓(xùn)練生成的網(wǎng)絡(luò)進(jìn)行檢測(cè);得到檢測(cè)的分類和邊界框的位置;通過(guò)非極大值抑制算法去除冗余框得到檢測(cè)結(jié)果。改進(jìn)SSD算法流程圖改進(jìn)SSD車輛檢測(cè)算法流程圖如圖4.7所示。圖4.7改進(jìn)SSD算法流程圖在改進(jìn)后的SSD算法中,首先進(jìn)行輸入圖片的讀??;經(jīng)過(guò)MobileNetV2網(wǎng)絡(luò)進(jìn)行特征提??;將特征提取網(wǎng)絡(luò)的部分層進(jìn)行特征融合;對(duì)特征融合后的層進(jìn)行卷積操作生成多尺度檢測(cè)層;對(duì)多尺度檢測(cè)層進(jìn)行通道注意力機(jī)制加權(quán)后再進(jìn)行回歸檢測(cè);對(duì)回歸檢測(cè)的結(jié)果使用非極大值抑制算法去除冗余;輸出檢測(cè)結(jié)果。4.5實(shí)驗(yàn)結(jié)果本研究在VOC數(shù)據(jù)集上評(píng)估模型泛化能力。在UA-DETRAC進(jìn)行車輛檢測(cè)。UA-DETRAC數(shù)據(jù)集包含了大約30k張訓(xùn)練圖像,10k張驗(yàn)證圖像和10k張測(cè)試圖像,這些圖像的共同特征是只包含一個(gè)目標(biāo)類別,即車輛。VOC數(shù)據(jù)集模型評(píng)估對(duì)于VOC數(shù)據(jù)集,本研究從均值平均精度(mAP)、參數(shù)量(Parans)

、幀率(FPS)

三個(gè)方面對(duì)改進(jìn)前后SSD模型的性能進(jìn)行評(píng)價(jià),并用表格展示不同算法在該數(shù)據(jù)集上的客觀評(píng)價(jià)結(jié)果。

表4.2展示了傳統(tǒng)SSD和本文算法在VOC0712數(shù)據(jù)集上的性能指標(biāo)。表4.2性能指標(biāo)對(duì)比算法平均精度(%)參數(shù)量(MB)幀率(FPS)傳統(tǒng)SSD算法76.4100.352本文算法7934.8108平均精度表示對(duì)所有類別的檢測(cè)精度,值越高說(shuō)明檢測(cè)結(jié)果越準(zhǔn)確,Params

表示模型的參數(shù)量,其大小由模型文件的內(nèi)存占有大小來(lái)表示,值越小表模型越簡(jiǎn)單,計(jì)算量越小。由表中結(jié)果可以看出本文算法的檢測(cè)精度超過(guò)了傳統(tǒng)SSD算法2.6個(gè)百分點(diǎn),說(shuō)明這里提出的改進(jìn)方法是有效的,即倒置殘差塊和特征融合的引入能彌補(bǔ)深度分離卷積帶來(lái)的精度損失。并且本文算法在參數(shù)量和檢測(cè)速度指標(biāo)上均有巨大提升,說(shuō)明本文設(shè)計(jì)的模型在一些算力不強(qiáng)的設(shè)備上或?qū)z測(cè)實(shí)時(shí)性需求較高的場(chǎng)景有著極大的實(shí)際應(yīng)用價(jià)值。為了進(jìn)一步分析每種算法對(duì)不同類別的檢測(cè)效果,表4.3列出了兩種算法在VOC0712test數(shù)據(jù)集上的詳細(xì)檢測(cè)結(jié)果。表4.3VOC數(shù)據(jù)集測(cè)試詳細(xì)結(jié)果KindMethod傳統(tǒng)SSD算法本文算法mAP76.479aeroplane78.881.5bicycle83.787.1bird75.578.1boat6870.5bottle48.647.9bus86.789.1car84.387.6cat87.791.2(續(xù)表4.3)KindMethod傳統(tǒng)SSD算法本文算法chair58.259.4cow79.582.2diningtable73.877.5dog85.889.6horse87.490.1motorbike82.785.9person77.480.3pottedplant51.251sheep76.980.3sofa79.582.8train86.489.7tvmonitor75.778.5第一列代表20種類別的名稱,第二、三列代表兩種算法的檢測(cè)精度,第二行mAP代表算法對(duì)所有類別的均值平均精度,第三行到最后一行是VOC數(shù)據(jù)集20類物體每一類的檢測(cè)精度。由上表可以看出,本文算法相比傳統(tǒng)SSD算法在不同大小物體的檢測(cè)精度上均有著較大的提升。UA-DETRAC數(shù)據(jù)集模型應(yīng)用本研究對(duì)對(duì)UA-DETRAC數(shù)據(jù)集中的測(cè)試集圖片的檢測(cè)結(jié)果進(jìn)行性能分析,將改進(jìn)后的MobileNetV2-SSD算法與傳統(tǒng)SSD算法在測(cè)試集上的檢測(cè)性能進(jìn)行對(duì)比,表4.4展示了這兩種算法的對(duì)比結(jié)果。表4.4性能指標(biāo)對(duì)比算法AP(%)參數(shù)量(MB)幀率(FPS)傳統(tǒng)SSD算法87.9100.347本文算法90.232.8102由表可知,改進(jìn)后的MobileNetV2-SSD模型在車輛檢測(cè)數(shù)據(jù)集上取得了的90.2%準(zhǔn)確度指標(biāo)和102FPS的速度指標(biāo),同時(shí)模型有著最小的占用內(nèi)存,意味著模型的計(jì)算量較小,能夠很方便地移植到嵌入式或移動(dòng)端等算力較小的設(shè)備中,具有一定的實(shí)用價(jià)值。相比傳統(tǒng)的SSD模型,本文所設(shè)計(jì)的模型在提高了檢測(cè)精度的同時(shí),大大加快了對(duì)每張圖片的檢測(cè)速度。4.6本章小結(jié)本章首先對(duì)檢測(cè)環(huán)境進(jìn)行搭建,并處理車輛數(shù)據(jù)集,對(duì)車輛檢測(cè)流程進(jìn)行分析,再利用上一章構(gòu)建的改進(jìn)MobileNetV2-SSD模型在數(shù)據(jù)集上進(jìn)行參數(shù)調(diào)試實(shí)驗(yàn),最后對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行可視化分析并綜合對(duì)比傳統(tǒng)SSD與本文改進(jìn)算法在車輛檢測(cè)數(shù)據(jù)集上的性能比較,結(jié)果表明改進(jìn)后的模型在檢測(cè)速度大大加快的基礎(chǔ)上對(duì)精測(cè)精度也有一定的提升,并且模型占用空間較小,有實(shí)時(shí)應(yīng)用的可能。第5章總結(jié)與展望5.1總結(jié)本文主要研究?jī)?nèi)容為基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法及其在車輛檢測(cè)中的應(yīng)用,針對(duì)如何提高模型的檢測(cè)速度和精度的問題,從特征提取網(wǎng)絡(luò)與特征融合兩方面對(duì)模型進(jìn)行改進(jìn)。首先,引入MobileNetV2對(duì)SSD網(wǎng)絡(luò)模型進(jìn)行改進(jìn),然后利用該網(wǎng)絡(luò)模型分別對(duì)VOC數(shù)據(jù)集和車輛檢測(cè)數(shù)據(jù)集進(jìn)行測(cè)試并分析模型的檢測(cè)性能。主要工作如下首先通過(guò)綜述分析了國(guó)內(nèi)外學(xué)者對(duì)目標(biāo)檢測(cè)技術(shù)的研究現(xiàn)狀,并主要對(duì)特征提取、邊框回歸、非極大值抑制等問題進(jìn)行研究;以SSD模型為基礎(chǔ)對(duì)模型進(jìn)行優(yōu)化:首先引入了MobileNetV2網(wǎng)絡(luò)中的深度可分離卷積和倒置殘差塊結(jié)構(gòu)來(lái)解決特征提取層計(jì)算量大和信息丟失的問題:對(duì)特征提取網(wǎng)絡(luò)中的部分層進(jìn)行特征融合;最后進(jìn)行多尺度目標(biāo)檢測(cè);利用Tensorflow框架在VOC數(shù)據(jù)集上對(duì)改進(jìn)后的算法進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明,本文所提出的改進(jìn)算法在檢測(cè)精度和速度上均有良好的表現(xiàn);利用改進(jìn)的SSD車輛檢測(cè)模型對(duì)測(cè)試集圖片進(jìn)行檢測(cè),最終取得了90.2%的AP指標(biāo),證明了本文車輛檢測(cè)模型有著較好的檢測(cè)性能。5.2展望本文在基于輕量化卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法上已經(jīng)完成一定的應(yīng)用研究工作,但是受到學(xué)術(shù)水平和資源條件所限,還存在許多不足有待改進(jìn):對(duì)于小目標(biāo)檢測(cè)的效果還有待提升,本文所提出的算法在很小的目標(biāo)上檢測(cè)效果不是很理想。因此需要對(duì)算法進(jìn)一步研究,采用新的算法來(lái)學(xué)習(xí)小目標(biāo)的特征;本次實(shí)驗(yàn)只對(duì)監(jiān)控視角的車輛目標(biāo)進(jìn)行了檢測(cè),對(duì)車輛側(cè)方后方等未進(jìn)行更加詳細(xì)的測(cè)試,當(dāng)實(shí)際應(yīng)用在無(wú)人駕駛車輛的車輛自動(dòng)化控制時(shí)會(huì)存在一定的缺陷。因此還需要再添加不同環(huán)境下的更多角度物體來(lái)增強(qiáng)模型的可用性;本次實(shí)驗(yàn)只對(duì)1個(gè)類別的目標(biāo)進(jìn)行了檢測(cè),使用的圖片數(shù)量也有限,考慮到存在一定的類內(nèi)差異,因此數(shù)據(jù)集的規(guī)模還不夠大,存在過(guò)擬合的情況。因此還需要再添加更多類別物體來(lái)增強(qiáng)模型的魯棒性。參考文獻(xiàn)卞山峰,張慶輝,等.基于改進(jìn)YOLOv2的車輛檢測(cè)實(shí)時(shí)算法[J].電子質(zhì)量,2019,10:19-22.周馬莉.基于視覺的無(wú)人駕駛車前方車輛檢測(cè)方法研究與實(shí)現(xiàn)[D].南京:南京理工大學(xué),2018.Fu

CY,Liu

W,Ranga

A,et

al.DSSD:Deconvolutional

single

shot

detector[C]

.arXivpreprintarXiv:1701.06659ShenZhiqiang,LiuZhuang,LiJianguo,etal.DSOD:LearningDeeplySupervisedObjectDetectorsfromScratch[C].arXivpreprintarXiv:1708.01241.LinTsung-Yi,GoyalPriya,GirshickRoss,etal.FocalLossforDenseObjectDetection[C].arXivpreprintarXiv:1708.02002.IandolaForrestN.,HanSong,etal.SqueezeNet:AlexNet-levelaccuracywith50xfewerparametersand<0.5MBmodelsize[C].arXivpreprintarXiv:1602.07360.裴明濤,沈佳峻,楊敏,等.復(fù)雜光照環(huán)境下的車輛檢測(cè)方法[J].北京理工大學(xué)學(xué)報(bào),2016,36(04):393-398.周行,陳淑榮.一種基于多特征融合級(jí)聯(lián)分類器的車輛檢測(cè)算法[J].現(xiàn)代計(jì)算機(jī),2018(17):38-43.王斌,顧銀娟.基于FPN的航空?qǐng)D像車輛檢測(cè)技術(shù)研究[J].工業(yè)工程控制計(jì)算機(jī),2020,33(7):88-90.吳水清,王宇,師巖.基于SSD的車輛目標(biāo)檢測(cè)[J].計(jì)算機(jī)與現(xiàn)代化,2019(05):35-40.劉肯,何姣姣,張永平,姚拓中,常志國(guó).改進(jìn)YOLO的車輛檢測(cè)算法[J].現(xiàn)代電子技術(shù),2019,42(13):47-50.黎向鋒,趙偉康,豆心愿,等.基于改進(jìn)AdaBoost+Haar的車輛檢測(cè)算法[J].測(cè)控技術(shù),2019,38(2):42-45.譚龍,高昂.感受野特征增強(qiáng)的SSD目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2020,29(9):149-155.RedmonJ,DivvalaS,GirshickR,etal.Youonlylookonce:unified,real-timeobjectdetection[C].//ProceedingsofComputerVisionandPatternRecognition,2016:779-788.GirshickR.FastR-CNN[M].//ProceedingsoftheEuropeanConferenceonComputerVisionandPatternRecognition,2015.LiuW,AnguelovD,ErhanD,etal.SSD:SingleShotMultiBoxDector[C]//ProceedingsoftheEuropeanConferenceonComputerVision,2016:21-37.附錄附錄1SSD算法改進(jìn)部分def_depthwise_conv_block(inputs,pointwise_conv_filters,depth_multiplier=1,strides=(1,1),block_id=1):#深度可分離卷積x=DepthwiseConv2D((3,3),padding='same',depth_multiplier=depth_multiplier,strides=strides,use_bias=False,name='conv_dw_%d'%block_id)(inputs)x=BatchNormalization(name='conv_dw_%d_bn'%block_id)(x)x=Activation(relu6,name='conv_dw_%d_relu'%block_id)(x)x=Conv2D(pointwise_conv_filters,(1,1),padding='same',use_bias=False,strides=(1,1),name='conv_pw_%d'%block_id)(x)x=BatchNormalization(name='conv_pw_%d_bn'%block_id)(x)returnActivation(relu6,name='conv_pw_%d_relu'%block_id)(x)def_bottleneck(inputs,filters,kernel,t,s,r=False):#線性瓶頸channel_axis=1ifK.image_data_format()=='channels_first'else-1tchannel=K.int_shape(inputs)[channel_axis]*tx=_conv_block(inputs,tchannel,(1,1),(1,1))x=DepthwiseConv2D(kernel,strides=(s,s),depth_multiplier=1,padding='same')(x)x=BatchNormalization(axis=channel_axis)(x)x=Activation(relu6)(x)x=Conv2D(filters,(1,1),strides=(1,1),padding='same')(x)x=BatchNormalization(axis=channel_axis)(x)ifr:x=add([x,inputs])returnxdef_inverted_residual_block(inputs,filters,kernel,t,strides,n):#倒置殘差結(jié)構(gòu)x=_bottleneck(inputs,filters,kernel,t,strides)foriinrange(1,n):x=_bottleneck(x,filters,kernel,t,1,True)returnxdefrelu6(x):re

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論