版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
基于屬性的判別式目標(biāo)跟蹤算法性能比較分析案例目錄TOC\o"1-3"\h\u32644基于屬性的判別式目標(biāo)跟蹤算法性能比較分析案例 1258181.1引言 186761.2算法介紹 180191.2.1改進(jìn)的相關(guān)濾波類目標(biāo)跟蹤算法 2220911.2.2改進(jìn)的深度學(xué)習(xí)類目標(biāo)跟蹤算法 6319431.3基于屬性的判別式目標(biāo)跟蹤算法性能比較分析 9234511.3.1跟蹤精確度 9273801.3.2跟蹤速度 171.1引言目標(biāo)跟蹤作為當(dāng)前眾多應(yīng)用領(lǐng)域的關(guān)鍵技術(shù),近年來得到了研究者們的廣泛關(guān)注,成為當(dāng)前的研究熱點(diǎn)之一。在基于判別式分類器的目標(biāo)跟蹤算法中,相關(guān)濾波框架和深度學(xué)習(xí)框架下的兩種算法逐漸成為主要研究方向,且分別在跟蹤速度和跟蹤精度中各具優(yōu)勢(shì)。目前的各種跟蹤算法各有千秋,也出現(xiàn)了不少關(guān)于這些目標(biāo)跟蹤算法的總體性能比較,但是這些比較全都是基于算法整體性能的對(duì)比,沒有針對(duì)不同跟蹤算法在不同挑戰(zhàn)屬性下的深入研究分析。然而在不同的硬件條件和不同實(shí)際應(yīng)用場(chǎng)景下如何更好的選擇合理且高效的跟蹤算法至關(guān)重要。因此,本章以相關(guān)濾波類目標(biāo)跟蹤算法和深度學(xué)習(xí)類跟蹤算法為對(duì)象,介紹了六種基于這兩種框架改進(jìn)的具有代表性且典型的目標(biāo)跟蹤算法,對(duì)跟蹤算法在不同挑戰(zhàn)屬性下的跟蹤性能進(jìn)行深入的比較分析研究。實(shí)驗(yàn)并分析了在精度和速度的不同需求下,相關(guān)濾波類目標(biāo)跟蹤算法和深度學(xué)習(xí)類目標(biāo)跟蹤算法基于OTB數(shù)據(jù)集中11種屬性的適用性,以此為用戶根據(jù)具體的實(shí)際應(yīng)用場(chǎng)景條件的差異,在不同場(chǎng)合下選擇合理高效的跟蹤算法提供選擇依據(jù)。1.2算法介紹近幾年,由于相關(guān)濾波和深度學(xué)習(xí)的快速發(fā)展,基于這兩種框架改進(jìn)的判別式目標(biāo)跟蹤算法有很多,本節(jié)對(duì)基于相關(guān)濾波和深度學(xué)習(xí)這兩個(gè)框架下的幾個(gè)經(jīng)典算法以及改進(jìn)算法進(jìn)行介紹,并在下節(jié)中對(duì)這些算法進(jìn)行基于屬性的適用性比較分析。1.2.1改進(jìn)的相關(guān)濾波類目標(biāo)跟蹤算法SRDCF算法和DeepSRDCF算法SRDCF算法(空間正則化判別相關(guān)濾波器)是基于DCF判別式相關(guān)濾波器的改進(jìn)方法。由于相關(guān)濾波方法中的傅里葉變換過程會(huì)將處理的圖像窗口邊緣進(jìn)行循環(huán)拼接,導(dǎo)致圖像邊緣處不連續(xù),從而產(chǎn)生邊界效應(yīng)。因此SRDCF算法主要的改進(jìn)是對(duì)濾波器進(jìn)行時(shí)域上的正則化處理,以此來削弱背景的干擾。邊界效應(yīng)具體是指:尋找濾波器模板的過程相當(dāng)于對(duì)濾波器進(jìn)行訓(xùn)練,為了加快訓(xùn)練過程,相關(guān)濾波通過傅里葉變化將時(shí)域上的計(jì)算轉(zhuǎn)化到頻域中,在轉(zhuǎn)化過程中遇到圖像的邊緣信號(hào)處就對(duì)其進(jìn)行循環(huán)拼接,但是邊緣處的信號(hào)在圖像上并不具有連續(xù)性。因此當(dāng)目標(biāo)的基礎(chǔ)樣本循環(huán)移位產(chǎn)生負(fù)樣本時(shí),在視頻圖像幀的邊界處容易產(chǎn)生邊界效應(yīng),且越靠近邊界處,正則化系數(shù)越大,因此需要對(duì)這些地方的濾波器信號(hào)進(jìn)行削弱處理,從而減小目標(biāo)邊緣附近樣本對(duì)濾波器的影響。(a)SRDCF(b)標(biāo)準(zhǔn)DCF圖4-1SRDCF與標(biāo)準(zhǔn)DCF響應(yīng)結(jié)果的對(duì)比Figure4-1ComparisonofSRDCFandstandardDCFresponseresults圖4-1顯示了濾波器和用于訓(xùn)練的圖像區(qū)域的響應(yīng)圖。在標(biāo)準(zhǔn)DCF中,將較高的值分配給背景區(qū)域(右邊的圖),因此就會(huì)導(dǎo)致在檢測(cè)階段背景信息的較大影響會(huì)降低跟蹤性能。而在SRDCF算法中,正則化權(quán)重懲罰與背景中的特征相對(duì)應(yīng),通過強(qiáng)調(diào)目標(biāo)區(qū)域(綠色框)內(nèi)的外觀信息增加了學(xué)習(xí)模型的判別能力。SRDCF算法定義新的誤差函數(shù)形式:(4-1)其中表示樣本,為添加的正則系數(shù)矩陣,為濾波器模板系數(shù),表示第個(gè)濾波器通道,主要是在誤差函數(shù)中添加一個(gè)空間權(quán)值系數(shù)來懲罰距離目標(biāo)中心較遠(yuǎn)的樣本。圖4-2SRDCF中權(quán)重的可視化Figure4-2VisualizationofSRDCF如圖4-2所示,在學(xué)習(xí)SRDCF時(shí)使用的空間正則化權(quán)重的可視化,以及用于訓(xùn)練的相應(yīng)圖像區(qū)域。通過在中分配較高的權(quán)重,可對(duì)位于背景區(qū)域的濾波器系數(shù)進(jìn)行懲罰。這顯著減輕了學(xué)習(xí)的分類器中對(duì)背景信息的強(qiáng)調(diào)。對(duì)式4-1的誤差函數(shù)做傅里葉變換,經(jīng)過帕斯瓦爾定理處理和參數(shù)向量化,然后再通過向量化和塊對(duì)角化操作將對(duì)通道的求和符號(hào)去掉最終可得到誤差函數(shù)的簡(jiǎn)潔表示形式如式(4-2):(4-2)對(duì)式4-2中的求導(dǎo)得到的極值就是目標(biāo)的位置。另外,SRDCF算法還采用不同的尺度搜索來解決跟蹤過程中的尺度變化問題;在特征提取上通過融合31維的HOG特征和11維的CN特征來對(duì)目標(biāo)信息進(jìn)行更準(zhǔn)確地表達(dá);在求解相關(guān)濾波響應(yīng)時(shí),利用迭代的Gauss-Seidel方法進(jìn)行在線學(xué)習(xí)。最主要的還是通過空間正則化方法改善了相關(guān)濾波類目標(biāo)跟蹤算法一直存在的邊界效應(yīng)問題,使得算法在目標(biāo)快速運(yùn)動(dòng)時(shí)的準(zhǔn)確性和穩(wěn)定性有所提高。DeepSRDCF算法是在SRDCF算法的基礎(chǔ)上將31維的HOG特征和11維的CN特征的融合特征替換為預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)imagenet-vgg-m-2048所提取的深度特征。imagenet-vgg-m-2048是在大規(guī)模數(shù)據(jù)集ImageNet上訓(xùn)練的用于分類任務(wù)的深度卷積神經(jīng)網(wǎng)絡(luò),包含5個(gè)卷積層和3個(gè)全連接層。表4-1為從imagenet-vgg-m-2048網(wǎng)絡(luò)中提取的每層卷積特征的空間大小和維數(shù)。Layer0表示輸入的RGB圖像。表4-1imagenet-vgg-m-2048每層卷積特征的空間大小和維數(shù)Table4-1Thespatialsizeanddimensionofeachlayerofconvolutionalfeatures輸入層Conv1層Conv2層Conv3層Conv4層Conv5層空間大小224*224109*10926*2613*1313*1313*13維數(shù)396256512512512DeepSRDCF算法中作者使用的是第一層的卷積特征作為目標(biāo)跟蹤過程中的特征表達(dá)。CCOT和ECO算法CCOT算法(學(xué)習(xí)連續(xù)卷積運(yùn)算符進(jìn)行視覺跟蹤)也是基于KCF算法改進(jìn)。KCF算法的跟蹤速度已經(jīng)達(dá)到了實(shí)時(shí)跟蹤,然而精確的目標(biāo)外觀模型是目標(biāo)跟蹤實(shí)現(xiàn)穩(wěn)定跟蹤的基礎(chǔ),所以我們希望建立的目標(biāo)模型越精確越好,包含的目標(biāo)信息越豐富越好。因此CCOT將KCF中的人工特征替換為了imagenet-vgg-m-2048提取的深度特征,但是由于不同特征層的分辨率不同,無法將不同分辨率的特征通道直接進(jìn)行融合,因此CCOT算法中通過三次樣條函數(shù)進(jìn)行插值處理,將其擴(kuò)展到同一周期的連續(xù)空間域,繼而實(shí)現(xiàn)亞像素精度的定位。多分辨率深度特征圖插值處理如圖4-3所示,特征圖(第一列)由輸入的RGB色塊以及imagenet-vgg-m-2048深度網(wǎng)絡(luò)的第一和最后一個(gè)卷積層組成。第二列為可視化的學(xué)習(xí)后的連續(xù)卷積濾波器。每層(第三列)的最終連續(xù)卷積輸出將合并到目標(biāo)(綠色框)的最終連續(xù)置信度函數(shù)(第四列)中。圖4-3多分辨率深度特征圖插值處理示意圖Fig4-3multi-resolutiondepthfeaturemapinterpolationprocessingCCOT算法通過插值將每層特征轉(zhuǎn)換到連續(xù)的空間域,如下所示:(4-3)其中式子左邊為第個(gè)通道的連續(xù)域特征圖,是第層特征,是第層特征的列數(shù),是權(quán)重,插值操作不改變特征圖的分辨率。隨后將各個(gè)特征圖和濾波器進(jìn)行卷積操作,得到不同分辨率的響應(yīng)圖,再通過頻域添0的方式插值到相同分辨率就可以進(jìn)行求和得到最終響應(yīng)圖。最后在得到的響應(yīng)圖中尋找響應(yīng)最大的位置即為目標(biāo)的位置。CCOT算法采用更為精確的三次樣條插值,沒有冗余數(shù)據(jù)的產(chǎn)生,更加適合集成不同分辨率的特征圖。ECO算法是在CCOT算法的基礎(chǔ)上,以提高時(shí)間效率和空間效率為出發(fā)點(diǎn)來解決CCOT算法中的計(jì)算復(fù)雜性和過擬合這兩個(gè)問題,主要進(jìn)行以下三個(gè)方面的改進(jìn):特征提取方面的改變:由于高維特征圖的集成會(huì)導(dǎo)致參數(shù)數(shù)量的增加,CCOT算法每次進(jìn)行在線跟蹤時(shí),需要計(jì)算大約80多萬個(gè)參數(shù)。另外C-COT是每個(gè)維度的特征對(duì)應(yīng)一個(gè)濾波器,特征維度越多,對(duì)應(yīng)的濾波器也越多,然而并不是所有的濾波器都有著很大的貢獻(xiàn)。因此ECO算法用了原來特征的子集,從原始維度的特征中根據(jù)閾值選取貢獻(xiàn)較大的一些特征,然后每一維特征用濾波器的線性組合來表示。如圖4-3所示。CCOTECO圖4-3C-COT和ECO濾波器對(duì)比Figure4-3ComparisonofC-COTandECOfilters訓(xùn)練集的改變:相關(guān)濾波跟蹤器在跟蹤過程中需要對(duì)模型進(jìn)行更新,因此就需要生成一個(gè)訓(xùn)練樣本集來對(duì)模型進(jìn)行實(shí)時(shí)更新。但是由于硬件資源的限制,實(shí)際使用中并沒有很足夠的內(nèi)存空間以供使用。如圖4-4所示,底下為C-COT的訓(xùn)練集,采用的策略是每更新一幀就給訓(xùn)練集中引入一個(gè)樣本,如果當(dāng)連續(xù)幾幀目標(biāo)的外觀姿態(tài)變化不大時(shí),這些樣本就具有一定的重復(fù)性,采用這些樣本進(jìn)行訓(xùn)練更新容易導(dǎo)致過擬合。上面是ECO改進(jìn)后的訓(xùn)練集,ECO采用的策略是用高斯混合模型(GMM)來生成不同的樣本池,每一個(gè)樣本池里面集合了一組外觀姿態(tài)相似的目標(biāo)樣本,不同的樣本池之間又有著較大的差異性,提高了訓(xùn)練集的差異性。圖4-4ECO和C_COT訓(xùn)練集的對(duì)比Figure4-4ComparisonofECOandC_COTtrainingsets模型更新策略的改變:絕大多數(shù)基于相關(guān)濾波的跟蹤器采用每一幀都嚴(yán)格更新的策略。但是在尺度變化、目標(biāo)變形和平面外的旋轉(zhuǎn)等一些挑戰(zhàn)屬性下當(dāng)目標(biāo)突然發(fā)生較大外觀姿態(tài)的變化時(shí),過度的更新策略會(huì)是的跟蹤算法的魯棒性降低。ECO設(shè)定每隔N幀更新一次,模型更新頻率的降低可以節(jié)約算法的運(yùn)行時(shí)間,并且可以避免模型的漂移問題,一定程度上改進(jìn)了跟蹤效果。1.2.2改進(jìn)的深度學(xué)習(xí)類目標(biāo)跟蹤算法(1)MDNet算法MDNet算法(用于目標(biāo)跟蹤的多域網(wǎng)絡(luò))是基于卷積神經(jīng)網(wǎng)絡(luò)的一種改進(jìn)的深度學(xué)習(xí)算法。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)并沒有在跟蹤領(lǐng)域顯示出較大優(yōu)勢(shì),這主要是因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)的訓(xùn)練離不開大量數(shù)據(jù),常用的網(wǎng)絡(luò)如VGG一般是在分類檢測(cè)數(shù)據(jù)集(ImageNet)上進(jìn)行網(wǎng)絡(luò)的離線訓(xùn)練學(xué)習(xí)過程(比如1.2.1節(jié)中用到的imagenet-vgg網(wǎng)絡(luò)),然后通過遷移學(xué)習(xí)將其應(yīng)用到跟蹤問題中。然而即使是在擁有海量訓(xùn)練樣本的分類檢測(cè)數(shù)據(jù)集上深度學(xué)習(xí)的網(wǎng)絡(luò)模型仍然不能很好的應(yīng)用在目標(biāo)跟蹤技術(shù)中,因?yàn)榉诸惡透櫴莾蓚€(gè)不同的研究問題。跟蹤中我們只需區(qū)分目標(biāo)和背景,過深的卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)定位并沒有太大幫助,因?yàn)橐曨l幀的空間信息隨著網(wǎng)絡(luò)加深分辨率越來越低,且目標(biāo)相對(duì)于背景一般都比較小,過大過深的網(wǎng)絡(luò)還會(huì)增加計(jì)算負(fù)擔(dān)。因此MDNet算法構(gòu)建了一種新的簡(jiǎn)單的網(wǎng)絡(luò)結(jié)構(gòu),如圖4-5所示:圖4-5MDNet的網(wǎng)絡(luò)結(jié)構(gòu)Figure4-5NetworkstructureofMDNet輸入層為107*107的RGB圖像。隱含層conv1-3來自VGG-M網(wǎng)絡(luò)中的卷積層,每?jī)蓚€(gè)卷積層之間還加入了池化層、激活層和歸一層;全連接層fc4-5之間還有dropout層(丟棄一些冗余特征);輸出層fc6是一個(gè)二分類層,有多少個(gè)訓(xùn)練視頻就對(duì)應(yīng)多少了分支,當(dāng)進(jìn)行單個(gè)視頻序列的跟蹤時(shí),分支為1。在線跟蹤過程以上一幀目標(biāo)位置為中心,采用多維高斯分布進(jìn)行候選樣本的獲取,將這些樣本統(tǒng)一為107*107的大小,分別作為網(wǎng)絡(luò)的輸入進(jìn)行計(jì)算。網(wǎng)絡(luò)輸出是一個(gè)二維向量,分別表示輸入樣本對(duì)應(yīng)目標(biāo)和背景的概率,該概率被作為置信度。根據(jù)式4-4選擇置信度最大的候選樣本作為當(dāng)前幀的最優(yōu)位置:(4-4)其中表示候選樣本是目標(biāo)的概率。MDNet算法在跟蹤過程中采用的模型更新策略是長(zhǎng)期(long-term)和短期(short-term)結(jié)合的更新方式,并用隨機(jī)梯度下降法(SGD)來對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào)。長(zhǎng)期更新對(duì)應(yīng)先前幀中的一百個(gè)樣本,超過一百個(gè)就將最早的樣本丟棄,每隔8幀跟新一次;短期更新對(duì)應(yīng)二十個(gè)樣本,當(dāng)目標(biāo)置信度低于0.5時(shí)進(jìn)行更新。MDNet算法中還用了困難負(fù)樣本挖掘技術(shù)(hardminibatchmining)來解決負(fù)樣本不足造成的網(wǎng)絡(luò)對(duì)目標(biāo)和背景沒有很好的區(qū)別能力的問題,通過將hardminibatchmining技術(shù)將采集到的負(fù)樣本整合到訓(xùn)練樣本中,這樣在每次訓(xùn)練時(shí)就會(huì)有正樣本和既包含背景又包含目標(biāo)的負(fù)樣本,使得模型對(duì)目標(biāo)和背景具有更強(qiáng)的分辨力。MDNet算法還通過邊界框回歸對(duì)樣本進(jìn)行平移和尺度縮放,使得算法對(duì)目標(biāo)的定位更加準(zhǔn)確。(2)SiamFC算法SiamFC(用于目標(biāo)跟蹤的全卷積孿生網(wǎng)絡(luò))使得基于孿生網(wǎng)絡(luò)的跟蹤器正式進(jìn)入研究者們視野。網(wǎng)絡(luò)的訓(xùn)練是以端到端的形式在視頻數(shù)據(jù)集ILSVRC15上訓(xùn)練得到,跟蹤過程看作是一種圖像塊的匹配任務(wù),因此在在線跟蹤過程中并不更新目標(biāo)模板和網(wǎng)絡(luò)權(quán)值。網(wǎng)絡(luò)結(jié)構(gòu)如圖4-6所示,該網(wǎng)絡(luò)由模板分支(上)和匹配分支(下)組成。模板分支將初始幀給定的目標(biāo)框作為輸入,這是因?yàn)榈谝粠哪繕?biāo)框是先給定的最準(zhǔn)確的邊界框。匹配分支在后續(xù)幀中以當(dāng)前目標(biāo)為中心進(jìn)行區(qū)域裁剪,將裁剪后的區(qū)域作為輸入。模板分支和匹配分支的參數(shù)是共享的,孿生網(wǎng)絡(luò)對(duì)兩個(gè)分支的輸入進(jìn)行相同的特征學(xué)習(xí)。圖4-6SiamFC網(wǎng)絡(luò)結(jié)構(gòu)圖Figure4-6ThenetworkstructureofSiamFC孿生網(wǎng)絡(luò)對(duì)兩個(gè)輸入和進(jìn)行相同的變換,是特征提取器部分,然后將得到的輸出送入函數(shù),是距離或相似性度量。最后得到相似性度量函數(shù)如下:(4-4)跟蹤時(shí)以上一幀目標(biāo)位置為中心的搜索圖像來計(jì)算響應(yīng)圖得分,以此來確定目標(biāo)位置。SiamFC算法中特征提取部分用的是AlexNet網(wǎng)絡(luò),網(wǎng)絡(luò)每層卷積層參數(shù)如表4-2所示:表4-2AlexNet網(wǎng)絡(luò)卷積層示意圖Table4-2SchematicdiagramofAlexNetnetworkconvolutionallayer層特征圖大小樣本待搜索通道127×127255×255×3Conv111×1159×59123×123×96Pool13×329×2961×61×96Conv23×325×2557×57×256Pool23×312×1228×28×256Conv33×310×1026×26×192Conv43×38×824×24×192Conv53×36×622×22×128SiamFC算法中對(duì)初始目標(biāo)外觀進(jìn)行一次特征提取,并與后續(xù)幀搜索區(qū)域提取的特征進(jìn)行卷積比較。使用雙三次插值對(duì)最終得到的得分圖進(jìn)行上采樣,獲得更精確的定位結(jié)果。SiamFC算法中為了處理跟蹤過程中的尺度變化問題,設(shè)定五個(gè)比例的尺度1.025{-2,-1,0,1,2}進(jìn)行搜索。1.3基于屬性的判別式目標(biāo)跟蹤算法性能比較分析本節(jié)對(duì)1.2節(jié)中介紹的六種基于判別式分類器的視頻目標(biāo)跟蹤算法進(jìn)行性能對(duì)比和適用性分析。使用深度卷積特征和深度學(xué)習(xí)的跟蹤算法需要GPU加速。CPU模式的軟件平臺(tái)為MatlabR2017a,Matconvnet-1.0-beta25,硬件平臺(tái)為Windows1064bit,Intel(R)Core(TM)i7-6700KCPU4GHz,RAM15GB,顯卡NVIDIAGeForceGTX980Ti。1.3.1跟蹤精確度比較算法的跟蹤精確度時(shí),采用的跟蹤視頻是OTB50數(shù)據(jù)集下的視頻圖像序列,采用的評(píng)價(jià)準(zhǔn)則是第二章內(nèi)容中提到的中心位置誤差,中心誤差指標(biāo)采用精確度曲線中20像素誤差閾值時(shí)的跟蹤結(jié)果。本節(jié)一共進(jìn)行了四組實(shí)驗(yàn),具體實(shí)驗(yàn)內(nèi)容和定量分析如下。實(shí)驗(yàn)一:SRDCF算法和DeepSRDCF算法基于OTB50數(shù)據(jù)集中11種挑戰(zhàn)屬性的分析。圖4-7為SRDCF、DeepSRDCF、KCF算法基于11種屬性的跟蹤精確度曲線圖。從11種不同屬性的精度圖可以看出,邊界效應(yīng)的解決和采用不同尺度搜索解決的尺度變化問題有效的提高了基于KCF的相關(guān)濾波算法的跟蹤精度。特征方面HOG特征和CN特征的融合特征以及imagenet-vgg-m-2048網(wǎng)絡(luò)提取的第一層卷積特征有效地提高了目標(biāo)的特征表達(dá),很明顯的優(yōu)于簡(jiǎn)單的HOG特征。但是在背景雜亂、形變、光照變化、低分辨率這四個(gè)屬性下,HOG特征和CN特征的融合特征的跟蹤精度比imagenet-vgg-m-2048網(wǎng)絡(luò)提取的第一層卷積特征高,尤其是在低分辨率屬性下。而在目標(biāo)出視野屬性下,imagenet-vgg-m-2048網(wǎng)絡(luò)提取的第一層卷積特征明顯優(yōu)于HOG特征和CN特征的融合特征的跟蹤精度。背景雜亂形變快速運(yùn)動(dòng)平面內(nèi)旋轉(zhuǎn)光照變化低分辨率運(yùn)動(dòng)模糊遮擋平面外旋轉(zhuǎn)超出視野尺度變化圖4-7基于11種屬性的跟蹤精確度曲線圖Fig4-7Accuracyofthealgorithmsbasedon11attributes實(shí)驗(yàn)二:CCOT算法和ECO算法以及ECO-HC算法基于OTB50數(shù)據(jù)集中11種挑戰(zhàn)屬性的分析。圖4-8為CCOT、ECO、ECO-HC、KCF算法基于11種屬性的跟蹤精確度曲線圖,其中ECO-HC算法是將ECO算法中的深度特征替換為了HOG特征和CN特征的融合特征。從11種不同屬性的精度圖可以看出,通過插值處理融合不同分辨率的特征實(shí)現(xiàn)的亞像素精度定位的跟蹤精度高于HOG特征和CN特征的融合特征。訓(xùn)練集的多樣性處理和模型更新策略的改變也有效的提升了跟蹤精度,一定程度上防止了錯(cuò)誤樣本導(dǎo)致的模型漂移問題,使得算法更具穩(wěn)定性,尤其是在背景雜亂、平面內(nèi)旋轉(zhuǎn)、光照變化、平面外旋轉(zhuǎn)、目標(biāo)出視野等挑戰(zhàn)屬性下。背景雜亂形變快速運(yùn)動(dòng)平面內(nèi)旋轉(zhuǎn)光照變化低分辨率運(yùn)動(dòng)模糊遮擋平面外旋轉(zhuǎn)超出視野尺度變化圖4-8基于11種屬性的跟蹤精確度曲線圖Fig4-8Accuracyofthealgorithmsbasedon11attributes實(shí)驗(yàn)三:實(shí)驗(yàn)三是將實(shí)驗(yàn)一和實(shí)驗(yàn)二中的算法以及本文第三章中的改進(jìn)算法(ours)在OTB50數(shù)據(jù)集下基于11種挑戰(zhàn)屬性的分析。圖4-9為基于11種屬性的跟蹤精確度曲線圖。從11種不同屬性的精度圖可以看出,通過插值處理融合不同分辨率的特征實(shí)現(xiàn)的亞像素精度定位的跟蹤精度高于僅使用第一個(gè)卷積層特征的跟蹤精度。本文第三章所提出的算法在背景雜亂、快速運(yùn)動(dòng)、低分辨率、運(yùn)動(dòng)模糊、平面內(nèi)旋轉(zhuǎn)、光照變化屬性下的跟蹤精度較為突出,尤其是低分辨率屬性下,本文算法很明顯的高于其他所有算法,這說明對(duì)于低分辨率屬性來說,本文算法采用VGG-Net-19網(wǎng)絡(luò)的不同權(quán)值融合的三層卷積特征更為有效。背景雜亂形變快速運(yùn)動(dòng)平面內(nèi)旋轉(zhuǎn)光照變化低分辨率運(yùn)動(dòng)模糊遮擋平面外旋轉(zhuǎn)超出視野尺度變化圖4-9基于11種屬性的跟蹤精確度曲線圖Fig4-9Accuracyofthealgorithmsbasedon11attributes實(shí)驗(yàn)四:實(shí)驗(yàn)四在實(shí)驗(yàn)三的基礎(chǔ)上又添加了MDNet算法和SiamFC算法在OTB50數(shù)據(jù)集下基于11種挑戰(zhàn)屬性的分析。圖4-10為基于11種屬性的跟蹤精確度曲線圖。從11種不同屬性的精度圖可以看出,通過多域網(wǎng)絡(luò)訓(xùn)練的專門用于跟蹤的MDNet算法表現(xiàn)尤為突出,在9個(gè)屬性中的跟蹤精度都穩(wěn)居首位,長(zhǎng)期和短期結(jié)合的更新方式、困難負(fù)樣本挖掘技術(shù)、邊界框回歸等跟蹤過程用到的策略使得算法的精度更進(jìn)一步的提升。但是在遮擋和目標(biāo)出視野屬性中的性能不如ECO和CCOT算法。而全卷積孿生網(wǎng)絡(luò)所采用的模板匹配跟蹤方法,以及跟蹤過程中不進(jìn)行模型的更新使得算法的跟蹤精度在11種挑戰(zhàn)屬性中并未顯示出什么優(yōu)勢(shì),在背景雜亂、形變、光
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025西南計(jì)算機(jī)有限責(zé)任公司招聘21人筆試考試參考題庫及答案解析
- 2025云南昆明市尋甸縣衛(wèi)生健康系統(tǒng)第二批招聘編外人員40人參考考試試題及答案解析
- 2025四川宜賓臨港投資建設(shè)集團(tuán)有限公司下屬子公司第五批項(xiàng)目制員工招聘3人備考筆試試題及答案解析
- 2025甘肅省新華書店有限責(zé)任公司招聘(57人)模擬筆試試題及答案解析
- 深度解析(2026)《GBT 25781-2010 1-萘胺》(2026年)深度解析
- 深度解析(2026)《GBT 25719-2010電液錘 技術(shù)條件》(2026年)深度解析
- 2025福建福清市明德幼兒園招聘筆試考試備考題庫及答案解析
- 2025年安徽江淮汽車集團(tuán)股份有限公司公開招聘工作人員1人考試筆試參考題庫附答案解析
- 2025北方自動(dòng)控制技術(shù)研究所招聘43人備考考試試題及答案解析
- 《兩、三位數(shù)除以一位數(shù)》數(shù)學(xué)課件教案
- 項(xiàng)目分包制合同范本
- (2026.01.01施行)《生態(tài)環(huán)境監(jiān)測(cè)條例》解讀與實(shí)施指南課件
- 2025年及未來5年市場(chǎng)數(shù)據(jù)中國(guó)廢舊輪胎循環(huán)利用市場(chǎng)深度分析及投資戰(zhàn)略咨詢報(bào)告
- 《科研倫理與學(xué)術(shù)規(guī)范》期末考試試題及答案2025
- 2025天津大學(xué)管理崗位集中招聘15人考試筆試備考題庫及答案解析
- Unit 7 When Tomorrow Comes Section A (1a-1d) 課件 2025-2026學(xué)年人教版八年級(jí)英語上冊(cè)
- 2025年影像成像原理考試題庫
- 2025年智能制造工廠改造項(xiàng)目可行性研究報(bào)告及總結(jié)分析
- 國(guó)電投面試技巧與實(shí)戰(zhàn)經(jīng)驗(yàn)交流
- 律師事務(wù)所訴訟案件辦案進(jìn)度及當(dāng)事人滿意度績(jī)效評(píng)定表
- 2025年公務(wù)員多省聯(lián)考《申論》題(陜西A卷)及參考答案
評(píng)論
0/150
提交評(píng)論