【《基于目標(biāo)識(shí)別算法的反無(wú)人機(jī)系統(tǒng)設(shè)計(jì)》17000字(論文)】_第1頁(yè)
【《基于目標(biāo)識(shí)別算法的反無(wú)人機(jī)系統(tǒng)設(shè)計(jì)》17000字(論文)】_第2頁(yè)
【《基于目標(biāo)識(shí)別算法的反無(wú)人機(jī)系統(tǒng)設(shè)計(jì)》17000字(論文)】_第3頁(yè)
【《基于目標(biāo)識(shí)別算法的反無(wú)人機(jī)系統(tǒng)設(shè)計(jì)》17000字(論文)】_第4頁(yè)
【《基于目標(biāo)識(shí)別算法的反無(wú)人機(jī)系統(tǒng)設(shè)計(jì)》17000字(論文)】_第5頁(yè)
已閱讀5頁(yè),還剩36頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于目標(biāo)識(shí)別算法的反無(wú)人機(jī)系統(tǒng)設(shè)計(jì)摘要隨著民用無(wú)人機(jī)的普及,違規(guī)飛行的案例越來(lái)越多,對(duì)于無(wú)人機(jī)的識(shí)別偵察的重要性愈發(fā)得到凸顯。但由于工作環(huán)境、檢測(cè)精度與檢測(cè)速度的限制,傳統(tǒng)反無(wú)人機(jī)檢測(cè)技術(shù)不能很好的完成對(duì)無(wú)人機(jī)的檢測(cè)任務(wù)。采用深度學(xué)習(xí)的檢測(cè)方法由于具有檢測(cè)精度高、檢測(cè)速度快、原理簡(jiǎn)單、成本低、魯棒性好等優(yōu)點(diǎn),已經(jīng)被廣泛應(yīng)用于目標(biāo)檢測(cè)領(lǐng)域。本文主要依據(jù)目標(biāo)檢測(cè)的思想,基于卷積神經(jīng)網(wǎng)絡(luò),研究對(duì)無(wú)人機(jī)等其他目標(biāo)的識(shí)別,并利用深度學(xué)習(xí)原理對(duì)其進(jìn)行改進(jìn)。YOLOV4-tiny目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)化版YOLOV4網(wǎng)絡(luò),具有更好的實(shí)時(shí)性。在YOLOV4-tiny目標(biāo)檢測(cè)算法的基礎(chǔ)上,充分考慮了干擾物體對(duì)檢測(cè)的影響,構(gòu)建了鳥(niǎo)、風(fēng)箏與無(wú)人機(jī)的訓(xùn)練用數(shù)據(jù)集。利用改進(jìn)的k-means聚類(lèi)算法從所用數(shù)據(jù)集生成新的anchorboxes,從而提升檢測(cè)效率與檢測(cè)精度。利用ResBlock-D模塊替換掉了原始網(wǎng)絡(luò)中的CSPBlock模塊,使得模型更加的輕量快速。加入輔助殘差模塊,提取更多的物體特征信息,來(lái)減少檢測(cè)誤差,從而彌補(bǔ)損失掉的精度。訓(xùn)練基于5910張圖片的訓(xùn)練集,最終改進(jìn)模型平均檢測(cè)精度可達(dá)78.7.%,檢測(cè)速度可達(dá)每秒65幀,證明所采取的算法改進(jìn)使得模型性能相較于未改動(dòng)有了明顯提升。關(guān)鍵詞:反無(wú)人機(jī):k-means;YOLOV4-tiny;ResBlock模塊;注意力機(jī)制TOC\o"1-3"\h\u22725摘要 緒論1.1研究背景自從1978年改革開(kāi)放至今,人民群眾的生活水平,在我國(guó)社會(huì)經(jīng)濟(jì)發(fā)展的強(qiáng)勁動(dòng)力推動(dòng)之中,也在不斷提高。我國(guó)無(wú)人機(jī)領(lǐng)域也在蓬勃發(fā)展。眾所周知,無(wú)人機(jī)有著結(jié)構(gòu)簡(jiǎn)略、成本低廉、靈活度高和可垂直起落等特點(diǎn),同時(shí)伴隨著5G、互聯(lián)網(wǎng)技術(shù)的高速進(jìn)步,社會(huì)生活的各個(gè)方面都有著無(wú)人機(jī)的身影。對(duì)國(guó)家而言,無(wú)人機(jī)不僅可以作為國(guó)防力量,同時(shí)還可以進(jìn)行環(huán)境保護(hù)、資源勘察、水環(huán)境監(jiān)測(cè)、農(nóng)業(yè)作業(yè)、自然災(zāi)害的監(jiān)測(cè)與救援、代替各行業(yè)工作人員執(zhí)行高危任務(wù)等。而隨著制造成本的下降和智能水平的進(jìn)步,無(wú)人機(jī)也在民用方面得到了迅速推廣,其在航拍、偵察、監(jiān)控、搜索方面的優(yōu)勢(shì)也是無(wú)法比擬的,各種工作強(qiáng)度大而且重復(fù)度高的空中任務(wù)都可以交由無(wú)人機(jī)來(lái)進(jìn)行,無(wú)人機(jī)現(xiàn)在已經(jīng)普遍應(yīng)用于各個(gè)范疇。所以,對(duì)人民大眾而言,無(wú)人機(jī)也是為生活提供便利的重要工具。雖然無(wú)人機(jī)的相關(guān)科技在飛速發(fā)展,為增加國(guó)防力量、提高人民生活質(zhì)量和維護(hù)社會(huì)秩序等方面做出了巨大貢獻(xiàn),但是,在無(wú)人機(jī)科技向前發(fā)展給人們帶來(lái)巨大便利的同時(shí),也帶來(lái)了許多不良影響,要解決的問(wèn)題仍然有很多。比如,相關(guān)的法律法規(guī)仍有待完善,無(wú)人機(jī)操縱者的水平參差不齊,而且有許多人非法使用無(wú)人機(jī)來(lái)侵犯公民的隱私和擾亂公共秩序,諸如擾亂民航,或者影響交通軌道上列車(chē)的正常運(yùn)行,甚至還會(huì)有恐怖分子通過(guò)無(wú)人機(jī)來(lái)攜帶炸藥從而引發(fā)安全問(wèn)題,給國(guó)家安寧和社會(huì)穩(wěn)定造成了威脅。無(wú)人機(jī)安全威脅可以分為兩種:被動(dòng)非合作式和主動(dòng)非合作式。這是從無(wú)人機(jī)是否收到人為的有意識(shí)的控制這一層面所進(jìn)行的分類(lèi)。對(duì)于被動(dòng)非合作無(wú)人機(jī),由于通信錯(cuò)誤容易使得無(wú)人機(jī)失控,從而帶來(lái)安全威脅。這種類(lèi)型的無(wú)人機(jī)對(duì)社會(huì)危害極大,因?yàn)轱w行線路的不可預(yù)知,也就難以進(jìn)行提前干預(yù),等到撞擊障礙物墜毀后就會(huì)造成生命財(cái)產(chǎn)的損失。相比于被動(dòng)非合無(wú)人機(jī),主動(dòng)非合目標(biāo)顧名思義是指控制者控制無(wú)人機(jī)主動(dòng)地進(jìn)行侵入,無(wú)人機(jī)的一系列行為舉動(dòng)完全是由控制者決定。相對(duì)于被動(dòng)非合作無(wú)人機(jī)來(lái)說(shuō),主動(dòng)非合無(wú)人機(jī)對(duì)于公共安全甚至是國(guó)防安全的危害更大[1]。因此,通過(guò)完善相關(guān)法律以形成約束,并通過(guò)無(wú)人機(jī)目標(biāo)識(shí)別和捕獲系統(tǒng)對(duì)無(wú)人機(jī)進(jìn)行識(shí)別和捕獲,從而遏制無(wú)人機(jī)“亂飛”“黑飛”等各種亂象、提高對(duì)無(wú)人機(jī)的監(jiān)管能力尤為重要。所以,在規(guī)范無(wú)人機(jī)相關(guān)法律的同時(shí),人們對(duì)于如何應(yīng)用目標(biāo)檢測(cè)算法對(duì)無(wú)人機(jī)目標(biāo)進(jìn)行更好的識(shí)別和捕獲的研究也日益增多。在眾多無(wú)人機(jī)目標(biāo)識(shí)別的難點(diǎn)問(wèn)題中,算法對(duì)小目標(biāo)物體識(shí)別能力以及精度與實(shí)時(shí)性等一系列性能指標(biāo)在人們眼中變得越來(lái)越重要,也愈發(fā)被被科研人員所重視。根據(jù)是否在目標(biāo)檢測(cè)算法中應(yīng)用深度學(xué)習(xí)可將其分為傳統(tǒng)算法和基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法。傳統(tǒng)算法多是一些通過(guò)滑動(dòng)窗口檢測(cè)或者匹配特征點(diǎn)的框架,雖然傳統(tǒng)的目標(biāo)檢測(cè)方法在不斷進(jìn)步,但也存在著許多不足,如特征提取太依賴(lài)于經(jīng)驗(yàn),不能自適應(yīng)提取特征,其靈活性和精度不夠高,所提取的低層次、有針對(duì)性設(shè)計(jì)的特征也不能夠很好的表達(dá)其他元素的作用。而深度學(xué)習(xí)的應(yīng)用,使算法的檢測(cè)精度和檢測(cè)速度都獲得了改善,算法內(nèi)部的卷積神經(jīng)網(wǎng)絡(luò)不僅能夠提取更高層、表達(dá)能力更好的特征,還能在同一個(gè)模型中對(duì)特征進(jìn)行的提取和選擇。但一般來(lái)說(shuō),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法對(duì)小目標(biāo)物體的檢測(cè)性能不高且檢測(cè)較慢,所以提出一種新的基于深度學(xué)習(xí)的無(wú)人機(jī)識(shí)別算法,對(duì)算法的檢測(cè)速度和檢測(cè)精度進(jìn)行平衡并提高算法對(duì)小目標(biāo)的識(shí)別能力,從而對(duì)無(wú)人機(jī)更好的監(jiān)管的行動(dòng)勢(shì)在必行。1.2研究意義無(wú)人機(jī)目標(biāo)檢測(cè)和捕獲的目的是從各種各樣的背景中識(shí)別出無(wú)人機(jī)這類(lèi)目標(biāo),并定位出無(wú)人機(jī)在圖像中的位置信息,并對(duì)其進(jìn)行捕獲,然后將檢測(cè)出的信息反饋給下一級(jí),從而能夠使有關(guān)單位和工作人員作出反應(yīng),完成危險(xiǎn)防控等后續(xù)任務(wù)。因此,無(wú)人機(jī)目標(biāo)檢測(cè)是對(duì)圖像高層信息理解的重要基礎(chǔ),并廣泛應(yīng)用于人民生活領(lǐng)域、軍事國(guó)防領(lǐng)域和維護(hù)社會(huì)秩序領(lǐng)域。在人民生活領(lǐng)域,無(wú)人機(jī)的應(yīng)用愈發(fā)廣泛。在馬路上和花園里就經(jīng)常能看見(jiàn)小型無(wú)人機(jī)的身影,也許是它的主人在練習(xí)技巧,又或是可能在航拍風(fēng)景等等,這已經(jīng)是人們眼中習(xí)以為常的事情,也是可以給人們帶來(lái)實(shí)實(shí)在在的樂(lè)趣和便利的事情。而且無(wú)人機(jī)也給我們帶來(lái)了更為震撼的視覺(jué)享受。無(wú)人機(jī)還可以拍出比過(guò)去更為震撼的電影和電視畫(huà)面,特別是空中鏡頭基本都是靠無(wú)人機(jī)來(lái)拍攝的。不僅如此,疫情期間也有相關(guān)部門(mén)選擇用無(wú)人機(jī)來(lái)進(jìn)行航拍監(jiān)控,必要時(shí)可通過(guò)無(wú)人機(jī)直接進(jìn)行喊話傳遞信息,規(guī)范人們行為以降低疫情傳播風(fēng)險(xiǎn)。但無(wú)人機(jī)的廣泛應(yīng)用也給人民生活帶來(lái)巨大隱患,例如因操作者水平過(guò)低或缺少法律意識(shí)而引發(fā)的安全問(wèn)題時(shí)有發(fā)生,一些侵犯人們隱私、影響人們的日常生活的“黑飛”的無(wú)人機(jī)經(jīng)常進(jìn)入大眾的視野,甚至還會(huì)有非法分子通過(guò)無(wú)人機(jī)攜帶危險(xiǎn)物品來(lái)實(shí)施恐怖襲擊[2]。在軍事國(guó)防領(lǐng)域,具備自主意識(shí)、能大體分析戰(zhàn)局并進(jìn)行火力打擊的無(wú)人機(jī)對(duì)于未來(lái)科技戰(zhàn)爭(zhēng)和無(wú)人戰(zhàn)爭(zhēng)上有一錘定音的殺傷效果,所以對(duì)無(wú)人機(jī)目標(biāo)進(jìn)行檢測(cè)和捕獲可以為當(dāng)代的軍事斗爭(zhēng)提供重要支持。現(xiàn)代化武器的發(fā)展趨勢(shì)是靈活性強(qiáng)、隱蔽性好,軍事行動(dòng)中,偵察和打擊的重要目標(biāo)就是飛行器、艦船等,所以通過(guò)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)對(duì)無(wú)人機(jī)目標(biāo)進(jìn)行檢測(cè)和監(jiān)管意義重大。在維持社會(huì)秩序方面,無(wú)人機(jī)也起著重要作用。無(wú)人機(jī)幫助追捕逃犯:經(jīng)常會(huì)看到警察使用警用無(wú)人機(jī)的新聞,使那些自認(rèn)為可以逍遙法外的小偷、寄希望于與“大隱隱于市”的犯罪分子都被無(wú)人機(jī)所發(fā)現(xiàn);無(wú)人機(jī)可以檢測(cè)橋梁等建筑的質(zhì)量以保證公眾安全:無(wú)人機(jī)可以用來(lái)保證橋梁安全,過(guò)去想查看橋底,往往用望遠(yuǎn)鏡和橋檢車(chē),費(fèi)時(shí)費(fèi)力還有許多盲區(qū),而無(wú)人機(jī)則可以飛到橋底勘查傳統(tǒng)手段無(wú)法到達(dá)的位置來(lái)對(duì)橋底畫(huà)面進(jìn)行實(shí)時(shí)傳輸,保證橋梁不出現(xiàn)質(zhì)量問(wèn)題;無(wú)人機(jī)守護(hù)交通與治安:無(wú)人機(jī)因可以幫忙疏散交通、快速發(fā)現(xiàn)事故和可以對(duì)交通環(huán)境進(jìn)行實(shí)時(shí)監(jiān)控的優(yōu)點(diǎn)而在基層公安與交警單位中快速普及。雖然無(wú)人機(jī)的相關(guān)科技在飛速發(fā)展,為增加國(guó)防力量、提高人民生活質(zhì)量和維護(hù)社會(huì)秩序等方面做出巨大貢獻(xiàn),但從全球范圍內(nèi)來(lái)看,無(wú)人機(jī)不遵守相關(guān)法律法規(guī),隨意飛行、胡亂飛行的案例每年都在上漲,無(wú)人機(jī)發(fā)生事故可謂是屢見(jiàn)不鮮。在海外關(guān)于無(wú)人機(jī)的安全事故經(jīng)常發(fā)生。美國(guó)聯(lián)邦航空局的最新報(bào)告中顯示,從2015年中到2016年初,一共發(fā)生了接近六百起無(wú)人機(jī)事故。雖然很大一部分都是小事故,但是,該報(bào)告也披露了很多非常驚險(xiǎn)的事情。例如,在2015年,曾有一架無(wú)人機(jī)在紐約機(jī)場(chǎng)上方的高空飛行,差點(diǎn)與客機(jī)相撞,兩者僅相距20英尺遠(yuǎn)。這份報(bào)告還列出了很多無(wú)人機(jī)違規(guī)亂飛的事列,其中包括無(wú)人機(jī)靠近機(jī)場(chǎng),或飛行高度超出了法律規(guī)定的限高;2017年1月,如圖1.1所示,莫桑比克LAM航空公司的一架B737-700在接近Tete市時(shí)與一架無(wú)人機(jī)相撞,雖然飛機(jī)上的乘客并無(wú)大礙,但雷達(dá)罩卻嚴(yán)重受損。圖SEQ圖\*ARABIC1.1B737-700受損圖在我國(guó)無(wú)人機(jī)事故和危害公眾安全甚至泄露軍事秘密的事情也時(shí)有發(fā)生。2017年5月,黃某在白云區(qū)登山期間,因心生好奇,就利用自己攜帶的無(wú)人機(jī)航拍軍營(yíng)內(nèi)的管制設(shè)施,隨即被抓獲,并被當(dāng)場(chǎng)扣押了無(wú)人機(jī)以及違法拍攝的影視資料。不過(guò)好在航拍資料沒(méi)有外傳,未造成嚴(yán)重后果;如圖1.2所示,2019年云南昆明,一架掛載警燈與喊話器的交警執(zhí)勤用的警用無(wú)人機(jī)在執(zhí)行巡邏任務(wù)的返航過(guò)程中發(fā)生墜落。隨后官方在網(wǎng)絡(luò)上對(duì)此事進(jìn)行了道歉,并保證以后會(huì)加強(qiáng)操控者的培訓(xùn)以及設(shè)備的維修以杜絕類(lèi)似現(xiàn)象的發(fā)生。圖1.2事故現(xiàn)場(chǎng)圖如圖1.3是青島某企業(yè)研發(fā)的無(wú)人機(jī)反制系統(tǒng),目的就是為了控制無(wú)人機(jī)隨便亂飛等現(xiàn)象。由于現(xiàn)在的新型無(wú)人機(jī)更加科技化,具有人臉識(shí)別、跟蹤定位等功能,很可能會(huì)對(duì)人民生命財(cái)產(chǎn)安全造成損失。而類(lèi)似的無(wú)人機(jī)反制系統(tǒng),都需要對(duì)無(wú)人機(jī)目標(biāo)的精準(zhǔn)識(shí)別和跟蹤,才能順利完成后續(xù)的誘導(dǎo)、控制等功能,從而保障公共安全。

圖1.3反無(wú)人機(jī)系統(tǒng)所以,在規(guī)范無(wú)人機(jī)相關(guān)法律的同時(shí),人們對(duì)于如何應(yīng)用目標(biāo)檢測(cè)算法對(duì)無(wú)人機(jī)目標(biāo)進(jìn)行更好的檢測(cè)和捕獲的研究也日益增多。本課題在理論研究和實(shí)踐上都具有一定的創(chuàng)新意義,有利于實(shí)現(xiàn)對(duì)無(wú)人機(jī)進(jìn)行高精度的識(shí)別和捕獲,從而保護(hù)公民的隱私以及公共財(cái)產(chǎn)安全,具有一定的學(xué)術(shù)價(jià)值和應(yīng)用價(jià)值。1.3國(guó)內(nèi)外研究現(xiàn)狀綜述目前,非合作無(wú)人機(jī)目標(biāo)探測(cè)的偏傳統(tǒng)技術(shù)包括聲、光、雷達(dá)、無(wú)線電探測(cè)等。采用單一技術(shù)的測(cè)探設(shè)備各有優(yōu)缺點(diǎn),無(wú)線電偵測(cè)設(shè)備對(duì)被偵測(cè)目標(biāo)的配合與否要求較高,對(duì)于有意隱藏自己的目標(biāo)并不有效;雷達(dá)探測(cè)設(shè)備由于先天劣勢(shì),并不能很好地對(duì)低空空域的無(wú)人機(jī)進(jìn)行探測(cè),如果低空空域存在一些不可知的干擾波段,則會(huì)影響檢測(cè)效果;光電探測(cè)設(shè)備的優(yōu)點(diǎn)是目標(biāo)可視性高,直觀清晰,與之前幾種方式相比應(yīng)用時(shí)間最長(zhǎng)。而最近興起的視覺(jué)檢測(cè)具備原理簡(jiǎn)單、成本低廉、不易受外界環(huán)境干擾、能在環(huán)境較為復(fù)雜的場(chǎng)景下應(yīng)用等特點(diǎn),已經(jīng)在工業(yè)、農(nóng)業(yè)、醫(yī)學(xué)等多領(lǐng)域取得了顯著成果,未來(lái)將會(huì)是反無(wú)人機(jī)檢測(cè)的主要技術(shù)。目標(biāo)檢測(cè)算法,以前多是一些通過(guò)滑動(dòng)窗口檢測(cè)或者匹配特征點(diǎn)的框架。而2014年的AlexNet[3]將圖像分類(lèi)的準(zhǔn)度提升了很多,學(xué)者們就把視線轉(zhuǎn)移到了基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法的訓(xùn)練中,涌現(xiàn)出了R-CNN[4]系列、YOLO[5]、SSD[6]等經(jīng)典框架,這些框架相比于傳統(tǒng)算法有著更為優(yōu)良的檢測(cè)性能。表1為兩種算法研究現(xiàn)狀的文獻(xiàn)概述[7],來(lái)源于文獻(xiàn)[7]。表中早期的文獻(xiàn)[2-12]和近期文獻(xiàn)[13-15]主要是針對(duì)行人檢測(cè)或者面部檢測(cè)等目標(biāo)實(shí)例檢測(cè);文獻(xiàn)[16-19]對(duì)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)進(jìn)行了較為全面的闡述、分析與整理。深度學(xué)習(xí)的使用和發(fā)展,使算法對(duì)無(wú)人機(jī)的識(shí)別,無(wú)論從快速性和準(zhǔn)確性來(lái)說(shuō),都得到了實(shí)質(zhì)性的飛躍。表SEQ表\*ARABIC1目標(biāo)檢測(cè)綜述性文獻(xiàn)列表

1.3.1傳統(tǒng)算法傳統(tǒng)算法中通常使用的特征分為方向梯度直方圖[8]、尺度不變特征[9]、哈爾特征[10]三種。在圖像識(shí)別中HOG特征和SVM[11]分類(lèi)器的組合應(yīng)用廣泛。與其他算法相比,HOG能夠?qū)D形幾何和光學(xué)形變都能維持優(yōu)秀的不變性,并允許人有一些輕微動(dòng)作,這些輕微的動(dòng)作會(huì)被忽視,而不影響檢測(cè)效果。該組合孫皓[12]等人在行人檢測(cè)訓(xùn)練中中獲得了極大的成功。當(dāng)前也有許多新穎且優(yōu)秀的行人檢測(cè)算法被不斷提出,HOG+SVM組合仍然有著重要的地位。SIFT[13]算法通建立檢測(cè)目標(biāo)間的對(duì)應(yīng)關(guān)系進(jìn)行檢測(cè),它所查找到的關(guān)鍵點(diǎn)是一些如邊緣點(diǎn)和角點(diǎn),一般不會(huì)受噪音和光照影響的十分突出的點(diǎn),其龐大的信息量適合在大型數(shù)據(jù)庫(kù)中快速準(zhǔn)確匹配,但它計(jì)算過(guò)于復(fù)雜、速率低下。相比之下,SURF[14]則通過(guò)減少降采樣過(guò)程來(lái)提高目標(biāo)的檢測(cè)速度,幾個(gè)簡(jiǎn)單的加減運(yùn)算便能完成濾波,并且通過(guò)實(shí)驗(yàn)證明,SURF算法的計(jì)算速度可達(dá)到SIFT算法的3倍左右,不過(guò)該算法有十分依靠主方向的選取準(zhǔn)確度的缺陷。Haar-like特征最早是由Papageorgiou等應(yīng)用于人臉表示,是一種只遍歷一次圖像就可以求出圖像中所有區(qū)域像素和的快速算法。后Haar特征被成功應(yīng)用于Viola-Jones[15]-[16]檢測(cè)算法中,用以描述窗口,表明局部的明暗變化,并使用積分圖的思想處理Haar特征提取時(shí)計(jì)算復(fù)雜的缺點(diǎn)。雖然首次實(shí)現(xiàn)了對(duì)人臉進(jìn)行實(shí)時(shí)檢測(cè),但有著準(zhǔn)確率一般、魯棒性不足的缺點(diǎn)??梢?jiàn),雖然傳統(tǒng)的目標(biāo)檢測(cè)方法也在不斷進(jìn)步,但也存在著許多不足,主要問(wèn)題是傳統(tǒng)算法的特征提取太依賴(lài)于設(shè)計(jì)者的經(jīng)驗(yàn)經(jīng)驗(yàn),不能自適應(yīng)提取特征,而且其所提取的低層次、有針對(duì)性設(shè)計(jì)的特征的提取不能夠很好的表達(dá)其他元素的作用,遷移到其他場(chǎng)景的能力差,計(jì)算過(guò)程也過(guò)于繁瑣復(fù)雜。1.3.2基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法2014年之后,目標(biāo)檢測(cè)進(jìn)入深度學(xué)習(xí)時(shí)代。根據(jù)檢測(cè)方法的不同,大致的分為“兩階段”和“單階段”兩類(lèi)檢測(cè)方法。兩階段也稱(chēng)為two-stage,檢測(cè)模型將檢測(cè)任務(wù)劃分成了兩個(gè)階段:第一階段是由算法產(chǎn)生一系列候選區(qū)域,第二階段是通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行候選區(qū)域的分類(lèi)和定位后得到目標(biāo)檢測(cè)的結(jié)果。這類(lèi)方法的典型模型是RCNN,F(xiàn)astR-CNN,F(xiàn)asterR-CNN等。(1)2014年,Girshick等人首次提出的一種兩階段區(qū)域卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)器R-CNN,可用來(lái)識(shí)別目標(biāo)類(lèi)別并對(duì)每個(gè)區(qū)域內(nèi)目標(biāo)的存在進(jìn)行預(yù)測(cè)。RCNN在抽取每張圖片上的每個(gè)候選區(qū)域并進(jìn)行變換和修整后更利于神經(jīng)網(wǎng)絡(luò)讀取特征,然后用SVM進(jìn)行類(lèi)別的識(shí)別,并產(chǎn)生分?jǐn)?shù)。針對(duì)于候選區(qū)域有產(chǎn)生的重疊現(xiàn)象,對(duì)每個(gè)類(lèi)通過(guò)計(jì)算IoU指標(biāo),采取非極大性抑制,以最高分的區(qū)域?yàn)榛A(chǔ),剔除掉那些重疊位置的區(qū)域。但R-CNN花費(fèi)了大量時(shí)間在分類(lèi)上,而且在R-CNN網(wǎng)絡(luò)結(jié)構(gòu)模型中,由于卷積神經(jīng)網(wǎng)絡(luò)的全連接層對(duì)于輸入的圖像尺寸有限制,所以在特征提取時(shí)無(wú)法完整保留原始圖像的信息。(2)2015年,R.Girshick通過(guò)改進(jìn)R-CNN和SPP-Net[17]后提出了FastR-CNN,可以在輸入圖像中得到建議候選區(qū)域并獲取到目標(biāo)特征后經(jīng)過(guò)池化層得到固定大小的特征向量作為后續(xù)分類(lèi)。在對(duì)卷積特征層上的各候選區(qū)域進(jìn)行池化操作,得到固定維度的特征后,將最后提取的特征輸入所有連接層,用Softmax進(jìn)行分類(lèi),回歸候選區(qū)域的位置。但是,雖然與RCNN相比,F(xiàn)astR-CNN的速度和精度都有了較大提高,但是仍舊沒(méi)有實(shí)現(xiàn)端到端(end-to-end)的檢測(cè)訓(xùn)練。(3)之后Ren等人提出了FasterR-CNN[18],它是一種有效定位目標(biāo)區(qū)域的方法,按區(qū)域在特征圖上進(jìn)行特征索引的方式大大降低了卷積計(jì)算的時(shí)間消耗,所以速度上有了非常大的提升,并利用區(qū)域建議網(wǎng)絡(luò)(RPN)實(shí)現(xiàn)了模型端到端的訓(xùn)練。在RPN網(wǎng)絡(luò)生成區(qū)域候選圖像塊之后,通過(guò)softmax判斷錨點(diǎn)屬于前景或者背景。接著目標(biāo)區(qū)池化層收集輸入的特征圖和候選的目標(biāo)區(qū)域,再將這些信息綜合分析后后進(jìn)行目標(biāo)區(qū)域的特征圖的提取,利用目標(biāo)區(qū)域特征圖對(duì)目標(biāo)區(qū)域的類(lèi)別的類(lèi)別進(jìn)行計(jì)算,同時(shí)為最終獲得檢測(cè)框的精確位置而再次進(jìn)行邊界框回歸。但Faster-RCNN所采用的的池化方式仍會(huì)導(dǎo)致之后的網(wǎng)絡(luò)特征失去平移不變性,影響最終定位準(zhǔn)確性,而且存在著較多的重復(fù)計(jì)算;其錨點(diǎn)框經(jīng)過(guò)多次下采樣操作的特征圖對(duì)應(yīng)原圖一塊較大的區(qū)域,所以Faster-RCNN并不具備優(yōu)良的小目標(biāo)檢測(cè)性能??梢?jiàn),雖然不斷發(fā)展和改進(jìn)基于區(qū)域分類(lèi)的兩階段網(wǎng)絡(luò)使得“兩階段”算法的檢測(cè)精度越來(lái)越高,但是計(jì)算量較大導(dǎo)致其實(shí)時(shí)性較差,難以滿(mǎn)足實(shí)際應(yīng)用。因此,研究者便提出了一種基于回歸目標(biāo)檢測(cè)方法,該方法直接利用單個(gè)卷積神經(jīng)網(wǎng)絡(luò)直接對(duì)目標(biāo)進(jìn)行分類(lèi)和定位便可得到檢測(cè)結(jié)果,雖然檢測(cè)速度很快但定位精度較差。典型的單階段檢測(cè)有YOLO系列,SSD系列等。(1)YOLOv1(YouOnlyLookOnce):從R-CNN到FasterR-CNN設(shè)計(jì)者們所采用的思路一直是通過(guò)生成候選區(qū)域以提供位置信息和分類(lèi)以提供類(lèi)別信息來(lái)進(jìn)行訓(xùn)練,并且已經(jīng)達(dá)到較高的精度,但由于two-stage生成候選區(qū)域所耗費(fèi)時(shí)間過(guò)多,其處理速度不行達(dá)不到real-time效果。Redmon等人將目標(biāo)檢測(cè)統(tǒng)一在一個(gè)卷積神經(jīng)網(wǎng)絡(luò)中提出了一種實(shí)時(shí)檢測(cè)器YOLO。YOLO所選用的是較R-CNN系列更為直接的思路:在網(wǎng)絡(luò)中輸入整張圖,同時(shí)把ObjectDetection的問(wèn)題轉(zhuǎn)化成一個(gè)Regression問(wèn)題。即在讀取輸入圖像并將圖像的大小調(diào)整到固定的分辨率后,在特征提取網(wǎng)絡(luò)中進(jìn)行圖像的檢測(cè),最后利用非極大值抑制(NMS)算法對(duì)檢測(cè)結(jié)果進(jìn)行閾值篩選后得到實(shí)驗(yàn)結(jié)果。但由于算法的一個(gè)網(wǎng)格中只預(yù)測(cè)了兩個(gè)框,YOLOv1對(duì)相互靠的很近的物體,如挨在一起且中點(diǎn)都落在同一個(gè)格子上的物體和很小的群體檢測(cè)效果并不好,而且對(duì)于同一類(lèi)物體在測(cè)試圖像中出現(xiàn)的不常見(jiàn)的長(zhǎng)寬比和其他情況時(shí)的泛化能力較弱,在大小物體問(wèn)題的處理上也有很大的提升空間。(2)YOLO9000:YOLO9000是Redmon等人提出的一種改進(jìn)的YOLO版本。作者采用了一系列如anchor先驗(yàn)信息、損失函數(shù)、批標(biāo)準(zhǔn)化等不同的優(yōu)化策略對(duì)原來(lái)的YOLO多目標(biāo)檢測(cè)框架進(jìn)行了改進(jìn),在保持速度有事的同時(shí)提升了精度,而且實(shí)現(xiàn)了多于9000種物體的實(shí)時(shí)檢測(cè)。YOLO9000選取的是類(lèi)似FasterR-CNN中的anchor思想而不是如YOLOv1一般利用全連接層直接預(yù)測(cè)boundingbox的坐標(biāo),采用的是卷積和anchorboxes而不是YOLOv1中的全連接層來(lái)預(yù)測(cè)邊界框。在檢測(cè)模型中,YOLO9000采用的也不是418×418的輸入圖片,而采用的是416×416大小的圖片,因?yàn)閅OLO9000模型下采樣的總步長(zhǎng)為32,對(duì)于416×416大小的圖片進(jìn)行處理后最終得到的特征圖大小才能為13×13,維度是奇數(shù),這樣特征圖恰好只有一個(gè)中心位置。對(duì)于一些大物體,它們中心點(diǎn)往往落入圖片中心位置,此時(shí)使用特征圖的一個(gè)中心點(diǎn)去預(yù)測(cè)這些物體的邊界框相對(duì)容易些。雖然在訓(xùn)練過(guò)程中YOLO9000可以通過(guò)改變模型的輸入圖片大小進(jìn)行多尺度訓(xùn)練,在提升模型魯棒性的同時(shí)也獲得了較高的檢測(cè)精度,但還是未能很好地解決小目標(biāo)的問(wèn)題。(3)SSD方法:2016年,針對(duì)YOLO的局限性,LiuWei等人提出了SSD算法。通過(guò)放大操作和縮小操作進(jìn)行數(shù)據(jù)增強(qiáng),并通過(guò)在同一個(gè)特征圖上設(shè)置多個(gè)anchor以檢測(cè)不同尺度的目標(biāo),但先驗(yàn)框設(shè)置和調(diào)試過(guò)程比較依賴(lài)經(jīng)驗(yàn),很容易發(fā)生對(duì)低級(jí)特征卷積層特征提取不充分的問(wèn)題。而且SSD對(duì)小目標(biāo)的檢測(cè)效果一般,作者認(rèn)為在高層并沒(méi)有足夠的小目標(biāo)信息。(4)YOLOv3[19]:YOLOv3是目前最常用的網(wǎng)絡(luò)模型,它提出了一個(gè)更深和更強(qiáng)的特征提取主干網(wǎng)絡(luò)Darknet53,大量使用殘差的跳層連接,并且為了降低池化帶來(lái)的梯度負(fù)面效果,作者直接摒棄了POOLing,用conv的stride來(lái)實(shí)現(xiàn)降采樣。在這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中,降采樣是通過(guò)步長(zhǎng)為2的卷積來(lái)實(shí)現(xiàn)的。實(shí)驗(yàn)表明,當(dāng)輸入圖像的大小為320×320時(shí),YOLOv3可以保證在檢測(cè)準(zhǔn)確率與SSD一致的前提下,檢測(cè)速度比SSD快3倍。在類(lèi)別預(yù)測(cè)方面,將原來(lái)的單標(biāo)簽分類(lèi)替換為多標(biāo)簽分類(lèi)來(lái)適應(yīng)包含許多重疊標(biāo)簽的更復(fù)雜數(shù)據(jù)集;在錨框設(shè)置方面采用了對(duì)圖像中的目標(biāo)采用k-means聚類(lèi)以生成anchor值的方法,在三個(gè)尺度上使用三種不同比例的錨框大小來(lái)預(yù)測(cè)邊界框;在檢測(cè)策略方面采用三個(gè)尺度融合的方式來(lái)替代兩個(gè)尺度進(jìn)行預(yù)測(cè),彌補(bǔ)了YOLO系列一直對(duì)小目標(biāo)檢測(cè)率低的缺陷。而且許多研究者基于該算法做了很多改進(jìn)實(shí)現(xiàn)了很好的速度和檢測(cè)精度,并將許多代碼開(kāi)源,更使得其在學(xué)術(shù)界和工業(yè)界得到了十分廣泛的應(yīng)用。(5)YOLOv4[20]:在原有的YOLOv3的基礎(chǔ)上,出現(xiàn)了YOLOv4算法,采用了近些年來(lái)CNN領(lǐng)域中十分優(yōu)秀的優(yōu)化策略,從Data處理、主干網(wǎng)絡(luò)、模型訓(xùn)練、激活函數(shù)、損失函數(shù)等各個(gè)方面都有著不同程度的優(yōu)化。這是一個(gè)平衡了精度和速度的算法。大的模型,在比賽中可以擁有名列前茅的成績(jī),但速度太慢;小模型雖然速度快,但準(zhǔn)確率又不夠高。另外,當(dāng)今有很多模型因?yàn)槌叽绱蟮脑?,需要很多GPU進(jìn)行并行訓(xùn)練,而YOLOv4可以在一塊普通的GPU上完成訓(xùn)練,并且能兼顧實(shí)時(shí)性,所以能夠在更多樣化的環(huán)境中運(yùn)行。此外,近幾年來(lái),許多最新的方法被應(yīng)用于目標(biāo)檢測(cè)??梢钥闯觯黝?lèi)算法還沒(méi)有很滿(mǎn)意的小目標(biāo)識(shí)別性能。而且,雖然構(gòu)建深層卷積神經(jīng)網(wǎng)絡(luò)可以獲得更高的目標(biāo)檢測(cè)精度,但計(jì)算復(fù)雜度的提高和內(nèi)存占用的增加會(huì)導(dǎo)致檢測(cè)速度大幅下降,故如何使算法具備良好的小目標(biāo)識(shí)別能力以及平衡算法的精度和實(shí)時(shí)性始終是重點(diǎn)難點(diǎn)問(wèn)題。1.3.3反無(wú)人機(jī)系統(tǒng)國(guó)內(nèi)的反無(wú)人機(jī)系統(tǒng)研究開(kāi)發(fā)剛剛起步,而從國(guó)外來(lái)講,如圖1.5DroneTracker系統(tǒng)是由德國(guó)的Dedrone公司開(kāi)發(fā)的,是目前最著名的無(wú)人機(jī)檢測(cè)系統(tǒng)。如圖1.6是空客公司開(kāi)發(fā)的一款反無(wú)人機(jī)系統(tǒng)。國(guó)內(nèi)產(chǎn)品包括北斗開(kāi)放實(shí)驗(yàn)室研制的ADS2000系統(tǒng),該系統(tǒng)是通過(guò)模擬出一個(gè)與無(wú)人機(jī)控制信號(hào)相似的信號(hào)來(lái)獲得無(wú)人機(jī)的控制權(quán),從而對(duì)無(wú)人機(jī)進(jìn)行反制[21]。圖1.5DroneTracker系統(tǒng)圖1.6反無(wú)人機(jī)系統(tǒng)根據(jù)不同的反制措施,目前國(guó)內(nèi)的反無(wú)人機(jī)系統(tǒng)大體可以分為干擾阻斷、毀傷抓捕和監(jiān)測(cè)控制[1]三個(gè)種類(lèi)。干擾阻斷類(lèi)反無(wú)人機(jī)系統(tǒng)由于體積輕便因此大多可以隨身攜帶,并且它還具有操作簡(jiǎn)便、成本低廉的優(yōu)點(diǎn),但是存在對(duì)使用環(huán)境要求高的缺點(diǎn)。因?yàn)樵摲N類(lèi)反無(wú)人機(jī)系統(tǒng)基本原理是通過(guò)電磁手段干擾無(wú)人機(jī)的正常飛行,這就不可避免的會(huì)影響居民區(qū)居民的日常生活,因此在使用時(shí)應(yīng)該注意避開(kāi)人多地區(qū);直接摧毀類(lèi)系統(tǒng)優(yōu)點(diǎn)是反制效果簡(jiǎn)單粗暴,對(duì)于充滿(mǎn)干擾的環(huán)境,可以免去復(fù)雜的設(shè)備探測(cè)步驟,但是這類(lèi)系統(tǒng)大多價(jià)格昂貴,使用性?xún)r(jià)比不高。在實(shí)際使用時(shí),由于對(duì)目標(biāo)直接采用火力打擊,無(wú)人機(jī)墜毀后的殘骸可能對(duì)地面的安全造成危害,這項(xiàng)危害目前普遍得不到充分考慮,因此并不適用于民用領(lǐng)域。此外,對(duì)于警方等執(zhí)法機(jī)關(guān)來(lái)說(shuō),有時(shí)需要獲取無(wú)人機(jī)中的情報(bào),因此不能使用毀傷抓捕的方式,因?yàn)樵摲绞綍?huì)將無(wú)人機(jī)徹底摧毀。監(jiān)測(cè)控制類(lèi)系統(tǒng)一般使用的方法是電磁干擾和無(wú)線電操控,該方式首先對(duì)無(wú)人機(jī)進(jìn)行定位,從而對(duì)無(wú)人機(jī)目標(biāo)進(jìn)行制服與捕獲。但該類(lèi)系統(tǒng)存在缺點(diǎn),比如假設(shè)無(wú)人機(jī)目標(biāo)自身具有智能控制系統(tǒng),不需要依靠控制人員操控,而是可以實(shí)現(xiàn)自我控制,則該類(lèi)系統(tǒng)無(wú)法有效對(duì)其進(jìn)行打擊。而基于計(jì)算機(jī)視覺(jué)的檢測(cè),具備原理簡(jiǎn)單、價(jià)格便宜、抗干擾能力強(qiáng)、能在較為復(fù)雜的場(chǎng)景下應(yīng)用等特點(diǎn),已經(jīng)在工、農(nóng)、醫(yī)等多個(gè)領(lǐng)域取得了明顯成果,未來(lái)將會(huì)是反無(wú)人機(jī)檢測(cè)與捕獲的主要技術(shù)手段。1.4本文研究?jī)?nèi)容及方法本文提出了一種新的輕量化網(wǎng)絡(luò)模型結(jié)構(gòu),用于對(duì)無(wú)人機(jī)及干擾目標(biāo)進(jìn)行檢測(cè)識(shí)別,并在服務(wù)器進(jìn)行訓(xùn)練測(cè)試。服務(wù)器操作系統(tǒng)為Ubuntu操作系統(tǒng),GPU為NVIDIAGTX1080TI,深度學(xué)習(xí)訓(xùn)練框架采用pytorch。主要工作如下:(1)先建立數(shù)據(jù)庫(kù)。充足的數(shù)據(jù)是保證基于深度學(xué)習(xí)目標(biāo)檢測(cè)算法性能的關(guān)鍵。針對(duì)通用目標(biāo)檢測(cè),目前存在許多開(kāi)源的檢測(cè)數(shù)據(jù)集,雖然在此數(shù)據(jù)集上可以檢驗(yàn)?zāi)P偷脑O(shè)計(jì)性能,但針對(duì)實(shí)際應(yīng)用中的特定場(chǎng)景,需要研究者首先根據(jù)實(shí)際需求建立特定的樣本數(shù)據(jù)庫(kù)。(2)設(shè)計(jì)目標(biāo)檢測(cè)算法。在YOLOV4-tiny模型的基礎(chǔ)上進(jìn)行改進(jìn),提升模型在檢測(cè)目標(biāo)時(shí)的檢測(cè)精度與檢測(cè)速度。改進(jìn)包括三方面要素,分別是使用殘差模塊,再在其中添加輔助殘差模塊,同時(shí)使用注意力機(jī)制改進(jìn)性能。(3)使用改進(jìn)的k-mean算法對(duì)其生成特定的anchorsbox尺寸,將YOLO模型中的默認(rèn)尺寸全部替換為了樣本數(shù)據(jù)庫(kù)中樣本所對(duì)應(yīng)尺寸。(4)將數(shù)據(jù)集分為訓(xùn)練集、測(cè)試集、檢測(cè)集,并分別使用它們對(duì)模型進(jìn)行訓(xùn)練、測(cè)試、檢測(cè),最終記錄數(shù)據(jù)與原始模型進(jìn)行對(duì)比。目標(biāo)檢測(cè)算法原理2.1基于候選區(qū)域的目標(biāo)檢測(cè)算法基于候選區(qū)域的目標(biāo)檢測(cè)算法就是我們常說(shuō)的“兩步法”,該類(lèi)算法檢測(cè)思想是,通過(guò)不同尺寸的窗口在圖像上進(jìn)行滑動(dòng),并定位不同區(qū)域中的目標(biāo)。判定不同區(qū)域內(nèi)的目標(biāo)類(lèi)別并產(chǎn)生包圍框。對(duì)利用滑動(dòng)窗口產(chǎn)生候選區(qū)域的目標(biāo)檢測(cè)算法來(lái)講,雖然輸入圖像可能包含多種檢測(cè)目標(biāo),但一般情況下,滑動(dòng)窗口所生成的包圍框只有一個(gè)目標(biāo)。因此,我們可以對(duì)不同窗口內(nèi)的目標(biāo)分別進(jìn)行處理,這一思路與目標(biāo)定位相像。但是,由于該方法要采用不同尺寸的滑動(dòng)窗口將輸入圖像全部覆蓋,這會(huì)使得計(jì)算量大大增加。2.1.1R-CNN目標(biāo)檢測(cè)算法R-CNN算法有力地增強(qiáng)了運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)的能力。特征提取和目標(biāo)分類(lèi)是卷積神經(jīng)網(wǎng)絡(luò)的兩大功能,采用RegionProposal(區(qū)域建議)的方法進(jìn)行目標(biāo)檢測(cè)。算法大致上有三個(gè)步驟:(1)生成候選區(qū)域。(2)卷積網(wǎng)絡(luò)提取特征。(3)目標(biāo)分類(lèi)。2014年,R-CNN出現(xiàn),對(duì)于目標(biāo)檢測(cè)尤其是行人檢測(cè)方面相較之前得到了極大提升,但是由于檢測(cè)速度不夠,R-CNN并沒(méi)有在目標(biāo)檢測(cè)領(lǐng)域得到大面積的普及,R-CNN存在許多缺陷,例如需要提取并存儲(chǔ)候選區(qū)域中的圖像,這會(huì)導(dǎo)致內(nèi)存空間不足;對(duì)于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),輸入的特征圖尺寸要固定,而R-CNN歸一化的過(guò)程會(huì)改變圖像尺寸,這令CNN的特征提取變的極為困難;所生成的每一個(gè)候選區(qū)域都需要輸入到特征提取網(wǎng)絡(luò)中,從而造成許多相同的特征被重復(fù)提取,使得計(jì)算量無(wú)謂的增加。FastR-CNN對(duì)相應(yīng)問(wèn)題進(jìn)行了改進(jìn)。

2.1.2FastR-CNN目標(biāo)檢測(cè)算法FastR-CNN相對(duì)于R-CNN的提升主要體現(xiàn)在三個(gè)方面:1.檢測(cè)速度得到了提升。R-CNN算法會(huì)造成候選區(qū)域的重疊,導(dǎo)致產(chǎn)生大量不必要的參數(shù)量與計(jì)算量。FastR-CNN改進(jìn)了算法避免了這一問(wèn)題的產(chǎn)生。2.訓(xùn)練速度得到了提升。3.更充足的訓(xùn)練空間。RCNN需要存儲(chǔ)大量特征,占用大量?jī)?nèi)存。而FastR-CNN算法改進(jìn)了這一問(wèn)題。FastR-CNN的工作流程如下:首先選擇性地搜索輸入圖像中的目標(biāo),在輸入圖像上總共產(chǎn)生兩千到三千個(gè)候選區(qū)域。這一步驟與RCNN相同,使用的方法都是選擇性搜索。具體是通過(guò)過(guò)分割的方式在輸入圖像上劃分出不同顏色、不同紋理的區(qū)域。之后,觀察這些不同區(qū)域,合并相似的區(qū)域。不斷的重復(fù),一直到圖像中合并的只剩下最后一個(gè)區(qū)域。合并所遵循的原則與RCNN相同,即顏色相似、紋理相近、合并后面積最小。之后進(jìn)行特征提取,類(lèi)似于RCNN,是圖片通過(guò)卷積層,進(jìn)行卷積運(yùn)算,來(lái)獲得所提取的特征。經(jīng)過(guò)卷積運(yùn)算后,網(wǎng)絡(luò)會(huì)輸出featuremap(特征圖),之后將featuremap映射回原圖像,在卷積運(yùn)算結(jié)束之前,使用RoI(RegionofInterest)池化層將其變?yōu)橄嗤叽?。而在RCNN算法中,輸入特征圖像之前必須要先將圖片進(jìn)行處理,變?yōu)楣潭ǔ叽纾值姆爆嵡姨幚磉^(guò)程容易出錯(cuò),還會(huì)造成一定量的特征丟失,從而影響之后的特征提取,降低檢測(cè)精度。FastRCNN與RCNN不同之處在于FastRCNN可以輸入任意尺寸特征圖,而不是固定尺寸,而實(shí)現(xiàn)不同尺寸特征圖的輸入所依靠的正是ROI池化層。2.1.3FasterR-CNNFastR-CNN是對(duì)R-CNN的改進(jìn),而FasterR-CNN在此基礎(chǔ)上繼續(xù)優(yōu)化了模型算法,檢測(cè)效率進(jìn)一步升高,然而與RCNN、FastR-CNN不同的是,F(xiàn)asterR-CNN使用GPU,通過(guò)深度神經(jīng)網(wǎng)絡(luò)來(lái)完成傳統(tǒng)目標(biāo)檢測(cè)所需的各種步驟,不僅提升了檢測(cè)精度,還加快了檢測(cè)速度。FasterR-CNN的兩個(gè)主要模塊是RPN生成模塊與目標(biāo)檢測(cè)模塊。RPN候選區(qū)域網(wǎng)絡(luò)屬于全卷積神經(jīng)網(wǎng)絡(luò),RPN與傳統(tǒng)目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)的主要區(qū)別是用卷積層替換了傳統(tǒng)網(wǎng)絡(luò)中的全連接層。FasterR-CNN首先由RPN來(lái)產(chǎn)生候選區(qū)域,接著所產(chǎn)生的候選區(qū)域被輸送到主干網(wǎng)絡(luò)中進(jìn)行識(shí)別分類(lèi)。檢測(cè)流程大致如下:輸入特征圖、通過(guò)RPN產(chǎn)生候選區(qū)域、主干網(wǎng)絡(luò)特征提取、分類(lèi)器分類(lèi)、回歸器回歸最終調(diào)整識(shí)別目標(biāo)位置。RPN通過(guò)3×3與1×1兩種不同尺寸的卷積輸出兩個(gè)不同的分支。其中一個(gè)分支作用是判定各包圍盒是否含有識(shí)別對(duì)象,另一個(gè)分支針對(duì)不同的包圍盒,輸出候選區(qū)域x,y,w,h4個(gè)表示坐標(biāo)的參數(shù)。先產(chǎn)生候選區(qū)域再輸入網(wǎng)絡(luò)進(jìn)行識(shí)別的這一思想實(shí)際上與通過(guò)滑動(dòng)窗口定位目標(biāo)的思想相似,區(qū)別在于候選區(qū)域的產(chǎn)生并不是在輸入圖像上滑動(dòng),而是在首個(gè)卷積層的輸出特征圖上進(jìn)行滑動(dòng)。由于輸出特征圖具有空間較小、感受野較大的特點(diǎn),即使使用小面積的滑動(dòng)窗口,映射到原圖上時(shí)范圍也可以很大。FasterR-CNN使用了九種不同尺寸大小的錨盒,大小分別為128×128、256×256、512×512,長(zhǎng)寬比采用1:2、2:1、1:1,其中錨盒的尺寸已經(jīng)比特征圖感受野的尺寸還要更大。2.2基于直接回歸的目標(biāo)檢測(cè)算法以上提到的算法采用兩步操作,雖然精度還不錯(cuò),但檢測(cè)速度并不理想。而基于直接回歸的目標(biāo)檢測(cè)方法可以直接得到檢測(cè)分類(lèi)結(jié)果。這類(lèi)方法去掉了候選區(qū)域的產(chǎn)生這一參數(shù)量與計(jì)算量較多的階段,因此檢測(cè)速度通常更快,可以滿(mǎn)足一些需要具備實(shí)時(shí)性的場(chǎng)合的需求。由于完成檢測(cè)只需要一步,因此與兩步法相對(duì)應(yīng),稱(chēng)之為一步法。2.2.1RetinaNet目標(biāo)檢測(cè)算法因?yàn)榉诸?lèi)不平衡的現(xiàn)象很可能發(fā)生于基于直接回歸的目標(biāo)檢測(cè)算法,所以RetinaNet認(rèn)為這種檢測(cè)算法性能與基于候選區(qū)域的目標(biāo)檢測(cè)算法相比要差一些。提前生成候選區(qū)域可以幫助基于候選區(qū)域的算法過(guò)濾掉沒(méi)有識(shí)別目標(biāo)的多余區(qū)域,而由于省去了生成候選區(qū)域這一步驟,基于直接回歸的算法就會(huì)產(chǎn)生類(lèi)別不平衡的問(wèn)題。因此,RetinaNet提出了焦點(diǎn)(focal)損失函數(shù)這一理念,是對(duì)傳統(tǒng)的交叉熵?fù)p失函數(shù)進(jìn)行了優(yōu)化改進(jìn),降低不重要的背景目標(biāo)在識(shí)別時(shí)所占比重,提高識(shí)別更困難的目標(biāo)樣例在訓(xùn)練中所占權(quán)重。RetinaNet依靠這一理論,使得模型檢測(cè)精度可以與兩步法的模型所媲美的同時(shí),檢測(cè)速度又不低于其他的一步法。2.2.2SSD目標(biāo)檢測(cè)算法為了節(jié)約存儲(chǔ),SSD在卷積特征之后,添加了一系列的卷積層,同時(shí)通過(guò)融合不同層卷積層的特征來(lái)提升對(duì)多尺度目標(biāo)的檢測(cè)表現(xiàn)。與FasterR-CNN的RPN原理類(lèi)似,SSD同樣使用卷積層替換了原始YOLO模型中的全連接層,這有利于SSD分類(lèi)回歸不同尺寸形狀的錨盒。SSD的檢測(cè)速度超過(guò)了YOLO,接近于FasterR-CNN的速度。研究調(diào)查證明,與其他檢測(cè)算法相比,SSD算法模型檢測(cè)效果與基礎(chǔ)模型的性能如何相關(guān)性不大。2.3YOLO系列目標(biāo)檢測(cè)算法原理YOLO也是基于直接回歸的目標(biāo)檢測(cè)算法的一種,屬于一步法,同時(shí)也是本文改進(jìn)所基于的算法。YOLO系列算法檢測(cè)原理大都相似,首先為了得到固定尺寸的特征圖(featuremap)(例如n×n)而采用特征提取網(wǎng)絡(luò)提取所輸入特定圖像的特征,,之后,將輸入圖像按照得到的特征圖的尺寸劃分成網(wǎng)格形式,例如n×n個(gè)單元格,由不同單元格預(yù)測(cè)不同目標(biāo),不同的目標(biāo)具體由哪個(gè)單元格預(yù)測(cè)取決于GroundTruth中目標(biāo)的中心坐標(biāo)落在哪個(gè)單元格(gridcell)內(nèi)。不同的單元格預(yù)測(cè)不同數(shù)量的邊界框(boundingbox),其中和GroundTruth的交并比數(shù)值最大的那個(gè)邊界框產(chǎn)生最終對(duì)目標(biāo)的預(yù)測(cè)。輸出的特征圖共有三個(gè)維度,分別是寬、高、通道數(shù),通道數(shù)也就是常說(shuō)的深度,比如B*(5+C),公式中的B代表任意一個(gè)方塊所對(duì)應(yīng)預(yù)測(cè)的先驗(yàn)框的個(gè)數(shù),C代表先驗(yàn)框內(nèi)目標(biāo)的種類(lèi)個(gè)數(shù)[22-26]。式中的數(shù)字5代表4個(gè)坐標(biāo)信息和1個(gè)先驗(yàn)框置信度(ObjectnessScore)。YOLOv3所采用的訓(xùn)練方式依然是YOLO系列傳統(tǒng)使用的的變尺度訓(xùn)練方式。由于卷積運(yùn)算是卷積核以一定的步長(zhǎng)(stride)在輸入圖像上滑動(dòng),因此當(dāng)特征圖通過(guò)3×3的卷積運(yùn)算后,可以增加自身通道數(shù),而進(jìn)行了3×3卷積運(yùn)算后的特征圖再通過(guò)1×1的卷積可以壓縮自身。因此我們可以發(fā)現(xiàn),YOLOV3網(wǎng)絡(luò)中存在許多3×3與1×1大小的卷積層。YOLOv3目標(biāo)檢測(cè)網(wǎng)絡(luò)的完整結(jié)構(gòu)如圖2.1所示,其中backbone主干網(wǎng)絡(luò)部分為Darknet-53圖2.1YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)YOLOV3的主干網(wǎng)絡(luò)采用了特征提取網(wǎng)絡(luò)Darknet-53,詳細(xì)結(jié)構(gòu)見(jiàn)圖2.2。圖2.2Darknet53結(jié)構(gòu)圖YOLOv4中,對(duì)Darknet53做了一點(diǎn)改進(jìn),借鑒了CSPNet,CSPNet全稱(chēng)是CrossStagePartialNetworks,也就是跨階段局部網(wǎng)絡(luò)。CSPNet解決了其他大型卷積神經(jīng)網(wǎng)絡(luò)框架Backbone中網(wǎng)絡(luò)優(yōu)化的梯度信息重復(fù)問(wèn)題,將梯度的變化從頭到尾地集成到特征圖中,因此減少了模型的參數(shù)量和FLOPS數(shù)值,既保證了推理速度和準(zhǔn)確率,也減小了網(wǎng)絡(luò)尺寸。CSPNet就是基于Densnet的思想,復(fù)制基礎(chǔ)層的特征映射圖,通過(guò)denseblock發(fā)送副本到下一個(gè)階段,從而將基礎(chǔ)層的特征映射圖分離出來(lái)。這樣可以有效緩解梯度消失問(wèn)題,支持特征傳播,鼓勵(lì)網(wǎng)絡(luò)重用特征,從而減少網(wǎng)絡(luò)參數(shù)數(shù)量。最終的CSPDarknet53結(jié)構(gòu)如圖2.3。

圖2.3CSPDarknet53結(jié)構(gòu)圖而本文所改進(jìn)的YOLOv4-tiny網(wǎng)絡(luò)是簡(jiǎn)化版的YOLOv4網(wǎng)絡(luò),是YOLOv4的壓縮版本。它是基于YOLOv4,但使網(wǎng)絡(luò)結(jié)構(gòu)更加簡(jiǎn)單,并降低參數(shù),使之在移動(dòng)和嵌入式設(shè)備的開(kāi)發(fā)更為方便。使用YOLOv4-tiny,可以進(jìn)行更快的訓(xùn)練和更快的檢測(cè)。它只有兩個(gè)YOLO頭,而YOLOv4中有三個(gè)。并且已經(jīng)從29個(gè)預(yù)訓(xùn)練的卷積層中進(jìn)行了訓(xùn)練,而YOLOv4從137個(gè)預(yù)訓(xùn)練的卷積層中進(jìn)行了訓(xùn)練。Yolov4-tiny使用特征金字塔網(wǎng)絡(luò)提取不同尺度的特征圖,進(jìn)而提高目標(biāo)檢測(cè)速度,而沒(méi)有使用Yolov4方法中使用的空間金字塔池和路徑聚合網(wǎng)絡(luò)。Yolov4-tiny的結(jié)構(gòu)圖如圖2.4。

圖2.4YOLOv4-tiny結(jié)構(gòu)2.4本章小結(jié)本章首先對(duì)目前目標(biāo)檢測(cè)領(lǐng)域主流的檢測(cè)算法進(jìn)行了簡(jiǎn)單介紹,大致可以分為兩類(lèi):基于候選區(qū)域的算法(兩步法)與基于直接回歸的算法(一步法)。本文所進(jìn)行改進(jìn)的YOLOv4-tiny算法就屬于一步法中YOLO算法的一種變形;之后又詳細(xì)介紹了YOLOv4算法及其簡(jiǎn)化算法YOLOv4-tiny的網(wǎng)絡(luò)結(jié)構(gòu)以及工作原理,并分析各自?xún)?yōu)缺點(diǎn),為接下來(lái)的改進(jìn)內(nèi)容進(jìn)行了鋪墊。精度輕量化的目標(biāo)檢測(cè)網(wǎng)絡(luò)模型Pytorch簡(jiǎn)介Pytorch包含自動(dòng)求導(dǎo)系統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)并支持動(dòng)態(tài)圖,是一種符合人們的邏輯想法、讓用戶(hù)可以盡可能地聚焦于實(shí)現(xiàn)自己的創(chuàng)意的軟件。所以本課題選擇該軟件來(lái)進(jìn)行實(shí)驗(yàn)和訓(xùn)練。3.2優(yōu)化算法思想3.2.1殘差模塊ResBlock是構(gòu)成ResNet(殘差網(wǎng)絡(luò))的基礎(chǔ)模塊,它在深度學(xué)習(xí)的發(fā)展中發(fā)揮了很重要的作用。我們自然地希望能夠通過(guò)不斷加深網(wǎng)絡(luò)來(lái)取得算法性能上的提升,但更深的網(wǎng)絡(luò)同時(shí)也意味著更低的計(jì)算效率。一般來(lái)說(shuō),相較于淺層模型,深度模型更難以?xún)?yōu)化。ResBlock的原始研究動(dòng)機(jī)就是設(shè)計(jì)特定的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)解決深度模型難以?xún)?yōu)化的問(wèn)題。原作者使用ResNet進(jìn)行訓(xùn)練時(shí),具有34層的網(wǎng)絡(luò)的訓(xùn)練誤差與測(cè)試誤差都低于具有18層的網(wǎng)絡(luò)。這表明ResBlock的確能有效解決深度模型優(yōu)化困難的問(wèn)題。因此自然地希望能通過(guò)Resblock來(lái)優(yōu)化網(wǎng)絡(luò),從而取得算法性能上的提升。所以,為了進(jìn)一步提升速度,使用ResBlock-D模塊代替了部分CSPBlock模塊,降低了計(jì)算的復(fù)雜度。

FPS計(jì)算:其中D為所有卷積層的和,Ml2為第l個(gè)卷積層的輸出特征映射大小,Kl2為核大小的個(gè)數(shù),CCSPBlock的FLOPs為:ResBlock-D的FLOPs為:通過(guò)計(jì)算可以得知,CSPBlock和ResBlock-D的計(jì)算復(fù)雜度比率約為10:1。這意味著ResBlock-D的計(jì)算復(fù)雜度遠(yuǎn)小于CSPBlock。因此在改進(jìn)模型的時(shí)候使用ResBlock-D代替了CSPBlock模塊。如圖3.2。圖3.2CSPBlock模塊于ResBlock-D模塊3.2.2注意力機(jī)制深度學(xué)習(xí)中的注意力機(jī)制可以按照人類(lèi)的注意力機(jī)制進(jìn)行理解。就是把注意力在各種信息上進(jìn)行分配,信息的重要程度不同,所分配注意力也不同,其目的就是在眾多信息中選出核心的信息。在提出CBAM(ConvolutionalBlockAttentionModule)的原論文中,作者希望可以通過(guò)使用注意機(jī)制來(lái)增加重要特征的權(quán)重并抑制不必要的特征。為了把空間和通道這兩個(gè)維度上的有意義的特征更好強(qiáng)調(diào)出來(lái),使學(xué)習(xí)可以在通道和空間兩個(gè)維度上進(jìn)行,作者已經(jīng)做過(guò)了相關(guān)實(shí)驗(yàn)并且證明了先使用通道注意力機(jī)制然后再使用空間注意力機(jī)制這樣的組合效果是比較好的,這是CBAM的通用組合模式,也是Z-NET網(wǎng)絡(luò)所采取的的順序。本文所選取的CBAM整體結(jié)構(gòu)如圖3.3所示,將一個(gè)特征先后通過(guò)通道注意力模塊(ChannelAttentionModule)和空間注意力模塊(SpatialAttentionModule)后得到新的特征矩陣,可以提高算法的識(shí)別精度。圖3.3CBAM結(jié)構(gòu)圖通道注意力模塊(ChannelAttentionMoudle):通道注意力模塊對(duì)在進(jìn)行卷積運(yùn)算的過(guò)程中對(duì)信息傳遞的通道進(jìn)行過(guò)濾優(yōu)化,通過(guò)降低無(wú)效通道的權(quán)重、提高有效通道權(quán)重以增大計(jì)算的準(zhǔn)確率??臻g注意力模塊(SpatialAttentionMoudle):將通道注意力模塊所得到特征圖通過(guò)最大池化[27]和平均池化[27],將結(jié)果拼接后經(jīng)過(guò)一個(gè)7×7的卷積計(jì)算后降維為1個(gè)通道,最后生成spatialattentionfeature達(dá)到提取特征的目的。3.3模型結(jié)構(gòu)雖然使用ResBlock-D模塊來(lái)代替CSPBlock模塊能夠一定程度上提高目標(biāo)檢測(cè)的速度,但是它降低了目標(biāo)檢測(cè)的準(zhǔn)確性。因此為了保持精度和速度的平衡,再兩個(gè)相同的ResidualNetworkblocks作為輔助殘差模塊,并將其添加到ResBlock-D模塊中以提高精度。這里輔助殘差模塊利用兩個(gè)卷積網(wǎng)絡(luò)提取全局特征,同時(shí)使用通道注意力和空間注意力提取更有效的特征信息。采用級(jí)聯(lián)操作將第1個(gè)卷積網(wǎng)絡(luò)的輸出特征與空間注意力機(jī)制的輸出特征進(jìn)行組合。組合后的特征作為輔助殘差模塊的輸出特征。如圖3.4所示。圖3.4輔助殘差模塊最后,將最終的輔助殘差模塊輸出特征與Backbone中Residual網(wǎng)絡(luò)的輸出特征相結(jié)合,作為下一個(gè)骨干網(wǎng)中Residual網(wǎng)絡(luò)的輸入特征。使改進(jìn)后的骨干網(wǎng)能夠提取出檢測(cè)對(duì)象的全局和局部特征,進(jìn)一步提高了檢測(cè)的準(zhǔn)確性。如圖3.5所示。

圖3.5改進(jìn)后結(jié)構(gòu)綜上,我們根據(jù)YOLOv4-tiny網(wǎng)絡(luò)進(jìn)行改進(jìn),構(gòu)建了改進(jìn)后的網(wǎng)絡(luò)模型Z-net,如圖3-6所示。我們采用ResBlock-D模塊替換掉了原始網(wǎng)絡(luò)中的CSPBlock模塊,這一步操作可以提升模型的檢測(cè)速度,但是會(huì)損失掉一部分精度,因此我們加入輔助殘差網(wǎng)絡(luò)模塊以提取更多的物體特征信息,來(lái)減少檢測(cè)誤差。從而彌補(bǔ)損失掉的精度。

圖3.6Z-net模型結(jié)構(gòu)最后,輸入數(shù)據(jù)集,加載Z-net模型進(jìn)行訓(xùn)練測(cè)試。3.4檢測(cè)步驟第一步:輸入圖像劃分為n×n個(gè)方塊,根據(jù)聚類(lèi)算法得出的anchorsbox尺寸生成6個(gè)包圍盒。第二步:輸入圖像進(jìn)入到Z-net卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行特征提取、特征融合、目標(biāo)檢測(cè)、目標(biāo)定位、目標(biāo)分類(lèi)。第三步:采用非極大值抑制(NMS)方法抑制冗余錨框,并輸出預(yù)測(cè)概率最高的錨盒作為最終的檢測(cè)分類(lèi)結(jié)果。3.5非極大值抑制算法目標(biāo)檢測(cè)有時(shí)會(huì)出現(xiàn)一種增加多余計(jì)算量情況,就是產(chǎn)生多余錨盒,這是由于重復(fù)預(yù)測(cè)了相同的目標(biāo)。非極大值抑制[28-30]的目的是抑制其余多余錨盒的輸出,而只留下最有可能的那個(gè)錨盒。對(duì)于這個(gè)問(wèn)題,非極大值抑制方式提出了解決思路:首先,針對(duì)不同類(lèi)別,NMS將不同錨盒對(duì)于這一類(lèi)別所得到的的概率按照從高到低進(jìn)行排列。其次,NMS將概率極低,關(guān)鍵指標(biāo),數(shù)值上等于目標(biāo)預(yù)測(cè)框和真值框的交集比上它們的并集。3.6本章小結(jié)本章主要介紹了根據(jù)本課題對(duì)無(wú)人機(jī)目標(biāo)識(shí)別的高精度、實(shí)時(shí)性的需求,針對(duì)YOLOV4-tiny算法所存在的不足進(jìn)行的優(yōu)化改進(jìn),并簡(jiǎn)要介紹了檢測(cè)步驟以及非極大值抑制算法的原理。改進(jìn)主要為以下三方面:1.采用ResBlock-D模塊替換掉了原始網(wǎng)絡(luò)中的CSPBlock模塊??梢蕴嵘P偷臋z測(cè)速度,但是會(huì)損失掉一部分精度。2.加入輔助殘差模塊,提取更多的物體特征信息,用來(lái)減少檢測(cè)誤差。從而彌補(bǔ)損失掉的精度。3.在輔助殘差模塊中,同時(shí)使用通道注意力和空間注意力提取更有效的特征信息?;赯-net的反無(wú)人機(jī)目標(biāo)檢測(cè)4.1課題采用技術(shù)路線擬采用的技術(shù)路線為:通過(guò)高精度神經(jīng)網(wǎng)絡(luò)的構(gòu)建優(yōu)化算法,降低“低慢小”目標(biāo)的干擾,同時(shí)并提高算法的精度和實(shí)時(shí)性。根據(jù)研究?jī)?nèi)容實(shí)現(xiàn)無(wú)人機(jī)檢測(cè)系統(tǒng)用以解決兩個(gè)對(duì)應(yīng)的關(guān)鍵問(wèn)題,最終測(cè)試該系統(tǒng)是否滿(mǎn)足預(yù)期性能指標(biāo),如果滿(mǎn)足則形成最終的無(wú)人機(jī)目標(biāo)識(shí)別系統(tǒng),如果不滿(mǎn)足則繼續(xù)分析影響性能的關(guān)鍵因素直到滿(mǎn)足性能指標(biāo)為止,模型構(gòu)建形式如圖4.1所示。圖4.1技術(shù)模型的構(gòu)建目標(biāo)檢測(cè)的核心問(wèn)題是網(wǎng)絡(luò)模型的搭建與訓(xùn)練。首先數(shù)據(jù)樣本庫(kù)中的原始圖像不能直接輸入到網(wǎng)絡(luò)中,我們需要將它們調(diào)整到任何特定的大小并使它們更清晰;然后用聚類(lèi)方法代替人工選取的先驗(yàn)值生成預(yù)設(shè)的錨框大小并對(duì)網(wǎng)絡(luò)訓(xùn)練參數(shù)進(jìn)行設(shè)置;接著加載目標(biāo)檢測(cè)模型對(duì)網(wǎng)絡(luò)進(jìn)行初始化并根據(jù)構(gòu)造損失函數(shù)進(jìn)行迭代更新使損失函數(shù)收斂得到性能滿(mǎn)足要求的目標(biāo)檢測(cè)的模型。具體詳細(xì)的數(shù)據(jù)庫(kù)的構(gòu)建、模型訓(xùn)練和目標(biāo)檢測(cè)等三個(gè)部分的流程圖如圖4.2所示。圖4.2模型構(gòu)建具體詳細(xì)流程圖

4.2制作數(shù)據(jù)集如果要客觀地驗(yàn)證改進(jìn)網(wǎng)絡(luò)檢測(cè)效果如何,我們就需要用自己的數(shù)據(jù)集對(duì)其進(jìn)行訓(xùn)練測(cè)試,(VOC數(shù)據(jù)集、COCO數(shù)據(jù)集)。4-1。圖4.3數(shù)據(jù)集LabelImgxml4.4。圖4.4lambelImg標(biāo)注示意圖

Labelimgx、y、w、h中心點(diǎn)坐標(biāo)與目標(biāo)框?qū)捀撸a(chǎn)生一個(gè)xml文件,圖片的標(biāo)注信息保存在xml格式的文件中,每張圖片都會(huì)生成一個(gè)相對(duì)應(yīng)的xml格式文件說(shuō)明如圖4.5所示:圖4.5xml文件格式說(shuō)明4.3k-means聚類(lèi)K-Means算法是廣泛應(yīng)用于深度學(xué)習(xí)實(shí)驗(yàn)。該算法原理通俗易懂,實(shí)現(xiàn)起來(lái)操作簡(jiǎn)便,實(shí)驗(yàn)效果表現(xiàn)優(yōu)異。是一種無(wú)監(jiān)督算法。對(duì)于任意數(shù)據(jù)集,K-Means算法根據(jù)各樣本之間不同距離的原則,將其分類(lèi)為不同的簇,簇?cái)?shù)用K表示。其中同一個(gè)簇的樣本點(diǎn)密集一些,而不同簇的樣本點(diǎn)分散一些。若用公式來(lái)表示,假設(shè)K個(gè)簇分別是(C1,C2,...Ck),我們的最終目的是將平方誤差E得到最小值:E=∑i=1k∑x∈Ci||x?μi||22E=∑i=1k∑x∈Ci||x?μi||22 (4.1)其中μi代表第Ci個(gè)簇的均值向量(質(zhì)心),用如下公式表示:μi=1|Ci|∑x∈Cixμi=1|Ci|∑x∈Cix (4.2)由于以上公式的最小值很難直接求得,K-Means采用的啟發(fā)式迭代方法進(jìn)行計(jì)算,原理如圖4.6,可以很形象的看出。圖4.6k-means效果圖上圖a代表初始樣本,暫且令簇?cái)?shù)為2。在圖b中,我們首先任意選擇紅藍(lán)兩點(diǎn)作為質(zhì)心,緊接著求其余綠點(diǎn)到紅藍(lán)兩點(diǎn)各自的距離,離哪個(gè)顏色的點(diǎn)更近,就將其標(biāo)注為該顏色,到此為止,我們已經(jīng)算是求出所有的樣本在經(jīng)過(guò)了一輪的迭代之后各自的類(lèi)別。接下來(lái)我再對(duì)新得到的不同顏色的點(diǎn)求各自新的質(zhì)心點(diǎn),原先的紅點(diǎn)與藍(lán)點(diǎn)的位置就發(fā)生了改變,新的紅點(diǎn)與藍(lán)點(diǎn)代表兩個(gè)新的質(zhì)心。之后不斷重復(fù)以上過(guò)程,直到形成如圖f所示的分類(lèi)效果。但是在實(shí)驗(yàn)應(yīng)用中,我們通常需要多次進(jìn)行試驗(yàn)的三、四兩步,才能得到較好的分類(lèi)結(jié)果。

綜上,K-Means聚類(lèi)算法運(yùn)行步驟大致如下:1.隨機(jī)選擇K個(gè)聚類(lèi)的初始質(zhì)心;2.對(duì)于樣本中的任意一個(gè)點(diǎn),分別求它與質(zhì)心的間隔,之后將它歸類(lèi)于離它最近的那個(gè)質(zhì)心的類(lèi)別;3.在重復(fù)以上步驟進(jìn)行迭代的過(guò)程中,利用求均值或其余方法來(lái)獲得各個(gè)簇新的質(zhì)心;如果質(zhì)心在不斷重復(fù)以上過(guò)程中,位置的變化低于某個(gè)設(shè)定值

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論