【《無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述》4800字(論文)】_第1頁
【《無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述》4800字(論文)】_第2頁
【《無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述》4800字(論文)】_第3頁
【《無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述》4800字(論文)】_第4頁
【《無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述》4800字(論文)】_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述目錄TOC\o"1-3"\h\u222無人機(jī)識別與反制算法研究的國內(nèi)外文獻(xiàn)綜述 1227291傳統(tǒng)算法 3306922基于深度學(xué)習(xí)的目標(biāo)檢測算法 3150183反無人機(jī)系統(tǒng) 7目前,非合作無人機(jī)目標(biāo)探測的偏傳統(tǒng)技術(shù)包括聲、光、雷達(dá)、無線電探測等。采用單一技術(shù)的測探設(shè)備各有優(yōu)缺點,無線電偵測設(shè)備對被偵測目標(biāo)的配合與否要求較高,對于有意隱藏自己的目標(biāo)并不有效;雷達(dá)探測設(shè)備由于先天劣勢,并不能很好地對低空空域的無人機(jī)進(jìn)行探測,如果低空空域存在一些不可知的干擾波段,則會影響檢測效果;光電探測設(shè)備的優(yōu)點是目標(biāo)可視性高,直觀清晰,與之前幾種方式相比應(yīng)用時間最長。而最近興起的視覺檢測具備原理簡單、成本低廉、不易受外界環(huán)境干擾、能在環(huán)境較為復(fù)雜的場景下應(yīng)用等特點,已經(jīng)在工業(yè)、農(nóng)業(yè)、醫(yī)學(xué)等多領(lǐng)域取得了顯著成果,未來將會是反無人機(jī)檢測的主要技術(shù)。目標(biāo)檢測算法,以前多是一些通過滑動窗口檢測或者匹配特征點的框架。而2014年的AlexNet[3]將圖像分類的準(zhǔn)度提升了很多,學(xué)者們就把視線轉(zhuǎn)移到了基于深度學(xué)習(xí)的目標(biāo)檢測算法的訓(xùn)練中,涌現(xiàn)出了R-CNN[4]系列、YOLO[5]、SSD[6]等經(jīng)典框架,這些框架相比于傳統(tǒng)算法有著更為優(yōu)良的檢測性能。表1為兩種算法研究現(xiàn)狀的文獻(xiàn)概述[7],來源于文獻(xiàn)[7]。表中早期的文獻(xiàn)[2-12]和近期文獻(xiàn)[13-15]主要是針對行人檢測或者面部檢測等目標(biāo)實例檢測;文獻(xiàn)[16-19]對基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)進(jìn)行了較為全面的闡述、分析與整理。深度學(xué)習(xí)的使用和發(fā)展,使算法對無人機(jī)的識別,無論從快速性和準(zhǔn)確性來說,都得到了實質(zhì)性的飛躍。表SEQ表\*ARABIC1目標(biāo)檢測綜述性文獻(xiàn)列表1傳統(tǒng)算法傳統(tǒng)算法中通常使用的特征分為方向梯度直方圖[8]、尺度不變特征[9]、哈爾特征[10]三種。在圖像識別中HOG特征和SVM[11]分類器的組合應(yīng)用廣泛。與其他算法相比,HOG能夠?qū)D形幾何和光學(xué)形變都能維持優(yōu)秀的不變性,并允許人有一些輕微動作,這些輕微的動作會被忽視,而不影響檢測效果。該組合孫皓[12]等人在行人檢測訓(xùn)練中中獲得了極大的成功。當(dāng)前也有許多新穎且優(yōu)秀的行人檢測算法被不斷提出,HOG+SVM組合仍然有著重要的地位。SIFT[13]算法通建立檢測目標(biāo)間的對應(yīng)關(guān)系進(jìn)行檢測,它所查找到的關(guān)鍵點是一些如邊緣點和角點,一般不會受噪音和光照影響的十分突出的點,其龐大的信息量適合在大型數(shù)據(jù)庫中快速準(zhǔn)確匹配,但它計算過于復(fù)雜、速率低下。相比之下,SURF[14]則通過減少降采樣過程來提高目標(biāo)的檢測速度,幾個簡單的加減運算便能完成濾波,并且通過實驗證明,SURF算法的計算速度可達(dá)到SIFT算法的3倍左右,不過該算法有十分依靠主方向的選取準(zhǔn)確度的缺陷。Haar-like特征最早是由Papageorgiou等應(yīng)用于人臉表示,是一種只遍歷一次圖像就可以求出圖像中所有區(qū)域像素和的快速算法。后Haar特征被成功應(yīng)用于Viola-Jones[15]-[16]檢測算法中,用以描述窗口,表明局部的明暗變化,并使用積分圖的思想處理Haar特征提取時計算復(fù)雜的缺點。雖然首次實現(xiàn)了對人臉進(jìn)行實時檢測,但有著準(zhǔn)確率一般、魯棒性不足的缺點。可見,雖然傳統(tǒng)的目標(biāo)檢測方法也在不斷進(jìn)步,但也存在著許多不足,主要問題是傳統(tǒng)算法的特征提取太依賴于設(shè)計者的經(jīng)驗經(jīng)驗,不能自適應(yīng)提取特征,而且其所提取的低層次、有針對性設(shè)計的特征的提取不能夠很好的表達(dá)其他元素的作用,遷移到其他場景的能力差,計算過程也過于繁瑣復(fù)雜。2基于深度學(xué)習(xí)的目標(biāo)檢測算法2014年之后,目標(biāo)檢測進(jìn)入深度學(xué)習(xí)時代。根據(jù)檢測方法的不同,大致的分為“兩階段”和“單階段”兩類檢測方法。兩階段也稱為two-stage,檢測模型將檢測任務(wù)劃分成了兩個階段:第一階段是由算法產(chǎn)生一系列候選區(qū)域,第二階段是通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行候選區(qū)域的分類和定位后得到目標(biāo)檢測的結(jié)果。這類方法的典型模型是RCNN,F(xiàn)astR-CNN,F(xiàn)asterR-CNN等。(1)2014年,Girshick等人首次提出的一種兩階段區(qū)域卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測器R-CNN,可用來識別目標(biāo)類別并對每個區(qū)域內(nèi)目標(biāo)的存在進(jìn)行預(yù)測。RCNN在抽取每張圖片上的每個候選區(qū)域并進(jìn)行變換和修整后更利于神經(jīng)網(wǎng)絡(luò)讀取特征,然后用SVM進(jìn)行類別的識別,并產(chǎn)生分?jǐn)?shù)。針對于候選區(qū)域有產(chǎn)生的重疊現(xiàn)象,對每個類通過計算IoU指標(biāo),采取非極大性抑制,以最高分的區(qū)域為基礎(chǔ),剔除掉那些重疊位置的區(qū)域。但R-CNN花費了大量時間在分類上,而且在R-CNN網(wǎng)絡(luò)結(jié)構(gòu)模型中,由于卷積神經(jīng)網(wǎng)絡(luò)的全連接層對于輸入的圖像尺寸有限制,所以在特征提取時無法完整保留原始圖像的信息。(2)2015年,R.Girshick通過改進(jìn)R-CNN和SPP-Net[17]后提出了FastR-CNN,可以在輸入圖像中得到建議候選區(qū)域并獲取到目標(biāo)特征后經(jīng)過池化層得到固定大小的特征向量作為后續(xù)分類。在對卷積特征層上的各候選區(qū)域進(jìn)行池化操作,得到固定維度的特征后,將最后提取的特征輸入所有連接層,用Softmax進(jìn)行分類,回歸候選區(qū)域的位置。但是,雖然與RCNN相比,F(xiàn)astR-CNN的速度和精度都有了較大提高,但是仍舊沒有實現(xiàn)端到端(end-to-end)的檢測訓(xùn)練。(3)之后Ren等人提出了FasterR-CNN[18],它是一種有效定位目標(biāo)區(qū)域的方法,按區(qū)域在特征圖上進(jìn)行特征索引的方式大大降低了卷積計算的時間消耗,所以速度上有了非常大的提升,并利用區(qū)域建議網(wǎng)絡(luò)(RPN)實現(xiàn)了模型端到端的訓(xùn)練。在RPN網(wǎng)絡(luò)生成區(qū)域候選圖像塊之后,通過softmax判斷錨點屬于前景或者背景。接著目標(biāo)區(qū)池化層收集輸入的特征圖和候選的目標(biāo)區(qū)域,再將這些信息綜合分析后后進(jìn)行目標(biāo)區(qū)域的特征圖的提取,利用目標(biāo)區(qū)域特征圖對目標(biāo)區(qū)域的類別的類別進(jìn)行計算,同時為最終獲得檢測框的精確位置而再次進(jìn)行邊界框回歸。但Faster-RCNN所采用的的池化方式仍會導(dǎo)致之后的網(wǎng)絡(luò)特征失去平移不變性,影響最終定位準(zhǔn)確性,而且存在著較多的重復(fù)計算;其錨點框經(jīng)過多次下采樣操作的特征圖對應(yīng)原圖一塊較大的區(qū)域,所以Faster-RCNN并不具備優(yōu)良的小目標(biāo)檢測性能。可見,雖然不斷發(fā)展和改進(jìn)基于區(qū)域分類的兩階段網(wǎng)絡(luò)使得“兩階段”算法的檢測精度越來越高,但是計算量較大導(dǎo)致其實時性較差,難以滿足實際應(yīng)用。因此,研究者便提出了一種基于回歸目標(biāo)檢測方法,該方法直接利用單個卷積神經(jīng)網(wǎng)絡(luò)直接對目標(biāo)進(jìn)行分類和定位便可得到檢測結(jié)果,雖然檢測速度很快但定位精度較差。典型的單階段檢測有YOLO系列,SSD系列等。(1)YOLOv1(YouOnlyLookOnce):從R-CNN到FasterR-CNN設(shè)計者們所采用的思路一直是通過生成候選區(qū)域以提供位置信息和分類以提供類別信息來進(jìn)行訓(xùn)練,并且已經(jīng)達(dá)到較高的精度,但由于two-stage生成候選區(qū)域所耗費時間過多,其處理速度不行達(dá)不到real-time效果。Redmon等人將目標(biāo)檢測統(tǒng)一在一個卷積神經(jīng)網(wǎng)絡(luò)中提出了一種實時檢測器YOLO。YOLO所選用的是較R-CNN系列更為直接的思路:在網(wǎng)絡(luò)中輸入整張圖,同時把ObjectDetection的問題轉(zhuǎn)化成一個Regression問題。即在讀取輸入圖像并將圖像的大小調(diào)整到固定的分辨率后,在特征提取網(wǎng)絡(luò)中進(jìn)行圖像的檢測,最后利用非極大值抑制(NMS)算法對檢測結(jié)果進(jìn)行閾值篩選后得到實驗結(jié)果。但由于算法的一個網(wǎng)格中只預(yù)測了兩個框,YOLOv1對相互靠的很近的物體,如挨在一起且中點都落在同一個格子上的物體和很小的群體檢測效果并不好,而且對于同一類物體在測試圖像中出現(xiàn)的不常見的長寬比和其他情況時的泛化能力較弱,在大小物體問題的處理上也有很大的提升空間。(2)YOLO9000:YOLO9000是Redmon等人提出的一種改進(jìn)的YOLO版本。作者采用了一系列如anchor先驗信息、損失函數(shù)、批標(biāo)準(zhǔn)化等不同的優(yōu)化策略對原來的YOLO多目標(biāo)檢測框架進(jìn)行了改進(jìn),在保持速度有事的同時提升了精度,而且實現(xiàn)了多于9000種物體的實時檢測。YOLO9000選取的是類似FasterR-CNN中的anchor思想而不是如YOLOv1一般利用全連接層直接預(yù)測boundingbox的坐標(biāo),采用的是卷積和anchorboxes而不是YOLOv1中的全連接層來預(yù)測邊界框。在檢測模型中,YOLO9000采用的也不是418×418的輸入圖片,而采用的是416×416大小的圖片,因為YOLO9000模型下采樣的總步長為32,對于416×416大小的圖片進(jìn)行處理后最終得到的特征圖大小才能為13×13,維度是奇數(shù),這樣特征圖恰好只有一個中心位置。對于一些大物體,它們中心點往往落入圖片中心位置,此時使用特征圖的一個中心點去預(yù)測這些物體的邊界框相對容易些。雖然在訓(xùn)練過程中YOLO9000可以通過改變模型的輸入圖片大小進(jìn)行多尺度訓(xùn)練,在提升模型魯棒性的同時也獲得了較高的檢測精度,但還是未能很好地解決小目標(biāo)的問題。(3)SSD方法:2016年,針對YOLO的局限性,LiuWei等人提出了SSD算法。通過放大操作和縮小操作進(jìn)行數(shù)據(jù)增強(qiáng),并通過在同一個特征圖上設(shè)置多個anchor以檢測不同尺度的目標(biāo),但先驗框設(shè)置和調(diào)試過程比較依賴經(jīng)驗,很容易發(fā)生對低級特征卷積層特征提取不充分的問題。而且SSD對小目標(biāo)的檢測效果一般,作者認(rèn)為在高層并沒有足夠的小目標(biāo)信息。(4)YOLOv3[19]:YOLOv3是目前最常用的網(wǎng)絡(luò)模型,它提出了一個更深和更強(qiáng)的特征提取主干網(wǎng)絡(luò)Darknet53,大量使用殘差的跳層連接,并且為了降低池化帶來的梯度負(fù)面效果,作者直接摒棄了POOLing,用conv的stride來實現(xiàn)降采樣。在這個網(wǎng)絡(luò)結(jié)構(gòu)中,降采樣是通過步長為2的卷積來實現(xiàn)的。實驗表明,當(dāng)輸入圖像的大小為320×320時,YOLOv3可以保證在檢測準(zhǔn)確率與SSD一致的前提下,檢測速度比SSD快3倍。在類別預(yù)測方面,將原來的單標(biāo)簽分類替換為多標(biāo)簽分類來適應(yīng)包含許多重疊標(biāo)簽的更復(fù)雜數(shù)據(jù)集;在錨框設(shè)置方面采用了對圖像中的目標(biāo)采用k-means聚類以生成anchor值的方法,在三個尺度上使用三種不同比例的錨框大小來預(yù)測邊界框;在檢測策略方面采用三個尺度融合的方式來替代兩個尺度進(jìn)行預(yù)測,彌補(bǔ)了YOLO系列一直對小目標(biāo)檢測率低的缺陷。而且許多研究者基于該算法做了很多改進(jìn)實現(xiàn)了很好的速度和檢測精度,并將許多代碼開源,更使得其在學(xué)術(shù)界和工業(yè)界得到了十分廣泛的應(yīng)用。(5)YOLOv4[20]:在原有的YOLOv3的基礎(chǔ)上,出現(xiàn)了YOLOv4算法,采用了近些年來CNN領(lǐng)域中十分優(yōu)秀的優(yōu)化策略,從Data處理、主干網(wǎng)絡(luò)、模型訓(xùn)練、激活函數(shù)、損失函數(shù)等各個方面都有著不同程度的優(yōu)化。這是一個平衡了精度和速度的算法。大的模型,在比賽中可以擁有名列前茅的成績,但速度太慢;小模型雖然速度快,但準(zhǔn)確率又不夠高。另外,當(dāng)今有很多模型因為尺寸大的原因,需要很多GPU進(jìn)行并行訓(xùn)練,而YOLOv4可以在一塊普通的GPU上完成訓(xùn)練,并且能兼顧實時性,所以能夠在更多樣化的環(huán)境中運行。此外,近幾年來,許多最新的方法被應(yīng)用于目標(biāo)檢測??梢钥闯觯黝愃惴ㄟ€沒有很滿意的小目標(biāo)識別性能。而且,雖然構(gòu)建深層卷積神經(jīng)網(wǎng)絡(luò)可以獲得更高的目標(biāo)檢測精度,但計算復(fù)雜度的提高和內(nèi)存占用的增加會導(dǎo)致檢測速度大幅下降,故如何使算法具備良好的小目標(biāo)識別能力以及平衡算法的精度和實時性始終是重點難點問題。3反無人機(jī)系統(tǒng)國內(nèi)的反無人機(jī)系統(tǒng)研究開發(fā)剛剛起步,而從國外來講,如圖1.5DroneTracker系統(tǒng)是由德國的Dedrone公司開發(fā)的,是目前最著名的無人機(jī)檢測系統(tǒng)。如圖1.6是空客公司開發(fā)的一款反無人機(jī)系統(tǒng)。國內(nèi)產(chǎn)品包括北斗開放實驗室研制的ADS2000系統(tǒng),該系統(tǒng)是通過模擬出一個與無人機(jī)控制信號相似的信號來獲得無人機(jī)的控制權(quán),從而對無人機(jī)進(jìn)行反制[21]。圖1.5DroneTracker系統(tǒng)圖1.6反無人機(jī)系統(tǒng)根據(jù)不同的反制措施,目前國內(nèi)的反無人機(jī)系統(tǒng)大體可以分為干擾阻斷、毀傷抓捕和監(jiān)測控制[1]三個種類。干擾阻斷類反無人機(jī)系統(tǒng)由于體積輕便因此大多可以隨身攜帶,并且它還具有操作簡便、成本低廉的優(yōu)點,但是存在對使用環(huán)境要求高的缺點。因為該種類反無人機(jī)系統(tǒng)基本原理是通過電磁手段干擾無人機(jī)的正常飛行,這就不可避免的會影響居民區(qū)居民的日常生活,因此在使用時應(yīng)該注意避開人多地區(qū);直接摧毀類系統(tǒng)優(yōu)點是反制效果簡單粗暴,對于充滿干擾的環(huán)境,可以免去復(fù)雜的設(shè)備探測步驟,但是這類系統(tǒng)大多價格昂貴,使用性價比不高。在實際使用時,由于對目標(biāo)直接采用火力打擊,無人機(jī)墜毀后的殘骸可能對地面的安全造成危害,這項危害目前普遍得不到充分考慮,因此并不適用

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論