【《同步定位與建圖(SLAM)研究的國內(nèi)外文獻(xiàn)綜述》3200字】_第1頁
【《同步定位與建圖(SLAM)研究的國內(nèi)外文獻(xiàn)綜述》3200字】_第2頁
【《同步定位與建圖(SLAM)研究的國內(nèi)外文獻(xiàn)綜述》3200字】_第3頁
【《同步定位與建圖(SLAM)研究的國內(nèi)外文獻(xiàn)綜述》3200字】_第4頁
【《同步定位與建圖(SLAM)研究的國內(nèi)外文獻(xiàn)綜述》3200字】_第5頁
已閱讀5頁,還剩1頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

同步定位與建圖(SLAM)研究的國內(nèi)外文獻(xiàn)綜述SLAM算法的分類及發(fā)展現(xiàn)狀SLAM算法REF_Ref71364315\n\h[5],是指移動平臺(如無人機、小車等)在未知環(huán)境中運行,一方面通過自載傳感器估計自身的位置和姿態(tài),有時也將速度和慣性元件偏差等其他信息包含在狀態(tài)變量中進(jìn)行估計;另一方面是環(huán)境地圖的構(gòu)建,基本框架圖如下REF_Ref71371678\h圖1.3所示。圖STYLEREF1\s1.SEQ圖\*ARABIC\s13SLAM基本框架圖REF_Ref71364339\n\h[6]SLAM方法中常用的傳感器主要包括激光雷達(dá)、各類型相機以及多傳感器融合的SLAM研究。不同傳感器主要優(yōu)缺點如REF_Ref71375657\h表1.1所示。早期的SLAM研究者多采用激光雷達(dá)作為算法實驗的主要傳感器,近年來由于處理器性能的提升,基于視覺的V-SLAM算法取得了快速發(fā)展,單目、雙目、RGB-D等相機成為了機器人位姿估計的重要傳感器。表STYLEREF1\s1.SEQ表\*ARABIC\s11不同傳感器主要優(yōu)缺點傳感器精度級別優(yōu)點缺點激光雷達(dá)厘米級定位精度高,掃描頻率快在雨霧天及沙塵天氣使用受限單目相機厘米級成本低,測量距離不受限尺度不確定,受光照影響較大雙目相機厘米級計算深度,測量距離不受限配置復(fù)雜,計算量大RGB-D厘米級主動測深度,重建效果好測量距離短,易受日光干擾根據(jù)圖像數(shù)據(jù)處理方法的不同,V-SLAM可分為特征法、光流法以及直接法三類。光流法計算像素在圖像中的移動速度和方向,直接法由其演變而來,通過最小化光度誤差來優(yōu)化特征點在下一時刻的位置,避免了特征提取與匹配環(huán)節(jié),可以充分利用圖像信息來構(gòu)建稠密或半稠密地圖。但是,二者均以光度一致為假設(shè),在光照變化強烈和快速移動情況下容易失敗。特征法的運行需要保證環(huán)境具備充足的紋理特征,特征的提取、匹配和跟蹤都需要消耗一定的計算量,影響算法的執(zhí)行效率,但算法在光照魯棒性、重定位及回環(huán)檢測方面具有優(yōu)勢。視覺慣性SLAM研究現(xiàn)狀視覺慣性SLAM(VisualInertialSimultaneousLocalizationandMapping,VI-SLAM)通過融合視覺和慣性測量單元(IMU)信息,實現(xiàn)對移動平臺位置和姿態(tài)的估計。在SLAM領(lǐng)域中,常采用多傳感器融合策略以彌補單一傳感器自身缺陷。其中視覺、慣導(dǎo)信息在定位方面具有良好的優(yōu)勢互補性,視覺信息可以有效校正慣性導(dǎo)航中的靜態(tài)漂移和累計誤差問題,慣導(dǎo)信息則可以彌補視覺測量中尺度模糊、快速運動及弱紋理環(huán)境下誤差較大的問題,且IMU和相機具有重量輕、成本低等特點,符合室內(nèi)無人機輕量化和低功耗的需求。因此有效利用視覺、慣性信息的互補性來實現(xiàn)精確定位已成為該領(lǐng)域研究的熱點和難點。VI-SLAM中,IMU輸出頻率要遠(yuǎn)高于相機頻率,因此需要對IMU數(shù)據(jù)進(jìn)行預(yù)積分處理。LuptonREF_Ref71364355\n\h[7]最早提出IMU預(yù)積分概念,但其采用歐拉角方法表示旋轉(zhuǎn)變化,限制了預(yù)積分的使用場景。ForsterREF_Ref71364371\n\h[8]對其進(jìn)行改進(jìn),在流形空間上提出預(yù)積分的表示形式,避免了旋轉(zhuǎn)奇點的問題,同時將預(yù)積分理論用因子圖模型表示,滿足了平滑算法的應(yīng)用。近些年,VI-SLAM的研究成果有很多,按照對視覺和慣性信息的耦合方式不同,可以分為松耦合和緊耦合兩種類型。松耦合方法是融合視覺與IMU兩個模塊分別獨立進(jìn)行運動估計后的結(jié)果,緊耦合方法則是利用相機與IMU的原始數(shù)據(jù)聯(lián)合進(jìn)行優(yōu)化,更容易獲得全局一致的估計結(jié)果,因此逐步成為近年來的主流。VI-SLAM按照實現(xiàn)方法還可以分為基于濾波和基于非線性優(yōu)化兩種類型。(1)基于濾波方法的VI-SLAM算法基于濾波的緊耦合VI-SLAM算法通常采用卡爾曼濾波器將迭代過程限制在最新的狀態(tài),同時用方差矩陣描述狀態(tài)的不確定性。算法通常由兩個階段構(gòu)成:預(yù)測階段和更新階段。對于濾波方法實現(xiàn)的SLAM系統(tǒng),慣導(dǎo)信息通常用于預(yù)測剛性運動的先驗分布,視覺信息則作為觀測模型,對預(yù)測的狀態(tài)進(jìn)行更新。MSCKF算法REF_Ref71364393\n\h[9]是一個經(jīng)典的緊耦合濾波SLAM算法,該算法狀態(tài)向量由多個時刻的相機位姿信息和IMU狀態(tài)信息構(gòu)成,算法采用滑動窗口的方式在標(biāo)準(zhǔn)的EKF框架下實現(xiàn)位姿的精確估計。ROVIOREF_Ref71364410\n\h[10]是一個開源的采用EKF框架實現(xiàn)的視覺慣性里程計算法,直接計算圖像塊的光度誤差以實現(xiàn)圖像的跟蹤,缺點是對不同環(huán)境需要調(diào)整參數(shù)。上述算法均采用了EKF的濾波框架,但該框架一些固有的缺陷并沒有得到有效解決,如EKF使用一階泰勒展開,復(fù)雜系統(tǒng)中雅克比矩陣的計算及線性化誤差的累積會極大影響系統(tǒng)的估計誤差。(2)基于優(yōu)化方法的VI-SLAM優(yōu)化的方法是將傳感器融合的過程構(gòu)建為一個非線性優(yōu)化的問題。IMU的測量數(shù)據(jù)為系統(tǒng)提供了先驗信息,圖像特征的重投影誤差及IMU預(yù)積分殘差構(gòu)建為一個代價函數(shù),采用優(yōu)化方法對該函數(shù)進(jìn)行求解,可以得到精確的系統(tǒng)狀態(tài)估計。Leutenegger等REF_Ref71364423\n\h[11]于2015年提出基于雙目視覺慣性融合的里程計算法OKVIS,采用滑動窗口的方法統(tǒng)一優(yōu)化視覺重投影誤差項和IMU誤差項信息,實現(xiàn)了實時精確的系統(tǒng)位姿估計。香港科技大學(xué)沈邵劼團(tuán)隊提出了VINS-MonoREF_Ref71364434\n\h[12]算法,采用緊耦合和非線性優(yōu)化的方法實現(xiàn)單目視覺和IMU的融合,通過預(yù)積分對IMU數(shù)據(jù)進(jìn)行預(yù)處理,并在后端利用位姿圖優(yōu)化方法實現(xiàn)姿態(tài)的精確估計。優(yōu)化的方法可以通過多次迭代實現(xiàn)較準(zhǔn)確的位姿估計,然而精度的提高是以高計算量作為代價,在計算處理能力有限的移動平臺上,濾波算法仍有著較平衡的性能優(yōu)勢。目前,幾種主流VI-SLAM方法的性能對比,如REF_Ref71371696\h圖1.4所示。圖STYLEREF1\s1.SEQ圖\*ARABIC\s14幾種VI-SLAM方法性能比較REF_Ref71364447\n\h[13]基于線特征的SLAM研究現(xiàn)狀在視覺SLAM中,與直接法相比,特征法更加魯棒且抗光照變化的能力更強,其中點特征是最常用的特征類型,如經(jīng)典的PTAMREF_Ref71364461\n\h[14]和ORB-SLAM2REF_Ref71364472\n\h[15]系統(tǒng),但視覺傳感器作為一種被動傳感器很容易受到環(huán)境的影響,基于點特征的V-SLAM算法在遭遇場景紋理缺失或者相機快速移動而導(dǎo)致場景模糊情況下,特征點提取效果較差,甚至可能追蹤不到足夠多的有效特征點來估計相機運動,從而導(dǎo)致運動估計失敗。在室內(nèi)結(jié)構(gòu)化環(huán)境中,往往存在較豐富的邊緣和線性結(jié)構(gòu),線特征尤為明顯,REF_Ref71371722\h圖1.5展示了結(jié)構(gòu)化空間中,紋理稀疏情況下點特征和線特征的提取及分布情況。一方面,線特征可以對點特征進(jìn)行補充,可提高基于單一特征點SLAM方法的魯棒性和準(zhǔn)確性;另一方面,線特征因具有良好的光照變化不變性和旋轉(zhuǎn)不變性,可以提供更多的幾何結(jié)構(gòu)信息,比點特征表示的地圖更容易辨識和更適于無人機等移動平臺的應(yīng)用。(a)點特征提取(b)線特征提取圖STYLEREF1\s1.SEQ圖\*ARABIC\s15結(jié)構(gòu)化環(huán)境中的點特征和線特征Gomez-Ojeda等REF_Ref71364486\n\h[16]依據(jù)SVO框架提出基于雙目相機的PL-SVO系統(tǒng),其基本思路是利用LSD線段檢測和匹配線段后,基于光度不變假設(shè)最小化各點與重投影點之間的光度誤差,之后又將此運動估計方法運用到SLAM前端中提出雙目PL-SLAM算法REF_Ref71364497\n\h[17]。Pumarola等REF_Ref71364508\n\h[18]參考ORB-SLAM的框架引入線特征,將誤差函數(shù)定義為線段兩端點的重投影點和測量線段之間的直線距離。賀一家等REF_Ref71364519\n\h[19]提出PL-VIO系統(tǒng),在VINS-Mono的前端加入LSD線特征檢測器,算法為了更有效融合點、線信息,結(jié)合了IMU預(yù)積分誤差項以及點、線逆映射誤差,采用滑動窗口優(yōu)化框架最小化代價函數(shù),實現(xiàn)位姿的精確估計。鄒丹平等REF_Ref71364530\n\h[20]則基于曼哈頓世界假設(shè),將結(jié)構(gòu)線特征加入到Struct-VIO中,提高了相機方位的可觀測性和全局精度。參考文獻(xiàn)張澤群.四旋翼飛行器室內(nèi)定位及避障系統(tǒng)設(shè)計[D].哈爾濱:哈爾濱理工大學(xué),2017.盛哲.基于視覺導(dǎo)航的無人機位姿控制與自主返航技術(shù)[D].上海:上海交通大學(xué),2015.LeonardJJ,DurrantwhyteH.Mobilerobotlocalizationbytrackinggeometricbeacons[J].InternationalConferenceonRoboticsandAutomation,1991,7(3):376-382.楊杰.融合IMU與Kinect的機器人定位算法研究[D].武漢:武漢科技大學(xué),2014.ThrunS,LeonardJJ.Simultaneouslocalizationandmapping[J].IEEETransactionsonIntelligentTransportationSystems,2012,13(2):541-552.CadenaC,CarloneL,CarrilloH,etal.Past,present,andfutureofsimultaneouslocalizationandmapping:towardtherobust-perceptionage[J].IEEETransactionsonRobotics,2016,32(6):1309-1332.LuptonT,SukkariehS.Visual-inertial-aidednavigationforhigh-dynamicmotioninbuiltenvironmentswithoutinitialconditions[M].IEEETransactionsonRobotics,2012,28(1):61-76.ForsterC,CarloneL,DellaertF,etal.On-Manifoldpreintegrationforreal-timevisual-inertialodometry[J].IEEETransactionsonRobotics,2017,33(1):1-21.MourikisA,RoumeliotisS.Amulti-stateconstraintkalmanfilterforvision-aidedinertialnavigation[C].Proceedings2007IEEEInternationalConferenceonRoboticsandAutomation,Roma,Italy,10-14April2007.IEEE,2007:3565-3572.BloeschM,OmariS,HutterM,etal.RobustvisualinertialodometryusingadirectEKF-basedapproach[C].IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS),Hamburg,Germany,28Sept.-2Oct.2015.IEEE,2015:298-304.LeuteneggerS,LynenS,BosseM,etal.Keyframe-basedvisual-inertialodometryusingnonlinearoptimization[J].TheInternationalJournalofRoboticsResearch,2015,34(3):314-334.QinT,LiPL,ShenSJ.VINS-Mono:arobustandversatilemonocularvisual-inertialstateestimator[J].IEEETransactionsonRobotics,2018,34(4):1004-1020.DelmericoJ,ScaramuzzaD.Abenchmarkcomparisonofmonocularvisual-inertialodometryalgorithmsforflyingrobots[C].2018IEEEInternationalConferenceonRoboticsandAutomation(ICRA).IEEE,2018:2502-2509.KleinG,MurrayD.ParalleltrackingandmappingforsmallARworkspaces[C].20076thIEEEandACMInternationalSymposiumonMixedandAugmentedReality,Nara,Japan,13-16Nov.2007.IEEE,2008:225-234.Mur-ArtalR,TardosJD.ORB-SLAM2:anopen-sourceslamsystemformonocular,stereo,andRGB-Dcameras[J].IEEETransactionsonRobotics,2017,33(5):1255-1262.Gomez-OjedaR,BrialesJ,Gonzalez-JimenezJ.Pl-svo:semi-directmonocularvisualodometrybycombiningpointsandlinesegments[C].2016IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS).IEEE,Daejeon,SouthKorea,2016:4211-4216.Gomez-OjedaR,MorenoFA,ZU?IGA-NO?LD,etal.Pl-slam:astereoSLAMsystemthroughthecombinationofpointsandlinesegments[J].IEEETransactionsonRobotics,2019,35(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論