LaneSegNet-一種高效的車(chē)道線(xiàn)檢測(cè)方法_第1頁(yè)
LaneSegNet-一種高效的車(chē)道線(xiàn)檢測(cè)方法_第2頁(yè)
LaneSegNet-一種高效的車(chē)道線(xiàn)檢測(cè)方法_第3頁(yè)
LaneSegNet-一種高效的車(chē)道線(xiàn)檢測(cè)方法_第4頁(yè)
LaneSegNet-一種高效的車(chē)道線(xiàn)檢測(cè)方法_第5頁(yè)
已閱讀5頁(yè),還剩9頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

LaneSegNet:一種高效的車(chē)道線(xiàn)檢測(cè)方法

胡序洋高尚兵汪長(zhǎng)春胡立偉李少凡0引言隨著人們生活水平的提高,汽車(chē)在人們的生活中扮演著越來(lái)越重要的角色,汽車(chē)保有量逐年增加,交通事故頻發(fā).據(jù)統(tǒng)計(jì),2020年全年共發(fā)生近16萬(wàn)起交通事故,死亡4萬(wàn)多人,受傷近16萬(wàn)人,直接財(cái)產(chǎn)損失超過(guò)11億元.為了保障行車(chē)安全,避免事故發(fā)生,衍生出多種輔助駕駛[1]技術(shù),其中車(chē)道線(xiàn)檢測(cè)是智能駕駛技術(shù)中重要的組成部分.車(chē)道線(xiàn)檢測(cè)的準(zhǔn)確度和速度決定了智能駕駛系統(tǒng)的性能.目前,車(chē)道線(xiàn)檢測(cè)的方法主要分為基于傳統(tǒng)的車(chē)道線(xiàn)檢測(cè)方法和基于深度學(xué)習(xí)的檢測(cè)方法.基于傳統(tǒng)的車(chē)道線(xiàn)檢測(cè)方法主要依賴(lài)于高度定義化和手工提取的特征檢測(cè)車(chē)道線(xiàn).例如:劉源等[2]結(jié)合車(chē)道線(xiàn)邊緣的梯度分布和灰度分布提取特征點(diǎn)提出一種基于邊緣特征點(diǎn)聚類(lèi)的車(chē)道線(xiàn)檢測(cè)算法,根據(jù)車(chē)道線(xiàn)特征依次進(jìn)行特征點(diǎn)聚類(lèi)和區(qū)域聚類(lèi),再挑選出最優(yōu)點(diǎn)進(jìn)行擬合;呂侃徽等[3]使用改進(jìn)Hough變換和密度空間聚類(lèi)提出了一種穩(wěn)健的車(chē)道線(xiàn)檢測(cè)算法,將車(chē)道線(xiàn)分解成小線(xiàn)段,再分別進(jìn)行聚類(lèi)和檢測(cè).傳統(tǒng)依賴(lài)手工提取特征的車(chē)道線(xiàn)檢測(cè)方法實(shí)時(shí)性較強(qiáng),但是只適用于環(huán)境簡(jiǎn)單、車(chē)道線(xiàn)無(wú)遮擋、光線(xiàn)較為均勻的結(jié)構(gòu)化道路,當(dāng)?shù)缆穲?chǎng)景復(fù)雜時(shí),檢測(cè)效果往往不能滿(mǎn)足要求.基于深度學(xué)習(xí)的檢測(cè)方法通過(guò)深度神經(jīng)網(wǎng)絡(luò)對(duì)圖像中的車(chē)道線(xiàn)進(jìn)行特征提取.例如:SAD[4]算法使用語(yǔ)義分割和知識(shí)蒸餾能夠增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的特征表達(dá)能力,大幅提升分割效果;PINet[5]模型提出基于關(guān)鍵點(diǎn)的車(chē)道線(xiàn)檢測(cè),使用較少的參數(shù)可以檢測(cè)任意方向、任意數(shù)量的車(chē)道線(xiàn);SGNet[6]算法充分利用車(chē)道線(xiàn)相關(guān)的結(jié)構(gòu)信息,可以準(zhǔn)確描述出車(chē)道線(xiàn)并對(duì)車(chē)道線(xiàn)進(jìn)行分類(lèi)和定位.由于采集設(shè)備以及采集環(huán)境的不同,采集的道路信息會(huì)受到光照、遮擋以及陰影等因素的影響,進(jìn)而影響車(chē)道線(xiàn)檢測(cè)的準(zhǔn)確度.同時(shí),采集的道路圖像較為復(fù)雜,準(zhǔn)確有效的檢測(cè)車(chē)道線(xiàn)仍然存在較大的挑戰(zhàn).本文基于高速公路以及城市內(nèi)道路結(jié)構(gòu)化的特征,提出一種基于LaneSegNet的高效的車(chē)道線(xiàn)檢測(cè)算法,其流程如圖1所示.該算法主要由編解碼網(wǎng)絡(luò)、混合注意力網(wǎng)絡(luò)、多尺度空洞卷積融合網(wǎng)絡(luò)組成.首先使用編碼網(wǎng)絡(luò)提取結(jié)構(gòu)化道路的車(chē)道線(xiàn)特征,同時(shí)通過(guò)混合注意力網(wǎng)絡(luò)增強(qiáng)車(chē)道線(xiàn)特征信息,然后通過(guò)多尺度空洞卷積融合網(wǎng)絡(luò)擴(kuò)大模型的感受野,最后使用解碼網(wǎng)絡(luò)恢復(fù)圖像至原圖大小,實(shí)現(xiàn)了車(chē)道線(xiàn)的檢測(cè).本方法能夠?qū)崿F(xiàn)端到端的車(chē)道線(xiàn)檢測(cè),能夠滿(mǎn)足實(shí)時(shí)性的要求.圖1總體算法流程Fig.1Flowchartofoverallalgorithm1相關(guān)工作近年來(lái)深度學(xué)習(xí)在各個(gè)領(lǐng)域有廣泛應(yīng)用,深度神經(jīng)網(wǎng)絡(luò)在車(chē)道線(xiàn)檢測(cè)領(lǐng)域也取得了很好的效果.本文主要以L(fǎng)ane-Net為主干網(wǎng)絡(luò)對(duì)圖像特征進(jìn)行信息提取和恢復(fù)、使用多尺度空洞卷積特征融合網(wǎng)絡(luò)增大整個(gè)網(wǎng)絡(luò)的感受野、使用混合注意力網(wǎng)絡(luò)增強(qiáng)本任務(wù)相關(guān)的特征.1)主干網(wǎng)絡(luò):主干網(wǎng)絡(luò)的主要功能是盡可能多地提取特征信息.目前圖像分割中使用的主干網(wǎng)絡(luò)主要以編碼-解碼器為主,DeepLabv3+[7]的編碼模塊為帶有空洞卷積的DCNN,其后為帶有空洞卷積的金字塔池化模塊,并引入解碼模塊將低級(jí)信息與高級(jí)信息進(jìn)行融合.EfficientNet[8]通過(guò)增加網(wǎng)絡(luò)寬度、深度以及圖像分辨率提升網(wǎng)絡(luò)的性能,通過(guò)復(fù)合模型擴(kuò)張方法并結(jié)合神經(jīng)網(wǎng)絡(luò)搜索技術(shù)決定增加的數(shù)量.上述網(wǎng)絡(luò)對(duì)于特征提取比較準(zhǔn)確,但是參數(shù)量較大導(dǎo)致推理速度較慢.本文提出一種輕量級(jí)的主干網(wǎng)絡(luò),具有更少的參數(shù)同時(shí)保持較高的準(zhǔn)確度和速度.2)多尺度空洞卷積特征融合網(wǎng)絡(luò):神經(jīng)網(wǎng)絡(luò)的感受野大小對(duì)于大尺度對(duì)象的檢測(cè)和分割具有重要影響.在早期的神經(jīng)網(wǎng)絡(luò)中通過(guò)增加網(wǎng)絡(luò)的深度來(lái)增大感受野,VGGNet[9]通過(guò)增加網(wǎng)絡(luò)層數(shù)增大網(wǎng)絡(luò)的感受野,使其在圖像相關(guān)任務(wù)中取得比較好的效果.3)混合注意力網(wǎng)絡(luò):近年來(lái)注意力機(jī)制[10]經(jīng)常作為一種插件應(yīng)用在神經(jīng)網(wǎng)絡(luò)中,并且對(duì)網(wǎng)絡(luò)的訓(xùn)練效果有顯著的提升.注意力機(jī)制主要有空間域注意力、通道域注意力、混合域注意力等.ECA-Net[11]在SENet[12]的基礎(chǔ)上提出一種新的通道注意力機(jī)制,它在增加通道之間的交互、降低復(fù)雜度的同時(shí)保持性能.EPSANet[13]是一種新的高效金字塔注意力分割模塊(EfficientPyramidSplitAttention,EPSA),它可以有效地提取更細(xì)力度的多尺度空間信息,同時(shí)可以建立更長(zhǎng)距離的通道依賴(lài)關(guān)系.Hou等[14]提出CA(CoordinateAttention)注意力機(jī)制可以捕獲跨通道的信息,同時(shí)能夠感知方向信息以及位置信息,使模型可以更準(zhǔn)確地定位目標(biāo)區(qū)域.但是在以上注意力機(jī)制的實(shí)現(xiàn)過(guò)程中,準(zhǔn)確率和效率之間很難達(dá)到平衡.基于以上分析,本文提出一種基于LaneSegNet的高效車(chē)道線(xiàn)檢測(cè)方法.主要貢獻(xiàn)如下:1)提出一種DDConv(DoubleDownsamplingConvolution)模塊和DUConv(DoubleUpsamplingConolution)模塊.通過(guò)DDConv模塊構(gòu)建Lane-Net編碼器,用于提取車(chē)道線(xiàn)特征信息;通過(guò)下采樣減少網(wǎng)絡(luò)的運(yùn)算量;通過(guò)DUConv模塊建立Lane-Net解碼器,用于逐步恢復(fù)圖像分辨率.2)根據(jù)車(chē)道線(xiàn)的形態(tài)特征,提出一種多尺度空洞卷積特征融合網(wǎng)絡(luò)(Multi-scaleDilatedconvolutionFeaturefusionNetwork,MDFN),使用并行與串行相結(jié)合的空洞卷積增大網(wǎng)絡(luò)的感受野,選擇合適的空洞率避免出現(xiàn)網(wǎng)格效應(yīng),使網(wǎng)絡(luò)能夠捕捉較大尺度的特征信息.3)針對(duì)道路場(chǎng)景圖像中含有較多的噪聲信息提出一種混合注意力網(wǎng)絡(luò)(HybridAttentionNetwork,HAN),使用平均池化和最大池化獲取全局位置權(quán)重,使用多次卷積得到通道權(quán)重,可以增強(qiáng)網(wǎng)絡(luò)的性能.2本文方法2.1LaneSegNet模型LaneSegNet模型是由主干網(wǎng)絡(luò)(Lane-Net)、多尺度空洞卷積特征融合網(wǎng)絡(luò)(MDFN)和混合注意力網(wǎng)絡(luò)(HAN)組成的一種深度卷積神經(jīng)網(wǎng)絡(luò).網(wǎng)絡(luò)整體架構(gòu)如圖2所示,主干網(wǎng)絡(luò)Lane-Net為編碼器-解碼器結(jié)構(gòu),由DDConv和DUConv模塊組成,網(wǎng)絡(luò)中使用非對(duì)稱(chēng)卷積,具備參數(shù)量少、運(yùn)算速度快的特點(diǎn),能快速準(zhǔn)確地檢測(cè)出車(chē)道線(xiàn).在主干網(wǎng)絡(luò)中使用連續(xù)的卷積提取出車(chē)道線(xiàn)的特征,最后使用并行的空洞卷積獲取較大尺度的感受野,增加分割的精度,通過(guò)混合注意力網(wǎng)絡(luò)可以有效增強(qiáng)與當(dāng)前任務(wù)相關(guān)的特征.以上步驟構(gòu)成了LaneSegNet網(wǎng)絡(luò),形成了一個(gè)端到端的車(chē)道線(xiàn)檢測(cè)網(wǎng)絡(luò).圖2LaneSegNet網(wǎng)絡(luò)結(jié)構(gòu)Fig.2StructureoftheproposedLaneSegNetnetwork2.2DDConv網(wǎng)絡(luò)目前圖像分割研究通常使用更深層的卷積神經(jīng)網(wǎng)絡(luò)來(lái)提升模型的性能,網(wǎng)絡(luò)層數(shù)越多,能夠提取的特征就更豐富,但是網(wǎng)絡(luò)深度增加會(huì)導(dǎo)致模型的參數(shù)量增加和計(jì)算量的上升,對(duì)于車(chē)道線(xiàn)分割任務(wù)來(lái)說(shuō),在保證準(zhǔn)確率可行的情況下,實(shí)時(shí)檢測(cè)是非常重要的,更多的網(wǎng)絡(luò)層數(shù)在一定程度上能夠提升檢測(cè)效果,但是參數(shù)量增加會(huì)導(dǎo)致檢測(cè)速度明顯下降.為了平衡網(wǎng)絡(luò)的速度和準(zhǔn)確率,在主干網(wǎng)絡(luò)中使用非對(duì)稱(chēng)卷積[15]來(lái)降低網(wǎng)絡(luò)的參數(shù)量,加快網(wǎng)絡(luò)的訓(xùn)練和推理速度.車(chē)道線(xiàn)分割任務(wù)相比其他任務(wù)來(lái)說(shuō),特征更少,MaxPooling下采樣時(shí)只保留局部最大值,其他值均丟棄,步長(zhǎng)為2的標(biāo)準(zhǔn)卷積下采樣的結(jié)果為局部特征計(jì)算的總和,最后將兩種操作結(jié)果相加,這種結(jié)合方案可以很好地避免單一下采樣丟失過(guò)多車(chē)道線(xiàn)特征.圖3DDConv網(wǎng)絡(luò)結(jié)構(gòu)Fig.3DDConvnetworkstructure圖3中的x為DDConv模塊的輸入特征,首先特征信息會(huì)依次經(jīng)過(guò)1×1卷積和非對(duì)稱(chēng)的3×3卷積進(jìn)行特征提取,這個(gè)過(guò)程可以表示為E0=C3×1(C1×3(C1×1(x)))+x,(1)其中,E0表示DDConv模塊提取的特征信息,C1×1表示卷積核大小為1×1的卷積函數(shù),C3×1和C1×3表示組成非對(duì)稱(chēng)卷積的兩個(gè)函數(shù).為了減少網(wǎng)絡(luò)的計(jì)算量,在DDConv模塊中提取特征之后會(huì)進(jìn)行下采樣操作,這個(gè)過(guò)程可以表示為(2)2.3DUConv網(wǎng)絡(luò)在圖像分割任務(wù)中,通常先使用編碼網(wǎng)絡(luò)提取特征信息并減少圖像分辨率,然后使用解碼網(wǎng)絡(luò)在恢復(fù)出原始信息的同時(shí)恢復(fù)圖像大小,但是在特征提取的過(guò)程中會(huì)丟失部分信息導(dǎo)致一些特征難以恢復(fù).UpSample直接使用插值的方式擴(kuò)充特征圖,計(jì)算過(guò)程較為簡(jiǎn)單,轉(zhuǎn)置卷積上采樣時(shí)可以像普通卷積一樣學(xué)習(xí)參數(shù),恢復(fù)出更多的特征.所以本文采用上述兩種上采樣方法,盡可能恢復(fù)出更多的特征信息.圖4DUConv網(wǎng)絡(luò)結(jié)構(gòu)Fig.4DUConvnetworkstructure圖4中的x為輸入到DUConv模塊的特征,首先特性信息會(huì)通過(guò)一個(gè)1×1卷積和非對(duì)稱(chēng)的3×3卷積,然后通過(guò)并聯(lián)UpSampling2D以及Conv2Dtranspose來(lái)進(jìn)行上采樣,盡可能恢復(fù)出較多的原始特征,最后通過(guò)1×1卷積融合兩部分特征信息.這個(gè)過(guò)程可以表示為Y=C1×1(C1×3(C3×1(UP(x)+CT(x)))),(3)式中,UP(·)表示雙線(xiàn)性插值上采樣,CT(·)表示反卷積,Y表示DUConv模塊的輸出.2.4多尺度空洞卷積特征融合網(wǎng)絡(luò)空洞卷積被廣泛應(yīng)用于語(yǔ)義分割[16-17]任務(wù)中,通過(guò)在常規(guī)卷積中引入空洞率,使得網(wǎng)絡(luò)可以任意增大其感受野.車(chē)道線(xiàn)在整個(gè)圖像中像素比較少,但跨度較大,表現(xiàn)為細(xì)長(zhǎng)的形態(tài)結(jié)構(gòu),感受野的大小對(duì)車(chē)道線(xiàn)分割來(lái)說(shuō)至關(guān)重要,標(biāo)準(zhǔn)卷積有限的感受野只能感受到局部的車(chē)道線(xiàn)特征,使用空洞率為偶數(shù)的組合會(huì)導(dǎo)致網(wǎng)格效應(yīng),因此本文提出一種多尺度空洞卷積特征融合網(wǎng)絡(luò),通過(guò)設(shè)置奇數(shù)空洞率的串行卷積塊組成空洞卷積層,在避免網(wǎng)格效應(yīng)的同時(shí)也增強(qiáng)了卷積結(jié)果之間的相關(guān)性.圖5中多尺度空洞卷積特征融合網(wǎng)絡(luò)采用的第1層的空洞率(d)為1,第2層的空洞率分別為2、5、9和13,第3層的空洞率分別為7、13、19和25.多尺度空洞卷積特征融合網(wǎng)絡(luò)的輸入可以定義為x,高度為h,寬度為w,通道數(shù)為c,所以在一次空洞卷積中可以表示為Gd=PRelu(BN(Convd(x))),其中Convd(·)為空洞率d的空洞卷積,BN(·)為歸一化操作,PRelu(·)為激活函數(shù).Gd表示空洞率為d的空洞卷積層.圖5多尺度空洞卷積特征融合網(wǎng)絡(luò)結(jié)構(gòu)Fig.5Multi-scaledilatedconvolutionfeaturefusionnetworkstructureP1=G1(x),(4)其中,Pi為第i層的輸出,并行空洞卷積第1層空洞率為1.第2層將第1層卷積的結(jié)果和原輸入特征相加再進(jìn)行空洞率依次為2、5、9和13的卷積操作,即P2=G13(G9(G5(G2(x+P1)))).(5)第3層將第2層卷積的結(jié)果和原輸入特征相加再進(jìn)行空洞率依次為7、13、19和25的卷積操作,即P3=G25(G19(G13(G7(x+P2)))).(6)多尺度空洞卷積特征融合網(wǎng)絡(luò)輸出的結(jié)果為3個(gè)并行層的結(jié)果之和.即P=P1+P2+P3,(7)其中,P為整個(gè)多尺度空洞卷積特征融合網(wǎng)絡(luò)的輸出.2.5混合注意力網(wǎng)絡(luò)計(jì)算機(jī)視覺(jué)中處理的對(duì)象一般包含較多噪聲信息,這些噪聲特征會(huì)顯著降低神經(jīng)網(wǎng)絡(luò)[18]模型的性能.車(chē)道線(xiàn)通常處于圖像的下半部分,位置相對(duì)固定,空間注意力能關(guān)注并有效捕捉到車(chē)道線(xiàn)特征信息.分割車(chē)道線(xiàn)要求在提取特征的同時(shí)盡可能地捕捉到全局的特征,建立通道間的依賴(lài)關(guān)系,以往通道注意力模塊直接將特征圖壓縮到1×1×C大小,以獲得通道注意力分?jǐn)?shù),并沒(méi)有關(guān)注通道間的依賴(lài)關(guān)系.本文提出一種混合注意力網(wǎng)絡(luò)通過(guò)逐步減少特征維數(shù),融合通道之間的特征,然后再逐步恢復(fù)到原來(lái)通道維數(shù),從而獲得通道之間的依賴(lài)關(guān)系,得到通道注意力分?jǐn)?shù),最后與空間注意力結(jié)合,最終得到混合注意力分?jǐn)?shù).圖6為混合注意力網(wǎng)絡(luò)結(jié)構(gòu).對(duì)于原始特征x首先使用全局最大池化和全局平均池化獲得空間注意力得分,然后使用1×1卷積進(jìn)行融合.具體為K=Softmax(C1×1(GAP(x)+GMP(x))),(8)6混合注意力網(wǎng)絡(luò)結(jié)構(gòu)Fig.6Hybridattentionnetworkstructure式中,GMP(·)表示全局最大池化,GAP(·)表示全局平均池化,Softmax(·)為Softmax歸一化函數(shù),保證所有通道的和為1.接著使用先下采樣再上采樣的方法獲取混合注意力分?jǐn)?shù),即(9)B=H+K,(10)其中,B為混合注意力網(wǎng)絡(luò)的最終輸出,通過(guò)多種方式獲取特征圖的注意力分值,得到魯棒的加權(quán)特征.2.6損失函數(shù)對(duì)于車(chē)道線(xiàn)分割任務(wù)來(lái)說(shuō),車(chē)道線(xiàn)像素只占整幅圖像的很小部分區(qū)域,所以存在正負(fù)樣本分布不均衡的問(wèn)題.針對(duì)這一問(wèn)題LaneSegNet算法選擇在Dice損失函數(shù)的監(jiān)督下進(jìn)行訓(xùn)練.(11)3實(shí)驗(yàn)與分析3.1實(shí)驗(yàn)參數(shù)設(shè)置本文實(shí)驗(yàn)在Windows開(kāi)發(fā)平臺(tái)訓(xùn)練及測(cè)試,使用python語(yǔ)言實(shí)現(xiàn),選擇基于Tensorflow和Keras深度學(xué)習(xí)框架對(duì)模型進(jìn)行部署.在模型參數(shù)設(shè)置方面,選擇Adam優(yōu)化器進(jìn)行參數(shù)優(yōu)化,損失函數(shù)選擇DiceLoss損失函數(shù),學(xué)習(xí)率初始值為0.001,batchsize設(shè)置為4.在對(duì)模型進(jìn)行訓(xùn)練時(shí),輸入圖像大小調(diào)整為512×512像素.3.2數(shù)據(jù)集為了有效驗(yàn)證本文提出的LaneSegNet模型,選取了TuSimple數(shù)據(jù)集(http:∥benchmark.tusimple.ai)以及CULane[19]數(shù)據(jù)集分別進(jìn)行訓(xùn)練.TuSimple數(shù)據(jù)集采集的是結(jié)構(gòu)化道路圖像,共有3626張訓(xùn)練圖片和2782張測(cè)試圖片,數(shù)據(jù)集中包含的圖像類(lèi)別有白天不同的時(shí)間段、不同的車(chē)道數(shù)目以及不同的交通狀況.CULane數(shù)據(jù)集共有133235張圖片,其中88880張圖片用作訓(xùn)練,9675張圖片用作驗(yàn)證,34680張圖片用作測(cè)試.?dāng)?shù)據(jù)集中共有9個(gè)場(chǎng)景,包括常規(guī)、擁堵、夜間、非結(jié)構(gòu)化、陰影、箭頭、強(qiáng)化、彎道和路口.3.3算法評(píng)價(jià)標(biāo)準(zhǔn)在語(yǔ)義分割中準(zhǔn)確率(A)是模型分割效果經(jīng)常使用的評(píng)價(jià)指標(biāo).語(yǔ)義分割中的準(zhǔn)確率表示預(yù)測(cè)正確的像素點(diǎn)在樣本中所占的比例,通常準(zhǔn)確率越高表示模型的分割效果越好.準(zhǔn)確率的定義如下:(12)在深度學(xué)習(xí)中可以使用F值(F-measure)判斷模型的優(yōu)劣,F值又被稱(chēng)為F1分?jǐn)?shù),它表示的是精確率(P)和召回率(R)的加權(quán)調(diào)和平均,F1分?jǐn)?shù)的定義如下:(13)在F1的定義中經(jīng)常將參數(shù)β設(shè)置為1,F1分?jǐn)?shù)越高表明模型越優(yōu)秀.本文使用準(zhǔn)確率、F1、速度(fps)綜合評(píng)估LaneSegNet模型,驗(yàn)證其性能.3.4實(shí)驗(yàn)結(jié)果與分析圖7為L(zhǎng)aneSegNet算法在TuSimple數(shù)據(jù)集上檢測(cè)的效果.在無(wú)標(biāo)線(xiàn)的道路場(chǎng)景下,由于在訓(xùn)練階段經(jīng)過(guò)多遍重復(fù)性的訓(xùn)練,即使沒(méi)有車(chē)道線(xiàn)信息,根據(jù)歸納性偏好[20]的特點(diǎn)模型推理時(shí)會(huì)優(yōu)先假設(shè)在合適的位置存在車(chē)道線(xiàn),借助道路邊緣信息輔助在分割階段也會(huì)分割出較為合理的車(chē)道線(xiàn).對(duì)于存在車(chē)輛遮擋的場(chǎng)景中,由于網(wǎng)絡(luò)能夠感受到圖像的全局信息,可以依靠周?chē)?chē)流的走向?qū)?chē)道線(xiàn)進(jìn)行定位.從圖7中可以看出,本文方法在各種路況下都能夠準(zhǔn)確地檢測(cè)出車(chē)道線(xiàn),對(duì)無(wú)標(biāo)線(xiàn)(圖7a)、陰影(圖7b)、低光照(圖7c)和有車(chē)輛遮擋(圖7d)情況下的車(chē)道也具備良好的推理效果.圖7TuSimple數(shù)據(jù)集結(jié)果對(duì)比Fig.7ComparisonoflanelinedetectiononTuSimple表1為本文模型和其他模型在TuSimple數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,可以看出本文模型的準(zhǔn)確率最高,達(dá)到了97.6%.并且4種模型中本文方法檢測(cè)速度最快,達(dá)到34.5fps.本文方法保持較快的速度和較高的準(zhǔn)確度的原因主要是由于在主干網(wǎng)絡(luò)中具有較深的卷積,增強(qiáng)了網(wǎng)絡(luò)的特征提取能力,同時(shí)使用非對(duì)稱(chēng)卷積降低參數(shù)量和運(yùn)算量,使網(wǎng)絡(luò)保持較快的運(yùn)行速度.SAD和PINet模型由于具有較多的參數(shù)導(dǎo)致在車(chē)道線(xiàn)檢測(cè)的過(guò)程中表現(xiàn)較差.在檢測(cè)準(zhǔn)確率和檢測(cè)速度上SCNN和SAD并沒(méi)有產(chǎn)生較大的差距.基于LaneSegNet模型的檢測(cè)準(zhǔn)確度都優(yōu)于其他模型,且檢測(cè)速度較快,可以滿(mǎn)足實(shí)時(shí)性要求.表1TuSimple車(chē)道線(xiàn)檢測(cè)準(zhǔn)確率比較表2為各種算法在CULane數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,從結(jié)果可以看出,除了非結(jié)構(gòu)化路面和路口,本文算法在其他7種情況下均取得了較好的效果.非結(jié)構(gòu)化道路由于路況較為復(fù)雜,

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論