CN120088752B 一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng) (南昌大學)_第1頁
CN120088752B 一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng) (南昌大學)_第2頁
CN120088752B 一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng) (南昌大學)_第3頁
CN120088752B 一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng) (南昌大學)_第4頁
CN120088752B 一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng) (南昌大學)_第5頁
已閱讀5頁,還剩29頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

(19)國家知識產(chǎn)權(quán)局(12)發(fā)明專利(10)授權(quán)公告號CN120088752B(65)同一申請的已公布的文獻號大道999號王曦穎閔衛(wèi)東韓清(74)專利代理機構(gòu)南昌大牛知識產(chǎn)權(quán)代理事務所(普通合伙)36135專利代理師劉靜娟(54)發(fā)明名稱一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng)(57)摘要本發(fā)明公開了一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng),涉及自動駕駛和輔助駕分為訓練圖像和待測圖像;基于預設的重參數(shù)化深度可分離下采樣層、位置注意力層、深度可分離卷積層、部分分解自注意力層、圖像分解融合層對現(xiàn)有的TwinLiteNet模型進行改進,搭建改進的TwinLiteNet模型;使用訓練圖像對改進的TwinLiteNet模型進行訓練,輸出交通道路可行駛區(qū)域和車道線檢測結(jié)果。本發(fā)明通過搭建改進的獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像基于預設的重參數(shù)化深度可分高下采樣層、位置注意力層、深度可分離卷積層、部分分解自注意力層、圖像分解融合層對現(xiàn)有的TwinLiteNet模型進行改使用所述訓練圖像對所述改進的TwinLiteNet模型進行訓練,獲取訓練好的TwinLiteNet模型,將所述待測圖像輸入所述訓練好的TwinLiteNe模型中進行檢測,輸出交通道路可行駛區(qū)域和車道線檢測結(jié)果21.一種交通道路可行駛區(qū)域和車道線檢測方法,其特征在于,包括:獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像;基于預設的重參數(shù)化深度可分離下采樣層、位置注意力層、深度可分離卷積層、部分分解自注意力層、圖像分解融合層對現(xiàn)有的TwinLiteNet模型進行改進,搭建改進的TwinLiteNet模型;所述部分分解自注意力層放置于TwinLiteNet中注意力機制層的最后,用于獲取簡易全局注意力特征圖,其中,獲取簡易全局注意力特征圖的過程,包括:將特征金字塔中多個不同分辨率大小的特征圖進行分辨率縮放處理,獲取多個分辨率相同的特征圖;將多個分辨率相同的特征圖依次進行通道拼接和卷積聚合特征處理,獲取第一特征圖;對所述第一特征圖進行通道分割,獲取第二特征圖和第三特征圖,所述第二特征圖和第三特征圖的通道數(shù)相同;將第二特征圖分別進行橫向自注意力和豎向自注意力計算,對應獲取橫向特征圖和豎向特征圖;將橫向特征圖、豎向特征圖、第二特征圖和第三特征圖進行通道拼接處理,獲取簡易全局注意力特征圖;所述圖像分解融合層用于獲取增強特征,具體過程,包括:將現(xiàn)有的TwinLiteNet模型中的下采樣層替換為重參數(shù)化深度可分離下采樣層,以獲取TwinLiteNet模型內(nèi)各個分支的通道數(shù);使用深度可分離重參數(shù)卷積層替換下采樣層內(nèi)各個分支的膨脹卷積,并根據(jù)所述通道數(shù)將輸入特征圖輸入至多個深度可分離重參數(shù)卷積層中進行卷積處理,以獲取多個感受野特征;在所述重參數(shù)化深度可分離下采樣層內(nèi)的每個分支后面加上一個位置注意力層,以對多個感受野特征進行特征增強處理,獲取多個分支輸出的增強特征,其中,每個分支上的所述深度可分離重參數(shù)卷積層的數(shù)量依次遞使用所述訓練圖像對所述改進的TwinLiteNet模型進行訓練,獲取訓練好的TwinLiteNet模型;將所述待測圖像輸入所述訓練好的TwinLiteNet模型中進行檢測,輸出交通道路可行駛區(qū)域和車道線檢測結(jié)果。2.根據(jù)權(quán)利要求1所述的一種交通道路可行駛區(qū)域和車道線檢測方法,其特征在于.所述通道數(shù)由第一通道數(shù)和第二通道數(shù)組成,每個所述第一通道數(shù)為輸出通道數(shù)與分支數(shù)量的比值,所述第二通道數(shù)為輸出通道數(shù)與多個所述第一通道數(shù)總數(shù)的差值。3.根據(jù)權(quán)利要求2所述的一種交通道路可行駛區(qū)域和車道線檢測方法,其特征在于,所述第一通道數(shù)的數(shù)學表達式為:所述第二通道數(shù)的數(shù)學表達式為:4.根據(jù)權(quán)利要求1所述的一種交通道路可行駛區(qū)域和車道線檢測方法,其特征在于,所述增強特征包括車道線上采樣特征和可行駛區(qū)域上采樣特征,其中,獲取所述車道線上采樣特征和可行駛區(qū)域上采樣特征的具體過程,包括:將輸入特征圖進行3×1卷積,以獲取第一輸出特征;對和當前解碼器上采樣階段中圖像特征分辨率相同的主干中的圖像特征進行分解卷3將所述卷積特征進行通道最大池化、通道平均池化、激活處理,以獲取將所述第一空間權(quán)重與上采樣的車道線特征圖進行相乘并殘差相加,以獲取車道線上采樣特征;將所述第一輸出特征進行1×3卷積,以獲取第二輸出特征;將所述第二輸出特征進行通道最大池化、通道平均池化、激活處理,以獲取第二空間權(quán)基于所述第二空間權(quán)重與可行駛區(qū)域特征進行相乘并殘差相加,以獲取可行駛區(qū)域上采樣特征。5.一種交通道路可行駛區(qū)域和車道線檢測系統(tǒng),其特征在于,所述系統(tǒng)包括:圖像獲取模塊,用于獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像;重參數(shù)化深度可分離下采樣模塊,用于將現(xiàn)有的TwinLiteNet模型中的下采樣層進行替換,以獲取不同大小感受野的特征信息;輕量化處理模塊,用于將現(xiàn)有的TwinLiteNet模型中的主干中的普通卷積層替換為深度可分離卷積層進行輕量化處理,以獲取輕量化主干;位置注意力模塊,用于對輸入特征進行特征增強處理,以獲取增強特征;部分分解自注意力模塊,放置于TwinLiteNet中注意力機制層的最后,用于獲取簡易全局注意力特征圖,其中,獲取簡易全局注意力特征圖的過程,包括:將特征金字塔中多個不同分辨率大小的特征圖進行分辨率縮放處理,獲取多個分辨率相同的特征圖;將多個分辨率相同的特征圖依次進行通道拼接和卷積聚合特征處理,獲取第一特征圖;對所述第一特征圖進行通道分割,獲取第二特征圖和第三特征圖,所述第二特征圖和第三特征圖的通道數(shù)相同;將第二特征圖分別進行橫向自注意力和豎向自注意力計算,對應獲取橫向特征圖和豎向特征圖;將橫向特征圖、豎向特征圖、第二特征圖和第三特征圖進行通道拼接處理,獲取簡易全局注意力特征圖;的下采樣層替換為重參數(shù)化深度可分離下采樣層,以獲取TwinLiteNet模型內(nèi)各個分支的通道數(shù);使用深度可分離重參數(shù)卷積層替換下采樣層內(nèi)各個分支的膨脹卷積,并根據(jù)所述通道數(shù)將輸入特征圖輸入至多個深度可分離重參數(shù)卷積層中進行卷積處理,以獲取多個感受野特征;在所述重參數(shù)化深度可分離下采樣層內(nèi)的每個分支后面加上一個位置注意力層,以對多個感受野特征進行特征增強處理,獲取多個分支輸出的增強特征,其中,每個分支上的所述深度可分離重參數(shù)卷積層的數(shù)量依次遞增;模型訓練模塊,用于使用訓練圖像對改進的TwinLiteNet模型進行迭代優(yōu)化訓練,以獲取改進的TwinLiteNet模型;檢測模塊,用于將待測圖像輸入至改進的TwinLiteNet模型中進行檢測,以輸出可行駛區(qū)域檢測結(jié)果和車道線檢測結(jié)果。6.一種計算機設備,其特征在于,所述計算機設備包括存儲器、處理器及存儲在所述存儲器上并可在所述處理器上運行的處理程序,所述處理程序被所述處理器執(zhí)行時實現(xiàn)如權(quán)利要求1至4任一項所述的一種交通道路可行駛區(qū)域和車道線檢測方法。7.一種計算機可讀存儲介質(zhì),其特征在于,所述計算機可讀存儲介質(zhì)上存儲有處理程序,所述處理程序被處理器運行時實現(xiàn)如權(quán)利要求1至4任一項所述的一種交通道路可行駛4區(qū)域和車道線檢測方法。5技術(shù)領域[0001]本申請屬于自動駕駛和輔助駕駛技術(shù)領域,具體涉及一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng)。背景技術(shù)[0002]在汽車行業(yè),自動駕駛和輔助駕駛技術(shù)被視為緩解甚至解決傳統(tǒng)交通問題的關鍵。其中,交通環(huán)境中各種道路可行駛區(qū)域和車道線的準確檢測是完成自動駕駛?cè)蝿盏幕A和關鍵步驟。只有準確地識別和理解車道環(huán)境,自動駕駛汽車才能做出正確的決策,確保行車安全。[0003]盡管目前基于視覺的道路可行駛區(qū)域和車道線檢測算法發(fā)展迅速,并且在一般交通場景下的道路可行駛區(qū)域和車道線檢測中取得了顯著成效,但在更為復雜的交通場景中仍存在諸多挑戰(zhàn)。例如,在密集車流中,道路上的車輛或者行人可能會對道路和車道線進行遮擋,從而影響檢測精度。特別是在惡劣的環(huán)境下,如夜間或低光照條件,拍攝的照片質(zhì)量往往較低,部分區(qū)域可能因光線不足而變得模糊不清,這進一步加劇了對路面以及車道線檢測的難度。當環(huán)境過于黑暗并且燈光條件不足時,檢測過程中可能會將道路和周圍環(huán)境進行混淆,車道線也會難以檢測。此外,許多現(xiàn)有算法在實際運用中的魯棒性不足,難以適應多變的環(huán)境和滿足實時反應的需求。發(fā)明內(nèi)容[0004]本申請實施例的目的是提供一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng),能夠解決現(xiàn)有技術(shù)在進行交通道路可行駛區(qū)域和車道線檢測時,準確率和效率較低的問[0006]第一方面,本申請實施例提供了一種交通道路可行駛區(qū)域和車道線檢測方法,該方法包括:獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像;基于預設的重參數(shù)化深度可分離下采樣層、位置注意力層、深度可分離卷積層、部分分解自注意力層、圖像分解融合層對現(xiàn)有的TwinLiteNet模型進行改進,搭建改進的TwinLiteNet模型;使用訓練圖像對改進的TwinLiteNet模型進行訓練,獲取訓練好的TwinLiteNet模型;將待測圖像輸入訓練好的TwinLiteNet模型中進行檢測,輸出交通道路可行駛區(qū)域和車道線檢測結(jié)果。[0007]作為本申請第一方面的一種可選實施方式,圖像分解融合層用于獲取增強特征,具體過程,包括:將現(xiàn)有的TwinLiteNet模型中的下采樣層替換為重參數(shù)化深度可分離下采樣層.以獲取TwinLiteNet模型內(nèi)各個分支的通道數(shù).通道數(shù)由第一通道數(shù)和第二通道數(shù)組成,每個第一通道數(shù)為輸出通道數(shù)與分支數(shù)量的比值,第二通道數(shù)為輸出通道數(shù)與多個第一通道數(shù)總數(shù)的差值:使用深度可分離重參數(shù)卷積層替換下采樣層內(nèi)各個分支的膨脹卷積,并根據(jù)通道數(shù)將輸入特征圖輸入至多個深度可分離重參數(shù)卷積層中進行卷積處理,以獲取多個感受野特征,其中,每個分支上的深度可分離重參數(shù)卷積層的數(shù)量依次遞增;在重6參數(shù)化深度可分離下采樣層內(nèi)的每個分支后面加上一個位置注意力層對多個感受野特征進行特征增強處理,以獲取多個分支輸出的增強特征。[0008]作為本申請第一方面的一種可選實施方式,第一通道數(shù)的數(shù)學表達式為:[0010]第二通道數(shù)的數(shù)學表達式為:[0011]n?=nout[0013]作為本申請第一方面的一種可選實施方式,部分分解自注意力層放置于TwinLiteNet中注意力機制層的最后,用于獲取簡易全局注意力特征圖,其中,獲取簡易全局注意力特征圖的過程,包括:將特征金字塔中多個不同分辨率大小的特征圖進行分辨率縮放處理,獲取多個分辨率相同的特征圖;將多個分辨率相同的特征圖依次進行通道拼接和卷積聚合特征處理,獲取第一特征圖;對第一特征圖進行通道分割,獲取第二特征圖和第三特征圖,第二特征圖和第三特征圖的通道數(shù)相同;將第二特征圖分別進行橫向自注意力和豎向自注意力計算,對應獲取橫向特征圖和豎向特征圖;將橫向特征圖、豎向特征圖、第二特征圖和第三特征圖進行通道拼接處理,獲取簡易全局注意力特征圖。[0014]作為本申請第一方面的一種可選實施方式,增強特征包括車道線上采樣特征和可行駛區(qū)域上采樣特征,其中,獲取車道線上采樣特征和可行駛區(qū)域上采樣特征的具體過程,包括:將輸入特征圖進行3×1卷積,以獲取第一輸出特征;對和當前解碼器上采樣階段中圖像特征分辨率相同的主干中的圖像特征進行分解卷積,以獲取卷積特征;將卷積特征進行通道最大池化、通道平均池化、激活處理,以獲取第一空間權(quán)重;將第一空間權(quán)重與上采樣的車道線特征圖進行相乘并殘差相加,以獲取車道線上采樣特征;將第一輸出特征進行1×3卷積,以獲取第二輸出特征;將第二輸出特征進行通道最大池化、通道平均池化、激活處理,以獲取第二空間權(quán)重;基于第二空間權(quán)重與可行駛區(qū)域特征進行相乘并殘差相加,以獲取可行駛區(qū)域上采樣特征。[0015]第二方面,本申請實施例提供了一種交通道路可行駛區(qū)域和車道線檢測系統(tǒng),系統(tǒng)包括:[0016]圖像獲取模塊,用于獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像;[0017]重參數(shù)化深度可分離下采樣模塊,用于將現(xiàn)有的TwinLiteNet模型中的下采樣層進行替換,以獲取不同大小感受野的特征信息;[0018]輕量化處理模塊,用于將現(xiàn)有的TwinLiteNet模型中的主干中的普通卷積層替換為深度可分離卷積層進行輕量化處理,以獲取輕量化主干;[0020]部分分解自注意力模塊,用于將特征金字塔中多個不同分辨率大小的特征圖進行分辨率縮放處理,以獲取多個分辨率相同的特征圖;[0021]圖像分解融合模塊,用于將多個分辨率相同的特征圖和解碼器特征的輸入進行融[0022]模型訓練模塊,用于使用訓練圖像對改進的TwinLiteNet模型進行迭代優(yōu)化訓練,以獲取改進的TwinLiteNet模型;7[0023]檢測模塊,用于將待測圖像輸入至改進的TwinLiteNet模型中進行檢測,以輸出可行駛區(qū)域檢測結(jié)果和車道線檢測結(jié)果。[0024]第三方面,本申請實施例提供了一種電子設備,該電子設備包括處理器、存儲器及存儲在存儲器上并可在處理器上運行的程序或指令,程序或指令被處理器執(zhí)行時實現(xiàn)如第一方面的方法的步驟。[0025]第四方面,本申請實施例提供了一種可讀存儲介質(zhì),包括處理器,存儲器及存儲在存儲器上并可在處理器上運行的程序或指令,程序或指令被處理器執(zhí)行時實現(xiàn)如第一方面的方法的步驟。[0026]與現(xiàn)有技術(shù)相比,本發(fā)明提出的一種交通道路可行駛區(qū)域和車道線檢測方法的有益效果在于,第一、通過深度可分離重參數(shù)卷積層的堆疊,有效地結(jié)合了參數(shù)量少,計算量小以及感受野大的優(yōu)點,不同分支中不同堆疊數(shù)量的深度可分離重參數(shù)卷積層可以有效地獲取不同大小感受野的特征,且訓練時的精度可以有效保證;第二、每個分支中新增的位置注意力層,首先通過對特征圖通道進行平均池化可以獲取到特征圖像中每個點的平均像素,并通過重塑以及softmax計算權(quán)重,可以獲取到特征圖像中每個像素點的注意力權(quán)重,并對原來的圖像進行元素相乘,就可以強化原先的特征圖像;把原先的標準卷積層替換為TwinLiteNet模型中注意力機制層的最后加入部分分解自注意力層,可以有效地利用通道數(shù)據(jù),對其中一半數(shù)據(jù)進行注意力計算以獲取簡單的全局注意力,最后再將每個階段的輸出進行通道級拼接再經(jīng)過1x1卷積,不僅獲取了全局注意力信息,也減少了獲取注意力的計[0027]綜上,本申請?zhí)岢龅囊环N交通道路可行駛區(qū)域和車道線檢測方法,能夠檢測到大尺度的道路可行駛區(qū)域和偏小尺度的車道線,并減少了分割過程中的計算量和推理延遲,提高了交通道路可行駛區(qū)域檢測的準確率和效率。附圖說明[0028]圖1為本申請第一實施例提出的一種交通道路可行駛區(qū)域和車道線檢測方法的流[0029]圖2為本申請第一實施例提出的重參數(shù)化深度可分離下采樣層的結(jié)構(gòu)圖;[0030]圖3為本申請第一實施例提出的深度可分離重參數(shù)卷積層的結(jié)構(gòu)圖;[0031]圖4為本申請第一實施例提出的位置注意力層的結(jié)構(gòu)圖;[0032]圖5為本申請第一實施例提出的輕量化主干的結(jié)構(gòu)圖;[0033]圖6為本申請第一實施例提出的部分分解自注意力層的結(jié)構(gòu)圖;[0034]圖7為本申請第一實施例提出的圖像分解融合層的結(jié)構(gòu)圖;[0035]圖8為本申請第二實施例提出的一種交通道路可行駛區(qū)域和車道線檢測系統(tǒng)的結(jié)構(gòu)示意圖。具體實施方式[0036]下面將結(jié)合本申請實施例中的附圖,對本申請實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例是本申請一部分實施例,而不是全部的實施例。基于本申8請中的實施例,本領域普通技術(shù)人員在沒有作出創(chuàng)造性勞動前提下所獲取的所有其他實施[0037]本申請的說明書和權(quán)利要求書中的術(shù)語“第一”、“第二”等是用于區(qū)別類似的對象,而不用于描述特定的順序或先后次序。應該理解這樣使用的數(shù)據(jù)在適當情況下可以互換,以便本申請的實施例能夠以除了在這里圖示或描述的那些以外的順序?qū)嵤4送?,說明[0038]下面結(jié)合附圖,通過具體的實施例及其應用場景對本申請實施例提供的一種交通道路可行駛區(qū)域和車道線檢測方法及系統(tǒng)進行詳細地說明。[0040]請參閱圖1,為本申請第一實施例提出的一種交通道路可行駛區(qū)域和車道線檢測方法的流程圖,提出的方法包括步驟SO1至步驟SO3。[0041]S01:獲取初始駕駛視頻圖像,并劃分為訓練圖像和待測圖像。[0042]具體的,本發(fā)明從一個公開的駕駛視頻數(shù)據(jù)集中篩選圖像,確保涵蓋多樣化的場景、天氣和時間段,并基于7:1的比例,將圖像數(shù)據(jù)集劃分為道、停車場、加油站、隧道等六種常見場景,增強了模型在實際應用中的泛化能力。時間方面,數(shù)據(jù)集則涵蓋了黎明/黃昏、白天、夜晚三個時間段,以白天和數(shù)據(jù)集的多樣性。[0043]為了獲取更加精確和高效的訓練圖像集,本發(fā)明對訓練圖像集進行了數(shù)據(jù)清洗,去除了重復的標注框。待測圖像集則無需額外處理,可直接作為驗證集使用。在優(yōu)化訓練圖像集的過程中,本發(fā)明采用了數(shù)據(jù)增強策略,以提升模型的泛化能力和魯棒性。具體而言,本發(fā)明實現(xiàn)了兩種主要的數(shù)據(jù)增強技術(shù),它們直接基于所提供的代碼邏輯:顏色空間變換和隨機幾何變換(包括透視變換)。[0044]在顏色處理方面,本發(fā)明引入了隨機色彩變換的方法。通過augment_hsv函數(shù),本發(fā)明在HSV色彩空間中對色調(diào)、飽和度和明度三個通道進行隨機調(diào)整。這一過程是通過為每個通道生成一個隨機增益值,并將其應用于查找表,然后使用這些查找表來轉(zhuǎn)換原始圖像的顏色屬性。這不僅增加了圖像的多樣性,還模擬了不同光照條件下的場景變化,有助于提高模型對于各種環(huán)境條件的適應能力。其次,為了增加幾何上的多樣性,本發(fā)明應用了隨機幾何變換,本發(fā)明實現(xiàn)了包括旋轉(zhuǎn)、縮放、錯切、平移以及透視扭曲在內(nèi)的多種變換。augment_hsv函數(shù)接收一組包含彩色圖像、灰度圖像和線條圖的組合,并對其進行一系列仿射變換。變換矩陣是通過組合中心化、透視變換、旋轉(zhuǎn)與縮放、剪切變換和平移等操作構(gòu)建而成。最終,如果圖像發(fā)生了變化,則會根據(jù)是否啟用了透視變換選擇使用cv2.warpPerspective或cv2.warpAffine函數(shù)對圖像及其對應的灰度圖和線條圖進行變換,這種方法能夠有效地模擬物體在三維空間中的多種姿態(tài)和視角變化,增強了數(shù)據(jù)集的復雜性和真實性。此外,為了進一步擴充數(shù)據(jù)集的多樣性,本發(fā)明還在訓練階段以50%的概率執(zhí)行水平翻轉(zhuǎn)操作。這意味著對于每一張訓練圖像,都有半數(shù)的機會被沿水平軸鏡像反轉(zhuǎn),從而引入了額外的變化維度,使模型能夠?qū)W習到更加全面的特征表示。9[0045]本發(fā)明通過結(jié)合上述顏色空間變換和幾何變換的數(shù)據(jù)增強手段,不僅提升了訓練數(shù)據(jù)的數(shù)量,更重要的是顯著提高了數(shù)據(jù)的質(zhì)量和多樣性。這樣的數(shù)據(jù)集可以更有效地支持計算機視覺模型的學習過程,使其在未來面對真實世界的各種挑戰(zhàn)時表現(xiàn)得更加出色。[0046]S02:基于預設的重參數(shù)化深度可分離下采樣層、位置注意力層、深度可分離卷積層、部分分解自注意力層、圖像分解融合層對現(xiàn)有的TwinLiteNet模型進行改進,搭建改進[0047]其中,搭建改進的TwinLiteNet模型的過程,包括步驟S021至步驟S02[0048]S021:將現(xiàn)有的TwinLiteNet模型中的下采樣層替換為重參數(shù)化深度可分離下采樣層,以獲取不同大小尺度的特征信息;[0049]具體的,獲取不同大小尺度的特征信息的具體過程,包括:將現(xiàn)有的TwinLiteNet模型中的下采樣層替換為重參數(shù)化深度可分離下采樣層,以獲取TwinLiteNet模型內(nèi)各個分支的通道數(shù),通道數(shù)由第一通道數(shù)和第二通道數(shù)組成,每個第一通道數(shù)為輸出通道數(shù)與分支數(shù)量的比值,第二通道數(shù)為輸出通道數(shù)與多個第一通道數(shù)總數(shù)的差值;使用深度可分離重參數(shù)卷積層替換下采樣層內(nèi)各個分支的膨脹卷積,并根據(jù)通道數(shù)將輸入特征圖輸入至多個深度可分離重參數(shù)卷積層中進行卷積處理,以獲取多個感受野特征,其中,每個分支上的深度可分離重參數(shù)卷積層的數(shù)量依次遞增;在重參數(shù)化深度可分離下采樣層內(nèi)的每個分支后面加上一個位置注意力層以對多個感受野特征進行特征增強處理,以獲取多個分支輸出的增強特征;對多個增強特征依次進行通道拼接、歸一化和激活處理后,獲取不同大小尺度的特征信息。[0053]n?=nout[0055]請參閱圖2,為重參數(shù)化深度可分離下采樣層的結(jié)構(gòu)圖,輸入通道nln輸入至深度可分離卷積層、批歸一化處理和Relu激活函數(shù)處理后,獲得的通道數(shù)為n,其中,深度可分離卷積層內(nèi)卷積核的大小為3,步長為2,在重參數(shù)化深度可分離下采樣層的內(nèi)部結(jié)構(gòu)中,有五個通道分支,每個分支的通道數(shù)均為n,從左到右分為第一分支、第二分支、第三分支、第四分支和第五分支,每個分支都包含了兩層卷積層、兩層批歸一化層、一個位置注意力層和兩個大小為1且步長為1的卷積核,另外,每個分支還包含了重參數(shù)化深度可分離卷積層,從左在進行激活函數(shù)(獲取非線性)處理時,通道數(shù)由n變?yōu)?n,當感受野特征輸入至位置注意力模塊進行特征增強處理,以獲取多個分支輸出的增強特征時,第一分支的通道數(shù)由2n變?yōu)閚1(n1<2n),其余分支的通道數(shù)均為n(n1<n)。最后將多個分支輸出的增強特征進行相加、拼接處理后,經(jīng)過一個通道數(shù)為nOut的批歸一化層和relu激活函數(shù)。[0056]請參閱圖3,為深度可分離重參數(shù)卷積層的結(jié)構(gòu)圖。輸入特征輸入至深度可分離重參數(shù)卷積層時,會分成3個分支,第一個分支是卷積核大小為3,組數(shù)等于輸入特征的逐通道卷積,第二個分支是卷積核大小為1,組數(shù)等于輸入特征的逐通道卷積,第三個分支是殘差邊。將輸入特征分別輸入至卷積核大小為3,組數(shù)等于輸入特征的逐通道卷積和卷積核大小為1,組數(shù)等于輸入特征的逐通道卷積中并相加,將相加得到的結(jié)果進行批歸一化處理和激活函數(shù)處理。[0057]本發(fā)明使用的逐通道卷積可以減少參數(shù)量以及計算量,而多分支的組合可以為模型提高精度,訓練時采用多分支可以提高模型性能。[0058]S022:將位置注意力層插入到TwinLiteNet模型中的重參數(shù)化深度可分離下采樣層中每個分支后,用來捕獲不同感受野特征圖中每個像素的權(quán)重分數(shù)。支負責計算注意力權(quán)重,該分支首先會將尺寸大小為C×H×W的輸入特征進行通道平均池化處理,以獲取通道間的平均特征,之后對通道間的平均特征進行維度重塑,把1×H×W維度的特征圖重塑為HW×1×1,并經(jīng)過歸一化指數(shù)函數(shù)后,根據(jù)像素注意力權(quán)重對HW×1×1的特征圖再次進行維度重塑,重塑為原本的維度1×H×W。另一個分支負責將輸入特征與像素注意力權(quán)重進行元素相乘,并進行殘差相加,以獲取最后的輸出結(jié)果。[0060]S023:將現(xiàn)有的TwinLiteNet模型中主干的標準卷積進行輕量化處理,以獲取輕量化主干。[0061]這里需要說明的是,原始的3×3卷積核參數(shù)量較少,但堆積過多仍然會對模型的參數(shù)量產(chǎn)生影響。為了有效降低模型的參數(shù)量和計算量,本發(fā)明將現(xiàn)有的TwinLiteNet模型中主干的標準卷積進行輕量化處理,即采用深度可分離卷積層來替換標準卷積層。[0062]請參閱圖5,為輕量化主干的結(jié)構(gòu)圖,其中有兩個卷積,分別是組數(shù)等于輸入通道數(shù)的逐通道卷積和輸出通道等于原始標準卷積輸出通道數(shù)的逐點卷積。本發(fā)明提出的深度可分離卷積層將傳統(tǒng)卷積分解為兩個更簡單的步驟:深度卷積(每個輸入通道獨立應用一個3x3卷積核)和逐點卷積(使用1x1卷積核組合結(jié)果并調(diào)整輸出通道數(shù))。這種分解方式極大地減少了參數(shù)量和計算量,例如,在輸入和輸出通道數(shù)均為64的情況下,標準3×3卷積的參數(shù)量為:9×64×64=36864,而深度可分離卷積層的參數(shù)量為:9×64+64×64=4608,即減分離卷積層來替換標準卷積層,不僅實現(xiàn)了模型的輕量化,還確保了模型在資源受限環(huán)境下的高效部署和性能優(yōu)化。[0063]S024:將部分分解自注意力層,插入到TwinLiteNet模型中注意力機制層的最后。[0064]具體的,部分分解自注意力層放置于TwinLiteNet中注意力機制層的最后,用于獲取簡易全局注意力特征圖,其中,獲取簡易全局注意力特征圖的過程,包括:將特征金字塔中多個不同分辨率大小的特征圖進行分辨率縮放處理,獲取多個分辨率相同的特征圖;[0065]將多個分辨率相同的特征圖依次進行通道拼接和卷積聚合特征處理,獲取第一特征圖;對第一特征圖進行通道分割,獲取第二特征圖和第三特征圖,第二特征圖和第三特征圖的通道數(shù)相同;將第二特征圖分別進行橫向自注意力和豎向自注意力計算,對應獲取橫向特征圖和豎向特征圖;將橫向特征圖、豎向特征圖、第二特征圖和第三特征圖進行通道拼接處理,獲取簡易全局注意力特征圖。[0066]請參閱圖6,為部分分解自注意力層的結(jié)構(gòu)圖。首先將特征金字塔中不同分辨率大小的特征圖進行維度重塑處理,再進行通道拼接和3×3卷積處理,然后對處理過后的特征11圖進行平均通道分割處理(即將輸入通道n平均分割為兩個輸入通道),以獲取兩個特征圖X1和Y1,將X1經(jīng)過兩個并行路線計算,分別是水平多頭自注意力計算和垂直多頭自注意力計算,將計算結(jié)果分別輸入至兩個前饋神經(jīng)網(wǎng)絡中,獲取兩個輸出特征圖X2和X3,最后將X1,Y1,X2,X3進行通道拼接,通過這樣的方式,能夠有效減少計算量。[0067]S025:將圖像分解融合層,插入到TwinLiteNet模型中解碼器上采樣階段中,以獲取車道線上采樣特征和可行駛區(qū)域上采樣特征。[0068]具體的,請參閱圖7,為圖像分解融合層的結(jié)構(gòu)圖,獲取車道線上采樣特征和可行駛區(qū)域上采樣特征的過程,包括:將輸入特征圖進行3×1卷積,以獲取第一輸出特征;對和當前解碼器上采樣階段中圖像特征分辨率相同的主干中的圖像特征進行分解卷積,以獲取將第一空間權(quán)重與上采樣的車道線特征圖進行相乘并殘差相加,以獲取車道線上采樣特征;將第一輸出特征進行1×3卷積,以獲取第二輸出特征;將第二輸出特征進行通道最大池化、通道平均池化、激活處理,以獲取第二空間權(quán)重;基于第二空間權(quán)重與可行駛區(qū)域特征進行相乘并殘差相加,以獲取可行駛區(qū)域上采樣特征。[0069]本發(fā)明對和當前解碼器上采樣階段中圖像特征分辨率相同的主干中的圖像特征進行分解卷積,以獲取卷積特征,可以更好的獲取豎直方向的特征信息,從而有利于車道線的分割。[0070]S03:使用訓練圖像對改進的TwinLiteNet模型進行訓練,獲取訓練好的TwinLiteNet模型,并將待測圖像輸入訓練好的TwinLiteNet模型中進行檢測,輸出交通道路可行駛區(qū)域和車道線檢測結(jié)果。[0071]具體的,本發(fā)明使用的訓練圖像,是步驟S01經(jīng)過數(shù)據(jù)清洗之后得到的訓練圖像集,當改進的TwinLiteNet模型的參數(shù)不變時,即獲取訓練好的TwinLiteNet模型。[0072]綜上所述,本申請?zhí)峁┑囊环N交通道路可行駛區(qū)域和車道線檢測方法,通過訓練好的TwinLiteNet模型實現(xiàn),其中,將重參數(shù)化深度可分離下采樣層替換原先的下采樣層,有效地減少了計算參數(shù)量,計算量低,逐通道卷積可以有效地降低卷積的參數(shù)量,多分支可以確保模型的精度,另外,在每個分支中堆疊深度可分離重參數(shù)卷積層,使用深度可分離重參數(shù)卷積層替換下采樣層內(nèi)各個分支的膨脹卷積,能夠減少膨脹卷積存在的網(wǎng)格問題。[0073]本發(fā)明提出的位置注意力層,可以有效捕獲不同感受野特征圖中每個像素的權(quán)重分數(shù),從而讓模型更有效地注意到特征圖像中重要的特征,排除冗余特征,從而起到增強圖像特征的目的。輕量化主干可以最大程度的減少模型的總體參數(shù)量,從而讓模型更好的在邊緣設備上運行。[0074]本發(fā)明利用部分分解自注意力層可以有效地融合不同階段的主干特征并將其進行通道拼接,將一半的通道數(shù)用于橫向自注意力計算和豎向自注意力計算。這樣可以更好地結(jié)合不同尺度的特征,使其分割更精確,并且把原本一半的通道數(shù)據(jù)應用于橫向自注意力和豎向自注意力,可以以更少的計算量獲取全局注意力權(quán)重。[0075]本發(fā)明提出的圖像分解融合層,將多個分辨率相同的特征圖和解碼器特征的輸入[0076]實施例2[0077]請參閱圖8,所示為本申請第二實施例提出的一種交通道路可行駛區(qū)域和車道線[0078]圖像獲取模塊,用于獲取初始駕駛視頻圖像,并[0079]重參數(shù)化深度可分離下采樣模塊,用于將現(xiàn)有的TwinLiteNet模型中的下采樣層進行替換,以獲取不同大小感受野的特征信息;[0080]輕量化處理模塊,用于將現(xiàn)有的TwinLiteNet模型中的主干中的普通卷積層替換為深度可分離卷積層進行輕量化處理,以獲取輕量化主干;[0082]部分分解自注意力模塊,用于將特征金字塔中多個不同分辨率大小的特征圖進行分辨率縮放處理,以獲取多個分辨率相同的特征圖;[0083]圖像分解融合模塊,用于將多個分辨率相同的特征圖和解碼器特征的輸入進行融[0084]模型訓練模塊,用于使用訓練圖像對改進的TwinLiteNet模型進行迭代優(yōu)化訓練,以獲取改進的TwinLiteNet模型;[0085]檢測模塊,用于將待測圖像輸入至改進的TwinLiteNet模型中進行檢測,以輸出可行駛區(qū)域檢測結(jié)果和車道線檢測結(jié)果。[0086]本申請?zhí)峁┑囊环N交通道路可行駛區(qū)域和車道線檢測系統(tǒng)的有益效果在于,第一、通過重參數(shù)化深度可分離下采樣模塊的堆疊,有效地結(jié)合了參數(shù)量少,計算量小以及感受野大的優(yōu)點,可以有效地獲取不同大小感受野的特征,且訓練時的精度可以得到有效保證;第二、每個分支中新增的位置注意力模塊,首先通過對特征圖通道進行平均池化可以獲取到特征圖像中每個點的平均像素,并通過重塑以及softmax計算權(quán)重,可以獲取到特征圖像中每個像素點的注意力權(quán)重,并對原來的圖像進行元素相乘,就可以強化原先的特征圖像;把原先的標準卷積層替換為深度可分離卷積層,可以有效地降低模型的總體參數(shù)以及計算量;第三、通過引入部分分解自注意力模塊,可以有效地利用通道數(shù)據(jù),對其中一半數(shù)據(jù)進行注意力計算以獲取簡單的全局注意力,最后再將每個階段的輸出進行通道級拼接再經(jīng)過1x1卷積,不僅獲取了全局注意力信息,也減少了獲取注意力的計算量;第四、通過在TwinLiteNet模型中解碼器上采樣階段加入圖像分解融合模塊,可以增強解碼效果。[0087]本申請實施例中的一種交通道路可行駛區(qū)域和車道線檢測系統(tǒng)可以是裝置,也可以是終端中的部件、集成電路、或芯片。該裝置可以是移動電子設備,也可以為非移動電子或者個人數(shù)字助理(personaldigitalassistant,PDA)等,非移動電子設備可以為服務PC)、電視機(television,TV)、柜員機或者自助機等,本申請實施例不作具體限定。[0088]本申請實施例中的一種交通道路可行駛區(qū)域和車道線檢測系統(tǒng)可以為具有操作系統(tǒng)的裝置。該操作系統(tǒng)可以為安卓(Android)操作系統(tǒng),可以為ios操作系統(tǒng),還可以為其他可能的操作系統(tǒng),本申請實施例不作具體限定。[0089]本申請實施例提供的一種交通道路可行駛區(qū)域和車道線檢測系統(tǒng)能夠?qū)崿F(xiàn)圖1至圖7的方法實施例中一種交通道路可行駛區(qū)域和車道線檢測方法實現(xiàn)的各個過程,為避免[0090]可選地,本申請實施例還提供一種電子設備,包括處理器,存儲器,存儲在存儲器上并可在所述處理器上運行的程序或指令,該程序或指令被處理器執(zhí)行時實現(xiàn)上述一種交通道路可行駛區(qū)域和車道線檢測方法實施例的各個過程

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論