一種基于Scribble標(biāo)注和邊界先驗(yàn)的弱監(jiān)督道路提取方法_第1頁
一種基于Scribble標(biāo)注和邊界先驗(yàn)的弱監(jiān)督道路提取方法_第2頁
一種基于Scribble標(biāo)注和邊界先驗(yàn)的弱監(jiān)督道路提取方法_第3頁
一種基于Scribble標(biāo)注和邊界先驗(yàn)的弱監(jiān)督道路提取方法_第4頁
一種基于Scribble標(biāo)注和邊界先驗(yàn)的弱監(jiān)督道路提取方法_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

一種基于Scribble標(biāo)注和邊界先驗(yàn)的弱監(jiān)督道路提取方法摘要:針對(duì)遙感圖像精準(zhǔn)標(biāo)注成本高昂的問題,文章聚焦于弱監(jiān)督場(chǎng)景下道路提取的關(guān)鍵挑戰(zhàn):如何在稀疏標(biāo)注條件下有效提升道路提取精度。現(xiàn)有方法存在監(jiān)督信號(hào)受限、偽標(biāo)簽更新機(jī)制缺失及邊緣誤報(bào)嚴(yán)重等瓶頸。為此,提出基于涂鴉(Scribble)標(biāo)注與邊界先驗(yàn)雙驅(qū)動(dòng)的新型弱監(jiān)督道路提取模型,通過創(chuàng)新性設(shè)計(jì)隨機(jī)混合偽標(biāo)簽生成方法,并融合多尺度邊界先驗(yàn)信息實(shí)現(xiàn)精度突破。本研究的核心改進(jìn)體現(xiàn)在三方面:第一,構(gòu)建邊界先驗(yàn)輔助模塊,通過多尺度特征融合策略,將高分辨率邊緣細(xì)節(jié)與低分辨率穩(wěn)健特征相結(jié)合,有效抑制道路邊界誤報(bào)現(xiàn)象;第二,提出動(dòng)態(tài)隨機(jī)混合的偽標(biāo)簽生成機(jī)制,利用主/輔雙解碼器分支的預(yù)測(cè)結(jié)果進(jìn)行隨機(jī)權(quán)重混合,突破傳統(tǒng)方法中偽標(biāo)簽靜態(tài)不可更新的局限性;第三,建立聯(lián)合優(yōu)化框架,通過邊界損失、Scribble監(jiān)督損失與偽標(biāo)簽損失的協(xié)同約束,實(shí)現(xiàn)模型性能的迭代提升。實(shí)驗(yàn)結(jié)果表明,相較WeaklyOSM方法,本研究方法可在CHN6-CUG數(shù)據(jù)集中將交并比提高2.84%。關(guān)鍵詞:道路提??;遙感圖像;U-Net;弱監(jiān)督;深度學(xué)習(xí)中圖分類號(hào):TP391""文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1009-3044(2025)18-0106-04開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID)遙感影像道路提取作為智慧城市建設(shè)和自動(dòng)駕駛技術(shù)的關(guān)鍵支撐,其精度與效率直接影響地理信息系統(tǒng)的應(yīng)用價(jià)值。盡管衛(wèi)星與無人機(jī)技術(shù)顯著提升了數(shù)據(jù)獲取能力,但在復(fù)雜場(chǎng)景下實(shí)現(xiàn)道路網(wǎng)絡(luò)的精準(zhǔn)提取仍是亟待突破的技術(shù)難題[1]。傳統(tǒng)方法主要依賴人工設(shè)計(jì)的特征提取規(guī)則,通過形態(tài)學(xué)運(yùn)算、區(qū)域生長等物理拓?fù)浞椒ㄟM(jìn)行道路識(shí)別。這類方法雖然在簡單場(chǎng)景中具有一定實(shí)用性,但難以應(yīng)對(duì)光照變化、植被遮擋及復(fù)雜路網(wǎng)拓?fù)涞痊F(xiàn)實(shí)挑戰(zhàn),導(dǎo)致提取結(jié)果存在斷裂、誤識(shí)別等問題,嚴(yán)重制約了其在城市規(guī)劃等領(lǐng)域的實(shí)際應(yīng)用[1]。深度學(xué)習(xí)技術(shù)為道路提取帶來了革命性突破。以全卷積網(wǎng)絡(luò)(FCN)[2]為代表的全監(jiān)督方法,通過端到端學(xué)習(xí)實(shí)現(xiàn)像素級(jí)道路預(yù)測(cè),將提取精度提升至新高度。然而,逐像素標(biāo)注需求導(dǎo)致標(biāo)注成本呈指數(shù)級(jí)增長,尤其在處理高分辨率遙感影像時(shí),標(biāo)注工作量成為制約技術(shù)落地的關(guān)鍵瓶頸。弱監(jiān)督學(xué)習(xí)通過利用Scribble標(biāo)注等稀疏監(jiān)督信號(hào),為降低標(biāo)注成本提供了新思路:Lin等[3]提出的ScribbleSup算法首次將Scribble標(biāo)注與FCN結(jié)合,通過交替優(yōu)化實(shí)現(xiàn)弱監(jiān)督分割,但存在模型復(fù)雜度激增(計(jì)算開銷增加47%)和邊緣分割粗糙(邊界交并比下降12.6%)等問題。后續(xù)研究雖引入條件隨機(jī)場(chǎng)(CRF)優(yōu)化邊緣細(xì)節(jié)[4],或借助OpenStreetMap(OSM)數(shù)據(jù)輔助訓(xùn)練[5],但未能解決偽標(biāo)簽迭代優(yōu)化與多尺度特征融合兩大核心問題。當(dāng)前弱監(jiān)督道路提取面臨雙重技術(shù)瓶頸:1)偽標(biāo)簽質(zhì)量與模型訓(xùn)練存在強(qiáng)耦合性,靜態(tài)偽標(biāo)簽導(dǎo)致“惰性模仿”現(xiàn)象[6],使錯(cuò)誤預(yù)測(cè)持續(xù)累積;2)道路邊緣受建筑、植被等干擾嚴(yán)重,現(xiàn)有方法缺乏有效的多尺度特征校正機(jī)制,誤報(bào)率居高不下(現(xiàn)有方法平均誤報(bào)率達(dá)23.7%[5])。針對(duì)上述挑戰(zhàn),本文提出融合動(dòng)態(tài)偽標(biāo)簽優(yōu)化與邊界先驗(yàn)約束的新型弱監(jiān)督框架,主要?jiǎng)?chuàng)新包括:1)邊界先驗(yàn)輔助模塊:構(gòu)建多尺度特征融合管道,通過高/低分辨率特征協(xié)同校正機(jī)制,減少邊緣誤報(bào),提高道路邊界的識(shí)別精度;2)動(dòng)態(tài)偽標(biāo)簽生成機(jī)制:設(shè)計(jì)雙解碼器分支的隨機(jī)權(quán)重混合策略,實(shí)現(xiàn)偽標(biāo)簽的迭代更新,改善“惰性模仿”現(xiàn)象;3)聯(lián)合優(yōu)化損失函數(shù):集成邊界約束損失、Scribble監(jiān)督損失與偽標(biāo)簽一致性損失,提升模型在復(fù)雜場(chǎng)景下的泛化能力。1相關(guān)工作1.1整體模型本模型采用三分支解碼架構(gòu),由1個(gè)共享編碼器和3個(gè)獨(dú)立解碼器構(gòu)成(如圖1所示)。其中,分割主解碼分支執(zhí)行道路區(qū)域提取,邊界先驗(yàn)輔助解碼分支優(yōu)化邊緣特征,分割輔助解碼分支則通過擾動(dòng)機(jī)制提升偽標(biāo)簽質(zhì)量。編碼器結(jié)構(gòu)設(shè)計(jì)以U-Net為基礎(chǔ)框架,輸入為512×512像素的遙感影像。編碼層包含4級(jí)下采樣模塊:每級(jí)采用步長為2的3×3卷積實(shí)現(xiàn)空間降維,同時(shí)特征通道數(shù)逐級(jí)倍增(64→128→256→512)。經(jīng)過4次下采樣后,輸出32×32×512的高維語義特征。多尺度特征融合模塊采用空洞空間金字塔池化(ASPP)[7]結(jié)構(gòu)。該模塊由3組不同空洞率的3×3空洞卷積(rates=6,12,18)和1組1×1標(biāo)準(zhǔn)卷積并行組成??斩淳矸e通過間隔采樣擴(kuò)大感受野(最大可覆蓋37×37像素區(qū)域),相比傳統(tǒng)下采樣方法,可在不降低分辨率的前提下捕獲多尺度上下文信息。三分支解碼器協(xié)同工作機(jī)制如圖1所示:邊界先驗(yàn)輔助解碼分支:將32×32低層特征上采樣至128×128分辨率后,與編碼器中層特征進(jìn)行通道拼接,生成邊界預(yù)測(cè)輔助分割。分割主解碼分支:將自身預(yù)測(cè)與邊界先驗(yàn)輔助解碼分支產(chǎn)生的特征進(jìn)行融合,生成強(qiáng)化邊界細(xì)節(jié)的分割預(yù)測(cè)。分割輔助解碼分支:在分割主解碼器結(jié)構(gòu)基礎(chǔ)上,每個(gè)卷積層前加入概率為0.5的Dropout層,通過隨機(jī)失活產(chǎn)生擾動(dòng)預(yù)測(cè)。特征交互機(jī)制包含兩個(gè)關(guān)鍵路徑:邊緣強(qiáng)化路徑:主分割分支的128×128特征圖與邊界分割分支輸出進(jìn)行結(jié)合,優(yōu)化邊界細(xì)節(jié)分割。偽標(biāo)簽生成路徑:主/輔分割分支的預(yù)測(cè)通過隨機(jī)權(quán)重混合生成動(dòng)態(tài)偽標(biāo)簽,其中輔助分支的強(qiáng)擾動(dòng)設(shè)計(jì)可有效避免“惰性模仿”現(xiàn)象。1.2邊界先驗(yàn)輔助解碼分支邊界先驗(yàn)輔助解碼分支通過多尺度特征融合優(yōu)化邊緣識(shí)別精度。1)特征提取:從主分割解碼分支獲取32×32低分辨率語義特征,經(jīng)兩次雙線性上采樣至128×128分辨率。2)特征融合:將上采樣特征與編碼器中層輸出的128×128低級(jí)特征進(jìn)行通道拼接(concatenation)。3)邊界預(yù)測(cè):融合特征經(jīng)過3×3卷積降維后,通過兩個(gè)2×2轉(zhuǎn)置卷積層逐步上采樣至512×512分辨率,得到邊界預(yù)測(cè)結(jié)果。為提升邊界檢測(cè)的準(zhǔn)確性,引入整體邊緣檢測(cè)算法(Holistically-NestedEdgeDetection,HED)[8]。該算法通過多尺度卷積特征融合,能夠有效學(xué)習(xí)從粗到細(xì)的邊緣特征。在BSDS500通用邊界數(shù)據(jù)集[9]預(yù)訓(xùn)練的HED模型(無需微調(diào))生成邊界偽標(biāo)簽,用于監(jiān)督邊界分支,從而輔助主分割分支提升對(duì)道路邊界的定位能力。邊界監(jiān)督機(jī)制包含兩個(gè)關(guān)鍵設(shè)計(jì):1)最終輸出層采用Sigmoid函數(shù),將像素值映射到[0,1]區(qū)間,表示屬于道路邊界的概率(選用Sigmoid因其適用于二分類任務(wù),能夠穩(wěn)定輸出類別概率)。2)除最后一層外,所有卷積層均使用ReLU激活函數(shù),以增強(qiáng)非線性表達(dá)能力。1.3雙分割分支在網(wǎng)絡(luò)訓(xùn)練中存在“惰性模仿”現(xiàn)象,即隨著網(wǎng)絡(luò)預(yù)測(cè)與偽標(biāo)簽相似性增加,監(jiān)督信號(hào)變?nèi)?,學(xué)習(xí)過程易達(dá)平穩(wěn),預(yù)測(cè)錯(cuò)誤易持續(xù)存在,導(dǎo)致偽標(biāo)簽質(zhì)量下降,網(wǎng)絡(luò)預(yù)測(cè)準(zhǔn)確性停止提升而模型自身無法察覺。雖然已有Sohn等[10]基于一致性正則化思想生成偽標(biāo)簽的方法,以及Zhang等[11]提出的圖像混類增強(qiáng)算法,但依然需要更有效的方法來克服偽標(biāo)簽難以隨網(wǎng)絡(luò)訓(xùn)練有效更新以及提升網(wǎng)絡(luò)訓(xùn)練效果等問題。針對(duì)上述問題,本章節(jié)提出一種隨機(jī)混合的偽標(biāo)簽生成方法,由兩個(gè)獨(dú)立且不同的解碼器進(jìn)行,分別為分割主解碼分支和分割輔助解碼分支。兩者的基礎(chǔ)框架均采用U-Net的解碼器,不同的是,分割輔助解碼分支的每個(gè)解碼分支都加入了Dropout層[12]用于擾動(dòng),從而產(chǎn)生強(qiáng)干擾的輔助分割預(yù)測(cè)[Yaux]。隨后,與分割主解碼分支生成的未受強(qiáng)干擾影響的分割預(yù)測(cè)[Yseg]進(jìn)行隨機(jī)結(jié)合,生成偽標(biāo)簽。具體公式如下:[PSL=argmaxλYseg+1-λYaux](1)公式(1)表示將主分割預(yù)測(cè)與輔助分割預(yù)測(cè)加權(quán)混合后,取最大概率類別,生成偽標(biāo)簽。其中,[λ]為[0,1]區(qū)間的隨機(jī)數(shù),每次迭代[λ]都會(huì)隨機(jī)生成一個(gè)新的數(shù),通過該方法可以篩選出網(wǎng)絡(luò)預(yù)測(cè)中最大概率值對(duì)應(yīng)的classID,從而保證每次混合都能夠生成一個(gè)較為理想的結(jié)果。同時(shí),Scribble通過最小化部分交叉熵?fù)p失直接訓(xùn)練CNN。因此,本結(jié)構(gòu)可以克服傳統(tǒng)偽標(biāo)簽生成后不會(huì)隨網(wǎng)絡(luò)訓(xùn)練而更新的固有缺陷,因?yàn)檩o助分割分支與主分割分支為兩個(gè)獨(dú)立的解碼器,輔助分割預(yù)測(cè)[Yaux]可以持續(xù)地為主分割分支提供一定的更正。而[PLseg]由兩個(gè)輸出集成生成,但只須訓(xùn)練兩個(gè)解碼器,無須訓(xùn)練兩個(gè)網(wǎng)絡(luò)。為了從Scribble中學(xué)習(xí),通過部分交叉熵?fù)p失(pCE)進(jìn)行監(jiān)督,該損失僅考慮已標(biāo)注像素的梯度進(jìn)行反向傳播,忽略未標(biāo)注像素。同時(shí),利用兩路預(yù)測(cè)生成偽標(biāo)簽,以提供比Scribble更充分、更可靠的監(jiān)督信號(hào)。最后,將Scribble監(jiān)督與偽標(biāo)簽監(jiān)督結(jié)合,實(shí)現(xiàn)分割網(wǎng)絡(luò)的端到端訓(xùn)練。1.4損失函數(shù)損失函數(shù)作為計(jì)算標(biāo)簽與模型輸出差異的函數(shù),極大地影響深度網(wǎng)絡(luò)的學(xué)習(xí)效果。損失函數(shù)需要將計(jì)算所得的損失值回傳至模型,從而促使網(wǎng)絡(luò)自我優(yōu)化。一般而言,損失函數(shù)的選取會(huì)根據(jù)需求類型及應(yīng)用環(huán)境的不同而有所區(qū)別。針對(duì)本章網(wǎng)絡(luò)所涉及的兩類標(biāo)簽(分割偽標(biāo)簽[PLseg],邊界偽標(biāo)簽[PLboun]),提出如下?lián)p失函數(shù):[Lboun]為邊界損失,用于衡量生成的邊界偽標(biāo)簽與邊界預(yù)測(cè)之間的誤差。[w],[h]表示邊界偽標(biāo)簽[PLboun]像素級(jí)的長和寬,[Yboun]表示邊界先驗(yàn)輔助解碼分支的邊界預(yù)測(cè)。[Lboun=i=1wj=1hPLboun-Yboun2](2)生成的分割偽標(biāo)簽[PLseg]會(huì)分別與分割預(yù)測(cè)[Yseg]和輔助分割預(yù)測(cè)[Yaux]計(jì)算損失函數(shù),[CE]表示交叉熵?fù)p失,具體損失函數(shù)為:[LPLseg=CEYseg,PLseg+CEYaux,PLseg](3)而分割預(yù)測(cè)[Yseg]僅與scribble標(biāo)識(shí)區(qū)域計(jì)算損失函數(shù),而非整張圖,scribble區(qū)域的局部損失函數(shù)為:[Lscri=i∈wmlog(Ysegi)+i∈wmlog(Yauxi)](4)式中:m為one-hot編碼的scribble標(biāo)識(shí)區(qū)域,是像素i屬于道路的預(yù)測(cè)概率。[wm]是scribble標(biāo)記像素的集合。綜上所述,本研究的總損失函數(shù)定義為(5)式:[Lfinal=αLboun+γLscri+LPLseg](5)式中:[α]為平衡分割損失和邊界損失的系數(shù),[γ]為平衡Scribble和偽標(biāo)簽監(jiān)督的權(quán)重因子。2實(shí)驗(yàn)與分析2.1數(shù)據(jù)集為評(píng)估模型性能,選用公開無人機(jī)遙感數(shù)據(jù)集CHN6-CUG。該數(shù)據(jù)集由URSmart課題組聯(lián)合谷歌地球構(gòu)建,覆蓋中國典型城鄉(xiāng)區(qū)域,包含4511幅512×512像素的遙感影像,其中3608幅用于訓(xùn)練,903幅用于測(cè)試。所有圖像均包含道路/非道路的像素級(jí)標(biāo)注,但訓(xùn)練集僅提供道路中心線的Scribble標(biāo)注,而非精確標(biāo)注整張圖片。該方法相比精確的像素級(jí)標(biāo)注極大地節(jié)省了人力成本,但也帶來了較多噪聲和不確定性。標(biāo)注實(shí)例如圖(2)所示:Scribble標(biāo)注呈現(xiàn)兩個(gè)顯著特征:1)線性稀疏標(biāo)注:標(biāo)注者僅沿道路中心線繪制寬度3~5像素的連續(xù)筆觸,覆蓋不足實(shí)際道路面積的20%;2)幾何變形容忍:允許標(biāo)注線存在局部彎曲偏移,以適應(yīng)道路實(shí)際走向。2.2模型參數(shù)及訓(xùn)練過程實(shí)驗(yàn)環(huán)境配置如表1所示:選用Kaiming均勻分布初始化方法,同時(shí)通過固定隨機(jī)種子以保證可重復(fù)性,便于后期進(jìn)行對(duì)比實(shí)驗(yàn)。訓(xùn)練配置為:Adam(0.001)/epochs=100/batch_size=4,α=[γ]=0.5,[λ]~U(0,1)。訓(xùn)練時(shí)的損失變化曲線如圖3所示??梢钥吹綋p失值在第40輪后逐漸收斂至0.2水平。采用四個(gè)核心指標(biāo)評(píng)估模型性能(符號(hào)定義如式(6)~(9)所示):精確率(Precision,P):正確預(yù)測(cè)的道路像素占所有預(yù)測(cè)道路像素比例:[P=TP/(TP+FP)](6)召回率(Recall,R):正確預(yù)測(cè)的道路像素占實(shí)際道路像素比例:[R=TP/(TP+FN)](7)F1分?jǐn)?shù)(F1-Score):P與R的調(diào)和平均數(shù):[F1=2PR/(P+R)](8)交并比(IoU):預(yù)測(cè)與真實(shí)道路區(qū)域交集與并集之比:[IoU=TP/(TP+FP+FN)](9)其中,TP(TruePositive)為正確預(yù)測(cè)道路像素?cái)?shù),F(xiàn)P(FalsePositive)為誤報(bào)的非道路像素?cái)?shù),F(xiàn)N(FalseNegative)為漏檢的道路像素?cái)?shù)。F1與交并比(IoU)通過綜合考慮精確率P、召回率R兩個(gè)指標(biāo),可以有效克服單一指標(biāo)可能帶來的偏倚問題,更全面地反映模型的分割性能。2.3實(shí)驗(yàn)結(jié)果分析為系統(tǒng)評(píng)估模型性能,在相同實(shí)驗(yàn)條件下,將本方法與五類經(jīng)典弱監(jiān)督方法進(jìn)行了對(duì)比:BoxSup[13]:基于邊界框標(biāo)注生成偽標(biāo)簽的弱監(jiān)督框架。ScribbleSup[4]:首個(gè)融合Scribble標(biāo)注與CRF優(yōu)化的弱監(jiān)督分割方法。BPG[14]:引入邊界感知損失的Scribble監(jiān)督網(wǎng)絡(luò)。WSOD[15]:結(jié)合弱監(jiān)督目標(biāo)檢測(cè)的級(jí)聯(lián)分割模型。WeaklyOSM[16]:利用OpenStreetMap地理信息輔助訓(xùn)練的最新方法。如表2所示,本方法在CHN6-CUG數(shù)據(jù)集上的交并比(IoU,50.11%)和F1分?jǐn)?shù)(62.16%)均顯著優(yōu)于上述基準(zhǔn)模型。尤其是在復(fù)雜路網(wǎng)場(chǎng)景下,由于引入了邊界先驗(yàn)?zāi)K,Recall提升了4.72%,進(jìn)一步驗(yàn)證了多尺度特征融合與邊界信息建模的有效性。2.4消融實(shí)驗(yàn)本節(jié)基于CHN6-CUG數(shù)據(jù)集進(jìn)行各種消融研究,包括:1)損失函數(shù)部分;2)邊界檢測(cè)。1)為驗(yàn)證不同損失函數(shù)對(duì)模型分割精度的影響,針對(duì)損失函數(shù)進(jìn)行如下消融實(shí)驗(yàn),在保證網(wǎng)絡(luò)其他配置一致的情況下,損失函數(shù)依次設(shè)置為:(A)僅使用分割損失、(B)使用分割損失和Scribble標(biāo)識(shí)損失,以及(C)三者聯(lián)合。實(shí)驗(yàn)結(jié)果如表3所示,模型所采用的損失函數(shù)取得了50.11%的交并比、74.58%的準(zhǔn)確率、62.16%的F1分?jǐn)?shù)以及67.54%的召回率。本文提出的整合損失函數(shù)獲得了更優(yōu)的評(píng)估結(jié)果,這也表明,單一損失函數(shù)在復(fù)雜數(shù)據(jù)集上無法取得優(yōu)于復(fù)合損失函數(shù)的效果。2)邊界偽標(biāo)簽生成組件能夠提供經(jīng)過優(yōu)化的邊緣細(xì)節(jié),同時(shí)減少誤報(bào)數(shù)量,從而輔助分割。邊界先驗(yàn)輔助解碼分支需要將高分辨率預(yù)測(cè)的清晰邊緣與更穩(wěn)健、低分辨率的特征相結(jié)合,以更正前者的誤報(bào)。該分支生成的邊界預(yù)測(cè)受邊界偽標(biāo)簽的監(jiān)督,而邊界偽標(biāo)簽的質(zhì)量決定了網(wǎng)絡(luò)最終的分割精度。為此,我們將所用的邊界偽標(biāo)簽生成組件HED與傳統(tǒng)邊界生成算法Canny、Sobel進(jìn)行比較,結(jié)果如表4所示。HED的檢測(cè)結(jié)果略優(yōu)于Sobel和Canny,這得益于其端到端的深度網(wǎng)絡(luò)架構(gòu),能夠通過多尺度卷積特征融合,同時(shí)捕捉從局部邊緣到語義輪廓的層次化特征表達(dá)。針對(duì)弱監(jiān)督道路提取中偽標(biāo)簽靜態(tài)更新與邊緣誤報(bào)的共性問題,本文提出一種基于Scribble和邊界先驗(yàn)的弱監(jiān)督道路提取方法。主要貢獻(xiàn)包括:1)構(gòu)建邊界先驗(yàn)輔助模塊,有效抑制復(fù)雜場(chǎng)景下的邊緣誤報(bào)現(xiàn)象;2)提出動(dòng)態(tài)偽標(biāo)簽生成機(jī)制,通過雙解碼器擾動(dòng)策略突破傳統(tǒng)靜態(tài)偽標(biāo)簽的迭代局限性;3)建立聯(lián)合優(yōu)化框架,在CHN6-CUG數(shù)據(jù)集上實(shí)現(xiàn)50.11%的交并比與62.16%的F1分?jǐn)?shù),較現(xiàn)有最優(yōu)方法(WeaklyOSM)分別提升2.84和0.42個(gè)百分點(diǎn)。然而,該方法在夜間紅外影像和10K×10K超大分辨率影像場(chǎng)景中表現(xiàn)受限。未來工作將探索光照不變性特征增強(qiáng)與分塊并行計(jì)算策略,以拓展方法在全天候、大尺度遙感場(chǎng)景的適用性。[1]魏瑤.基于深度學(xué)習(xí)的高分辨率遙感影像道路提取研究[D].武漢:武漢大學(xué),2021.[2]SHELHAMERE,LONGJ,DARRELLT.Fullyconvolutionalnetworksforsemanticsegmentation[C]//IEEETransactionsonPatternAnalysisandMachineIntelligence.May24,2016,IEEE,2017:640-651.[3]LIND,DAIJF,JIAJY,etal.ScribbleSup:scribble-supervisedconvolutionalnetworksforsemanticsegmentation[C]//2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).June27-30,2016,LasVegas,NV,USA.IEEE,2016:3159-3167.[4]TANGM,DJELOUAHA,PERAZZIF,etal.Normalizedcutlossforweakly-supervisedCNNsegmentation[C]//2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.June18-23,2018,SaltLakeCity,UT,USA.IEEE,2018:1818-1827.[5]KAISERJD,WEGNERA,LUCCHIM,etal.Learningaerialimagesegmentationfromonlinemaps[J].IEEETransactionsonGeoscienceandRemoteSensing,2017,55(11):6054-6068.[6]HUOXY,XIELX,HEJZ,etal.ATSO:asynchronousteacher-studentoptimizationforsemi-supervisedimagesegmentation[C]//2021IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR).June20-25,2021,Nashville,TN,USA.IEEE,2021:1235-1244.[7]CHENLC,PAPANDREOUG,SCHROFFF,etal.RethinkingAtrousConvolutionforSemanticImageSegmentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2020,42(3):834-848.[8]XIESN,TUZW.Holistically-nestededgedetection[C]//2015IEEEInternationalConferenceonComputerVision(ICCV).December7-13,2015,Santiago,Chile.IEEE,2015:1395-1403.[9]ARBELáEZP,MAIREM,F(xiàn)OWLKESC,etal.Contourdetectionandhierarchicalimagesegmentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2011,33(5):898-916.[10]SOHNK,BERTHELOTD,LICL,etal.FixMatch:simplifyingsemi-supervisedlearningwithconsistencyandconfidence[EB/OL].2020:2001.07685.https:///abs/2001.07685v2.[11]ZHANGH,CISSEM,DAUPHINYN,etal.Mixup:BeyondEmpiricalRiskMinimization[J/OL].(2017-10-25)[2024-10-01].https:///abs/1710.09412.[12]SRIVASTAVAN,HINTONG,KRIZHEVSKYA,etal.Dropout:asimplewaytopreventneuralnetworksfromoverfitting[J].JournalofMachineLearningResearch,2014,15:1929-1958.[13]DAIJF,HEKM,SUNJ.BoxSup:exp

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論