版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
基于顏色深度信息的物體識別算法探究報告目錄TOC\o"1-3"\h\u20564基于顏色深度信息的物體識別算法探究報告 138001.1顏色信息與深度信息的融合策略 1244451.2基于RGBD的YOLOv3+SPPNet目標檢測算法 43021.2.1YOLOv3+SPPNet網(wǎng)絡結構 4308941.2.2評價指標及損失函數(shù) 5302451.2.3實驗結果及分析 794161.3融合RGB圖像和深度圖Depth的語義分割網(wǎng)絡 10273841.1.1語義分割網(wǎng)絡設計 1032161.1.2評價指標及損失函數(shù) 11194551.1.3實驗結果及分析 13243171.4本章小結 16物體識別是指在輸入的RGB圖像中,能正確識別物體的種類并確定物體的位置,通常包含分類和定位兩個任務。當前,物體識別所使用的數(shù)據(jù)集都只提供RGB圖像和標注信息,如VOC2007、MSCOCO等。RGB圖像蘊含有豐富的紋理信息和顏色信息,通過卷積神經(jīng)網(wǎng)絡處理,能獲得有效分類和定位的高維特征。但在一些復雜場景中,可能存在光照條件差,物體遮擋嚴重,場景混亂等問題,僅使用RGB圖像很難提升識別算法的性能。而深度圖所包含的信息不易受光照條件影響。通過與RGB圖像提取到的特征相結合,能有效提升弱紋理、低光照條件下的識別性能。本章所講的物體識別算法是基于RGBD圖像的,訓練使用的數(shù)據(jù)集是LineMod數(shù)據(jù)集和YCB數(shù)據(jù)集。本章將從目標檢測和語義分割兩方面,對融合顏色信息和深度信息的物體識別算法展開論述。1.1顏色信息與深度信息的融合策略RGB圖像和深度圖是兩種具有不同結構的數(shù)據(jù)。顏色信息通常是H×W×3的組織形式。H表示圖像的高,W表示圖像的寬,3表示圖像的三個顏色通道R、G、B。深度信息則是通過深度圖的形式表示,通常為H×W×1,1表示深度圖只有一個通道。圖上的數(shù)據(jù)表示該點到相機的距離,蘊含有空間信息。如何能有效融合顏色信息和深度信息不僅是研究人員所面臨的迫切難題,也是算法性能瓶頸的重要突破口。Li[51]等學者觀察到兩類數(shù)據(jù)都是H×W×n(n表示通道數(shù)),首次提出將深度圖作為RGB圖像的“第四個”通道傳入網(wǎng)絡進行處理。然而,這種簡易的融合后期需要一系列復雜的優(yōu)化手段才能獲取較準確的結果。2018年的DenseFusion[40]算法提出了一種顏色信息和深度信息稠密融合算法??紤]到兩種數(shù)據(jù)各自的結構,DenseFusion提出先使用不同網(wǎng)絡處理不同數(shù)據(jù)再融合。DenseFusion先通過語義分割網(wǎng)絡獲得包含物體的顏色子圖,再利用顏色子圖所包含的邊框信息裁剪獲得深度子圖。顏色子圖繼續(xù)由CNN網(wǎng)絡提取特征,深度子圖則轉換成點云,交由類PointNet結構的網(wǎng)絡處理。之后,將兩類特征逐像素地融合,通過MLP提取全局特征,獲取新的特征向量。最后交由姿態(tài)網(wǎng)絡預測位姿信息。雖然最終的預測結果達到了當時的領先水平,但DenseFusion先裁剪子圖再融合的策略并不適用于物體識別算法。前者使用了兩次CNN網(wǎng)絡提取特征。第一次是語義分割獲取顏色子圖,第二次是提取顏色子圖的特征。這種融合策略存在重復計算,第一次提取到的特征無法在后續(xù)融合中繼續(xù)使用。為保留兩種數(shù)據(jù)各自的結構,本文選用的融合策略仍然是先提取再融合。深度圖的大小為H×W×1,可視作通道數(shù)為1的特征圖,同樣可以構建神經(jīng)網(wǎng)絡進行處理。表31為處理深度圖的DepConv網(wǎng)絡結構。假設輸入大小為416×416,通過該網(wǎng)絡處理后,原始輸入的深度圖進行5次下采樣,輸出特征圖大小為13×13×256。表中的矩形框表示DepConv網(wǎng)絡引入的殘差結構。在視覺任務中,高維特征或全局特征往往包含更深層次的語義信息。為充分利用提取到的特征,在融合前引入SPP[10]或者PPM[31]等金字塔結構,通過自適應池化操作獲取全局特征,可以有效增強算法性能。表31處理深度圖的DepConv網(wǎng)絡結構Table31DepConvnetworkstructureforprocessingdepthmapstypefiltersSize/strideoutput_channelConvolutional323×3416×416Convolutional643×3/2208×208Convolutional321×1Convolutional643×3Residual208×208Convolutional643×3/2104×104Convolutional321×1Convolutional643×3Residual104×104Convolutional643×3/252×52Convolutional321×1Convolutional643×3Residual52×52Convolutional1283×3/226×26Convolutional641×1Convolutional1283×3Residual26×26Convolutional2563×3/213×13Convolutional1281×1Convolutional2563×3Residual13×13
1.2基于RGBD的YOLOv3+SPPNet目標檢測算法1.2.1YOLOv3+SPPNet網(wǎng)絡結構圖31基于RGBD圖像的YOLOv3+SPPNet網(wǎng)絡結構框圖Fig31structuralblockdiagramofYOLOV3+SPPNetnetworkbasedonRGBDimage圖31為基于RGBD圖像的YOLOv3+SPPNet網(wǎng)絡的結構框圖??蛑械臄?shù)值表示每個階段輸出特征圖的大小。以13×13×1024為例,第一個13表示高,第二個13表示寬,第三個數(shù)字1024表示通道數(shù)。本文使用不同的網(wǎng)絡分別處理RGB圖像和深度圖。RGB圖像采用Darknet-53[7]作為主干網(wǎng)絡提取特征,深度圖采用自主設計的DepConv處理,其網(wǎng)絡結構如表31所示。深度圖經(jīng)過五次下采樣,最終的結果為13×13×256。為擴大感受野并充分利用提取到的特征圖,本文引入SPP模塊來獲取高維特征和全局特征。由圖31可知,融合后的特征圖大小為13×13×1280,再將其傳入SPP結構中進行處理。SPP模塊包含三個最大池化操作,池化大小分別為5×5、9×9、13×13,步長設置為1。池化后的特征圖仍保持原始尺寸,即13×13×1280。將最大池化處理后獲得的三個特征圖融合,與融合后的特征圖再次融合,即圖中表示恒等映射的虛線,此時特征圖大小為13×13×5120。繼續(xù)使用卷積核為3×3的卷積層對其進一步提取特征并調(diào)整通道數(shù),調(diào)整為13×13×512。之后,交由YOLOv3的Head網(wǎng)絡進行預測。最終獲得三種尺度的預測結果,分別是[bs,52,52,3,classes+4+1]、[bs,26,26,3,classes+4+1]、[bs,13,13,3,classes+4+1]。其中,bs表示batch_size;classes表示類別數(shù),即數(shù)據(jù)集中的種類數(shù);4表示邊框調(diào)整信息,即xywh;1表示是否包含物體的概率。1.2.2評價指標及損失函數(shù)評價指標目標檢測任務中常用的評價指標有FPS和mAP,前者是用來衡量算法運行速度的,即一秒內(nèi)可以處理多少幀圖像;后者則是用來表征檢測算法的準確率??赏ㄟ^公式(31)計算獲得,(31)其中為上一次計算出的值,初始值為0,和分別用來記錄處理前和處理后的時間戳。通過與上一次計算出的求平均,能更為動態(tài)地反應模型的運行速度。mAP(meanaverageprecision)是目標檢測中又一重要的評價指標。由于輸入圖像上可能存在多個種類的多個物體,因此,分類任務中常用的準確率不能直接用于檢測算法的評價。mAP是所有種類AP的平均值,它可以同時評價算法的分類和定位能力。AP是PR曲線下方所圍面積的近似值,是一個介于0和1之間的數(shù)。PR曲線是根據(jù)和值繪制出的曲線。表示為準確率,表示為召回率,可通過公式(32)計算獲得,(32)其中表示實際結果為正,預測也為正的個數(shù);表示實際為負,預測卻為正的個數(shù);表示實際為正,預測卻為負的個數(shù)。因此,的含義為預測結果中正確的概率,的含義為預測正確的結果占所有正確結果的比例。對于檢測任務而言,預測結果不僅包含種類置信度,還有預測出的邊框信息。、、個數(shù)可通過計算預測邊框和真值邊框之間的重疊比與閾值相比較獲得的。重疊比可通過公式(33)計算獲得,(33)其中分子表示預測邊框與真值邊框的重疊面積,分母表示預測邊框與真值邊框的面積之和。計算出的與設定好的閾值進行比較,如果大于,則值加1;如果小于,則值加1;如果有未被檢測出的真值框,則值加1。因此,當設定的閾值發(fā)生改變時,、、個數(shù)也會隨之變化,從而影響和的值,最終體現(xiàn)在PR曲線上。PR曲線就是根據(jù)計算出的值排序并不斷調(diào)整閾值,獲得不同和值繪制出的。但AP值并不是直接計算PR曲線下的面積,而是先對曲線進行平滑處理。計算AP的方法有兩種。第一種是11點插值法,即選取這11個點對應的最大值,可表示為公式(34),(34)由上可知,對于給定的值,選用最大的來計算。第二種是所有點插值法。與11點插值法不同,所有點插值法要求針對每個值,選取大于等于值的最大值,可表示為公式(35),(35)與第一種方法相同,對于給定的某個,選用值大于等于所對應的最大值。損失函數(shù)目標檢測既需要目標分類也需要目標定位。因此,損失函數(shù)也是由這兩部分組成的。預測結果中包含三部分內(nèi)容,分別是邊框信息、是否為前景的二分類概率以及分類置信度。因此,在表現(xiàn)形式上,YOLOv3的損失函數(shù)是由這三部分損失函數(shù)共同組成的,具體表示見公式(36)。公式(36)中帶尖帽的變量是預測結果,不帶尖帽的是真值。表示預測特征圖像素點的序號,以13×13的預測特征圖為例,的取值范圍為。表示預測出的邊框序號,取值范圍為。表示如果預測結果中第個像素點第個框中有物體,其值為1,否則為0。表示如果預測結果中處沒有物體,其值為1,否則為0。和分別表示為預測邊框和不包含物體的背景對整個損失函數(shù)的影響系數(shù)[15][16][7]。YOLOv3的輸出結果是由三個不同尺度的特征圖預測獲得的。這里的分別指的是52×52、26×26、13×13。公式中的用來表征特征圖上每個grid所預測出的邊框數(shù)量。YOLOv3使用3個設定好的錨框作為建議框,對應于輸出向量中倒數(shù)第二維中的3,因此這里的指的是3。(36)由公式(36)可知,前兩行是定位任務的損失函數(shù)。坐標損失值通過的均方誤差MSE來計算,并引入比例因子去控制坐標損失對整個損失函數(shù)的影響。第三行和第四行則是用來計算是否為前景的概率損失。是否為前景是一個二分類問題,因此采用二分類交叉熵(BCE,binarycrossentropy)來分別計算和兩部分。此外,使用因子來減弱部分對整個損失函數(shù)的影響。第五行是計算分類置信度的損失值,這里采用類別數(shù)個二分類交叉熵來計算損失。以13×13的預測結果[bs,13,13,3,classes+4+1]為例,每個grid共有3×classes個分類置信度,因此在計算過程中需要三次求和。1.2.3實驗結果及分析本文使用Ubuntu16.04操作系統(tǒng)和11GB顯存的GTX1080Ti搭建實驗環(huán)境。為充分校驗算法性能,本文分別在LineMod[33]數(shù)據(jù)集和YCB[32]數(shù)據(jù)集上設計實驗進行驗證,并與同類檢測算法進行對比。本章提出的基于RGBD的YOLOv3+SPPNet目標檢測算法由YOLOv3和DepConv以及SPPNet組成。YOLOv3是典型的基于錨框機制的檢測算法。因此,在訓練前需要根據(jù)實際數(shù)據(jù)集更新錨框尺寸。本文采用K-means聚類算法處理數(shù)據(jù)集,從聚類結果中獲取先驗框尺寸。K-means聚類的算法流程如圖32所示。圖32使用K-means聚類算法獲得初始錨框流程圖Fig32flowchartofinitialanchorsobtainedbyk-meansclusteringalgorithm對于聚類獲取先驗框問題,采用歐氏距離作為聚類依據(jù)可能會忽略邊框間的位置關系,進而影響聚類結果和檢測準確性。因此,本文選用相鄰框之間的交并比代替歐氏距離作為聚類依據(jù)。其距離公式可表示為公式(37),(37)其中,表示當前框信息,表示聚類中心,表示當前框和聚類中心的交并比。兩個框的交并比值越大,表示其同屬一類的可能性越大,兩者之間的距離越小。最終共獲得9個錨框,分別是(63,112),(96,157),(113,84),(128,237),(138,128),(190,166),(197,282),(218,112),(299,216)。根據(jù)YOLOv3低分辨率的特征圖使用大的先驗框,高分辨率的特征圖使用小的先驗框的分配規(guī)則,將錨框依次分配給對應尺度的特征圖進行預測。為加速模型收斂,本文加載Darknet-53在ImageNet[12]數(shù)據(jù)集上的權重參數(shù)作為預訓練模型。訓練前,先將模型中對應的網(wǎng)絡層凍結,設置學習率為1e-3,并采用衰減率為0.5的階層性下降法調(diào)整學習率。當訓練至100世代時,處理深度圖的DepConv、融合特征的SPPNet以及預測邊框的Head網(wǎng)絡對應的參數(shù)得到訓練,具有初步的分類和定位能力。之后,將凍結的主干網(wǎng)絡解凍,設置學習率為1e-4,也使用階層型下降法調(diào)整學習率,直至模型收斂停止訓練。階層性下降法是指設定模型的某項指標作為監(jiān)控對象。如果該指標連續(xù)幾個世代不下降,則滿足調(diào)整條件,根據(jù)預先設定的衰減率對學習率進行調(diào)整。模型在驗證集上的損失函數(shù)值能充分反映模型的訓練情況。因此在訓練過程中,可選用該損失函數(shù)值作為監(jiān)控對象。為公平比較,本文引入YOLOv3[7]和SSD[9]檢測算法,設計對比實驗來驗證本文檢測算法性能。表32為當前算法與同類算法在GTX1080Ti上的性能比較。由于引入處理深度圖的DepConv網(wǎng)絡和融合特征的SPP模塊,本文的檢測算法在模型復雜度上略有增加。與YOLOv3算法相比,雖然模型總參數(shù)量增加了1.53MB,F(xiàn)LOPs增加了2.76GMac,運行速度下降了2Hz,但在YCB[32]數(shù)據(jù)集和LineMod[33]數(shù)據(jù)集上mAP分別提升了0.69、0.92。與SSD算法相比,mAP提升更為明顯,分別提升了2.01、0.92。表32本文檢測算法與同類算法在GTX1080Ti上的性能比較Table32performancecomparisonbetweenouralgorithmandothersimilaralgorithmsonGTX1080TiInput_dataFPSParamsFLOPsmAP(YCB)mAP(LineMod)SSD300×30024.5726.42M31.48GMac98.4795.32YOLOv3416×41620.3261.63M32.83GMac98.8296.41YOLOv3+SPPNet416×41618.2361.16M35.59GMac99.5197.33圖33為本文算法與同類檢測算法在YCB數(shù)據(jù)集上的檢測性能對比。橫軸為AP值,單位為百分比,縱軸為YCB數(shù)據(jù)集的21種物體。條形圖右側的數(shù)字表示該物體的AP值。由圖可知,三種檢測算法在YCB數(shù)據(jù)集上的表現(xiàn)較優(yōu),mAP均達到95%以上。這是因為YCB數(shù)據(jù)集是僅由21種物體在不同場景下不斷組合獲得的數(shù)據(jù)集,不同于目標檢測領域的VOC2007和MSCOCO數(shù)據(jù)集包含有大量的同類物體。因此,檢測算法的mAP值普遍較高。圖33本文算法與同類檢測算法在YCB數(shù)據(jù)集上的檢測性能對比Fig33detectionperformancecomparisonbetweenouralgorithmandotherdetectionalgorithmonYCBdataset由圖33可知,本文檢測算法以99.51%mAP的優(yōu)勢處于領先。相較SSD和YOLOv3,在mAP上分別提升了1.04和0.69。此外,通過條形圖波動可知,基于YOLOv3+SPPNet的檢測算法在YCB數(shù)據(jù)集上預測結果更為精確。圖34為本文算法在YCB數(shù)據(jù)集上的檢測結果。圖34基于RGBD的YOLOv3+SPPNet檢測算法在YCB數(shù)據(jù)集上的檢測結果Fig34evaluationsofYOLOv3+SPPNetdetectionalgorithmbasedonRGBDimageonYCBdataset1.3融合RGB圖像和深度圖Depth的語義分割網(wǎng)絡1.1.1語義分割網(wǎng)絡設計語義分割是比目標檢測更細粒度的分類定位任務,是對圖像上所有的像素點進行分類。語義分割復雜度較高,通??煞譃閮蓚€階段。前一個階段為encoder部分,用于下采樣和提取特征;后一個階段為decoder,用于上采樣和預測分類。在設計過程中,不僅要充分利用RGB圖像與深度圖Depth提取到的特征來提升算法性能,還應該考慮減少模型參數(shù)。圖35是融合RGB圖像和深度圖Depth的語義分割網(wǎng)絡框圖。網(wǎng)絡采用分而治之的策略,使用不同的網(wǎng)絡處理兩種數(shù)據(jù)。圖35融合RGB圖像和深度圖Depth的語義分割網(wǎng)絡框圖Fig35blockdiagramofsemanticsegmentationnetworkfusedRGBimagewithdepthmapRGB圖像采用輕量級網(wǎng)絡—MobileNetv2[49]進行處理。由于后續(xù)操作中要通過上采樣恢復至原始大小,輸出特征圖不宜過小。因此,本文選用4次下采樣后的特征圖作為輸出。深度圖則交由DepConv處理。傳入的深度圖經(jīng)過網(wǎng)絡處理后,會進行五次下采樣,輸出特征圖變?yōu)樵鹊?/32。為保持與顏色特征圖大小相同,選擇四次下采樣后的特征圖作為輸出。在下采樣階段,采用向下取整的方法來約束特征圖的大小。假設輸入深度圖大小為473×473,那么,最終網(wǎng)絡的輸出為30×30。提取到的兩個特征圖使用Concat方法合并通道獲得新的特征圖。新生成的特征圖傳入金字塔池化模塊(PPM,PyramidPoolingModule)進行池化操作。首先將其劃分成1×1、2×2、3×3和6×6的子區(qū)域,分別進行平均池化,提取更深層的特征信息。提取后的特征圖通過雙線性插值法上采樣至池化前的大小,即圖35中的Upsampling模塊。之后與池化前的特征圖合并通道,組成包含更多語義信息的特征圖。對傳入的特征圖使用3×3的卷積進一步提取特征和1×1的卷積調(diào)整通道數(shù)。最終網(wǎng)絡的輸出結果為473×473×classes,最后一維classes表示當前像素點屬于某一類的置信度。通過SoftMax層、max函數(shù)以及argmax函數(shù)確定所屬類別,獲得最終的分割結果。1.1.2評價指標及損失函數(shù)評價指標語義分割是像素級的分類定位任務,需要使用更細粒度的指標來評測模型。常見的評價指標除FPS外還有MPA和MIoU。MPA(MeanPixelAccuracy)是指平均像素準確率。PA是正確分類的像素點與圖像中所有像素點的比值,可表示為公式(38)。(38)而MPA則是所有種類PA的平均值,可表示為公式(39)。(39)其中,下標表示真值,表示預測值。具體地,假設當前計算的是第類的PA值,則表示該像素點真實類別是,預測結果也是,可以用來表征正確分類的像素點個數(shù),即;表示該像素點真實類別是,預測結果是,如果,此時的表示對應的像素個數(shù);表示該像素點真實類別是,預測結果是,如果,此時的表示對應的像素個數(shù)。通常,網(wǎng)絡的輸出結果通常為H×W×classes。最后一維classes是種類數(shù),其值表示當前像素點屬于哪一類的置信度。通過對該像素點上所有的置信度使用max函數(shù)和argmax函數(shù),可以確定當前點的最終類別。由公式(38)可知,PA的分子值等于當前通道正確分類的像素點個數(shù),分母值等于所有像素點個數(shù)。一般情況下,語義分割也將背景作為一類。因此,在計算MPA時,系數(shù)使用代替。MIoU是另一個標準度量。相比MPA,MIoU更能描述真值和預測值兩個集合的交并比,其可表示為公式(310)。(310)依據(jù)上文的定義,具體地可表示為公式(311)(311)由于分母中包含有2個,所以需要額外減去,即。MIoU數(shù)值越大,表示分割性能越好。損失函數(shù)語義分割是兼具分類和定位的細粒度問題。因此,損失函數(shù)也是由這兩部分構成的。前者使用交叉熵表示,后者則使用Dice系數(shù)表示。在使用交叉熵計算分類的損失函數(shù)前,需要將輸出結果H×W×classes中的置信度交由SoftMax層處理。這是因為輸出的置信度有大有小,SoftMax層可將其歸一化成概率分布的結果。公式(312)為SoftMax的表達式。(312)SoftMax層處理后的概率向量與真值的獨熱向量計算交叉熵。交叉熵通常可分為二分類交叉熵和多分類交叉熵兩種。二分類的交叉熵損失函數(shù)可表示為公式(313),(313)其中,表示樣本的標簽,如果為正類則值為1,如果為負類則值為0;表示預測正確的概率。公式(313)中的是以e為底的對數(shù)。多分類的交叉熵損失函數(shù)是二分類的進階版,其可表示為公式(314),(314)其中表示類別數(shù),表示樣本的標簽,如果樣本屬于則值為1,反之為0;表示樣本屬于的概率。dice損失函數(shù)源自dice系數(shù),是一種常見的用來衡量兩個集合相似度的函數(shù),可表示為公式(315),(315)其中,分子表示兩個集合的交集,分母表示兩個集合的元素總數(shù)。。因此,dice損失函數(shù)可以表示為公式(316)。(316)dice系數(shù)的取值范圍在0和1之間,dice值越大,集合的相似度越高,對應的dice損失函數(shù)值越小。對于語義分割而言,假設集合和集合分別指預測值和真值。具體地,描述的是,描述的是。因此dicecoefficient也可以表示為公式(317),(317)由1.2.2小節(jié)中的公式(32)推導,(318)dicecoefficient同時包含著準確率和召回率兩個指標,因此dice損失函數(shù)可表示為公式(319)。(319)1.1.3實驗結果及分析本文使用MobileNetv2在ImageNet上的權重文件作為預訓練模型,加載到1.1.1小節(jié)中設計的語義分割網(wǎng)絡進行遷移訓練。訓練前,先將MobileNetv2的網(wǎng)絡層權重凍結,設置學習率為0.001,然后開始訓練。當訓練至世代數(shù)為100時,再將之前凍結的網(wǎng)絡層解凍,并修改學習率為0.0001,繼續(xù)訓練至模型收斂。訓練過程中,將模型在驗證集上的損失函數(shù)值作為監(jiān)控指標,采用衰減率為0.5的階層型下降法調(diào)整學習率。當學習率下降至1e-6時,可提前結束訓練。為充分驗證模型的分割性能,本文使用YCB作為實驗數(shù)據(jù)集,并采用MPA和MIoU評價指標來檢驗模型。為了公平比較算法性能,本文使用分割領域的同類算法UNet[25]、Deeplabv3[28]以及PSPNet[31]進行對比實驗。表33為本文算法與UNet、Deeplabv3、PSPNet在YCB[32]數(shù)據(jù)集上的性能參數(shù)。由表可知,融合RGB圖像和深度圖Depth的語義分割算法與其他三類算法相比,MIoU和MPA均有所提升。在YCB數(shù)據(jù)集上,本文提出的模型以MIoU為91.56%,MPA為96.79%領先其他三種算法。這是因為本文模型采用深度可分離卷積網(wǎng)絡MobileNetv2作為RGB圖像的主干網(wǎng)絡,在有效降低模型參數(shù)量和計算量的同時,還可以保證模型具有較強的特征提取能力。此外,本文引入金字塔池化模塊PPM,將全局特征與RGB圖和深度圖提取后的特征圖融合,極大地增大了模型的感受野,提高了模型對邊界特征的描述能力。
表33本文分割算法與同類算法在YCB數(shù)據(jù)集上的性能參數(shù)Table33performanceparametersofoursegmentationalgorithmandsimilaralgorithmsonYCBdatasetUnetDeeplabv3PSPNetOursMIoUMPAMIoUMPAMIoUMPAMIoUMPAbackground98.2999.2198.2199.4698.6299.698.799.3002_master_chef_can94.9897.8994.5896.8295.5796.6295.9697.34003_cracker_box9496.191.5595.0395.6597.3195.5398.21004_sugar_box91.7696.6192.6694.894.9996.3495.397.29005_tomato_soup_can91.4395.892.8494.6994.7396.2494.997.54006_mustard_bottle94.3296.6694.1996.4595.1496.6295.3797.58007_tuna_fish_can91.6394.0591.2291.7792.8994.4791.7497.02008_pudding_box91.6194.9391.3794.0591.1394.4991.6996.67009_gel
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 中西醫(yī)結合與特色療法
- 產(chǎn)科護理實踐與臨床經(jīng)驗分享
- 2026年黑龍江林業(yè)職業(yè)技術學院高職單招職業(yè)適應性測試備考題庫有答案解析
- 2026年廣州體育職業(yè)技術學院單招職業(yè)技能筆試備考試題帶答案解析
- 生命科學領域的納米技術應用
- 住院部工作質(zhì)量回顧
- 個性化醫(yī)療與精準治療方案
- 2026年常州工業(yè)職業(yè)技術學院單招綜合素質(zhì)筆試備考題庫帶答案解析
- 醫(yī)院感染預防與控制規(guī)范解讀
- 醫(yī)療行業(yè)禮儀在護理操作中的重要性
- 2024年太陽能光伏發(fā)電項目EPC建設合同
- 裝修陪跑合同范本
- DL-T5181-2017水電水利工程錨噴支護施工規(guī)范
- 肺動脈高壓診治進展
- 國林臭氧氧化脫硝技術簡介
- 2023核電廠地質(zhì)鉆探巖芯保管技術規(guī)程
- 稽核在管理中的重要性
- 蘇寧云商財務報表分析
- 西方油畫發(fā)展歷程
- 自來水公司招聘考試筆試題目
- GB/T 325.2-2010包裝容器鋼桶第2部分:最小總容量208L、210L和216.5L全開口鋼桶
評論
0/150
提交評論