【《基于改進的EfficientNet的垃圾分類算法實驗分析案例》3400字】_第1頁
【《基于改進的EfficientNet的垃圾分類算法實驗分析案例》3400字】_第2頁
【《基于改進的EfficientNet的垃圾分類算法實驗分析案例》3400字】_第3頁
【《基于改進的EfficientNet的垃圾分類算法實驗分析案例》3400字】_第4頁
【《基于改進的EfficientNet的垃圾分類算法實驗分析案例》3400字】_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

基于改進的EfficientNet的垃圾分類算法實驗分析案例目錄TOC\o"1-3"\h\u14042基于改進的EfficientNet的垃圾分類算法實驗分析案例 1298061.1實驗環(huán)境介紹 1262041.2圖像數(shù)據(jù)集介紹及其預處理 1318731.3實驗相關(guān)參數(shù)介紹 5292951.4實驗模型訓練 6130581.5實驗模型測試 7265991.6實驗結(jié)果分析 71.1實驗環(huán)境介紹本實驗采用以下條件配置的環(huán)境進行模型的訓練:服務器系統(tǒng)為Unbantu16.0464位,CPU型號為IntelXeon(R)Gold2.6GHz×28,運行內(nèi)存大小為64GB,磁盤容量1.2TB,顯示卡型號為NVIDIAGeForceRTX2080Ti×2。深度學習框架使用Tensorflow1.13,使用的相關(guān)模塊有Numpy,Pillow,OpenCV等,使用的Python版本為3.6。1.2圖像數(shù)據(jù)集介紹及其預處理(1)數(shù)據(jù)集介紹本實驗所使用的垃圾物品圖像數(shù)據(jù)集,來自于某人工智能大賽垃圾分類項目,該數(shù)據(jù)集主要包含19375張圖片,如圖4-1所示。其中主要包含4種分類的垃圾圖片:可回收垃圾,廚余垃圾,有害垃圾和其他垃圾。該數(shù)據(jù)集事先對日常生活中常見的垃圾物品進行拍照收集,其包含的垃圾物品也十分豐富,每一種類所包含的垃圾物品數(shù)量也有很多,總共包含了40種的垃圾物品,其名稱信息如下表4-1所示,基本囊括了日常生活中常見的垃圾,比如一次性餐盒、水果果皮、易拉罐等等,如下圖4-2展示了部分垃圾物品及其所屬的垃圾類別,還有每個類別所包含垃圾物品數(shù)量的統(tǒng)計圖,如圖4-3所示。圖4-1部分數(shù)據(jù)集文件目錄截圖Fig.4-1PartialDatasetFileDirectoryScreenshot表4-1實驗包含的所有垃圾種類以及所有物品名稱Tab.4-1AllTypesofRubbishIncludedintheExperimentandtheNamesofAllItems編號垃圾類別物品名稱編號垃圾類別物品名稱0:其他垃圾/一次性快餐盒,20:可回收物/快遞紙袋,1:其他垃圾/污損塑料,21:可回收物/插頭電線,2:其他垃圾/煙蒂,22:可回收物/舊衣服,3:其他垃圾/牙簽,23:可回收物/易拉罐,4:其他垃圾/破碎花盆及碟碗,24:可回收物/枕頭,5:其他垃圾/竹筷,25:可回收物/毛絨玩具,6:廚余垃圾/剩飯剩菜,26:可回收物/洗發(fā)水瓶,7:廚余垃圾/大骨頭,27:可回收物/玻璃杯,8:廚余垃圾/水果果皮,28:可回收物/皮鞋,9:廚余垃圾/水果果肉,29:可回收物/砧板,10:廚余垃圾/茶葉渣,30:可回收物/紙板箱,11:廚余垃圾/菜葉菜根,31:可回收物/調(diào)料瓶,12:廚余垃圾/蛋殼,32:可回收物/酒瓶,13:廚余垃圾/魚骨,33:可回收物/金屬食品罐,14:可回收物/充電寶,34:可回收物/鍋,15:可回收物/包,35:可回收物/食用油桶,16:可回收物/化妝品瓶,36:可回收物/飲料瓶,17:可回收物/塑料玩具,37:有害垃圾/干電池,18:可回收物/塑料碗盆,38:有害垃圾/軟膏,19:可回收物/塑料衣架,39:有害垃圾/過期藥物a)其他垃圾/一次性快餐盒b)其他垃圾/污損塑料c)可回收物/舊衣服d)可回收物/插頭電線e)可回收物/食用油桶f)廚余垃圾/水果果皮g)廚余垃圾/蛋殼h)有害垃圾/過期藥物i)有害垃圾/干電池圖4-2部分垃圾物品及其所屬的垃圾類別示例圖Fig.4-2SomeGarbageItemsandTheirGarbageCategories圖4-3各類別所包含垃圾物品數(shù)量統(tǒng)計圖Fig.4-3StatisticalChartofQuantityofGarbageItemsinDifferentCategories(2)數(shù)據(jù)集預處理由于垃圾物品所處的客觀環(huán)境因素的影響,例如拍攝的角度,拍攝的遠近距離,周圍環(huán)境的光線強弱,物品的擺放位置,物品相互之間的遮擋,其對于模型的圖像識別準確度有較大影響。尤其是每個類別的物品數(shù)量不均或者過多過少,對于模型訓練的收斂有一定的影響。因此我們?yōu)榱藢⒛P统浞譂M足實際的拍攝條件,也為了讓模型的泛化能力提升,對數(shù)據(jù)進行增強。數(shù)據(jù)增強主要指對圖片進行隨機旋轉(zhuǎn)、縮放比例、色彩抖動、水平和垂直翻轉(zhuǎn)等操作,卷積神經(jīng)網(wǎng)絡本身對于物體的位移、視角、大小、照明具有不變性,也就是數(shù)據(jù)增強不影響網(wǎng)絡的訓練,反而會增加模型的泛化能力,提高準確率。在本實驗中,我們除了對圖片做了以上提到的操作處理外,還應用了以下三種增強操作:Mixup:隨機將兩張圖片按比例混合;Cutout:隨機將圖片中的部分區(qū)域裁剪掉,同時填充0像素;CutMix:隨機剪裁部分區(qū)域并填充其他圖片像素。除了數(shù)據(jù)增強外,還要對數(shù)據(jù)進行歸一化,標簽平滑,并且將圖片填充到224×224方形區(qū)域中,這樣有利于模型的訓練。以下列舉了對部分數(shù)據(jù)進行的數(shù)據(jù)增強示例,如圖4-4所示,以及增強后樣本各類別所含物品數(shù)的統(tǒng)計圖,如圖4-5所示。a)原圖 b)垂直翻轉(zhuǎn) c)水平翻轉(zhuǎn) d)縮放 e)色彩抖動 f)Mixup g)Cutout h)CutMix圖4-4數(shù)據(jù)增強示例圖Fig.4-4DataAugmentationExampleDiagram圖4-5增強后樣本各類別所含物品數(shù)統(tǒng)計圖Fig.4-5StatisticalChartofTheNumberofItemsinEachCategoryoftheEnhancedSample1.3實驗相關(guān)參數(shù)介紹本實驗使用改進后的EfficientNet網(wǎng)絡,涉及到的主要參數(shù)如下:NUM_CLASSES:模型進行分類的種類數(shù)量,因為數(shù)據(jù)集共有40種垃圾物品,因此設置為40;INPUT_SIZE:網(wǎng)絡輸入層圖片的尺寸大小,因為按照基于EfficientNet-B0改進的網(wǎng)絡要求的是224×224統(tǒng)一大小的圖片;IMAGES_PER_GPU:指每個GPU上訓練的圖像數(shù)量,對于本實驗,顯示卡可以處理4張圖片,充分利用其性能;MAX_EPOCHS:最大訓練的輪數(shù),本實驗設置將其設置為50;STEPS_PER_EPOCH:每個epoch中訓練的step數(shù)目,設置為1000;BATCH_SIZE:每輪訓練分為幾個批次,即batchsize,設置為8,也就是說在每個epoch中,每批次將數(shù)據(jù)按照8張一組,進行多批次訓練;LEARNING_RATE:學習率,初值設置為0.0001;NADAM_MOMENTUM:表示Nadam算法的動量超參數(shù),初始設置為0.9;WARMUP_LEARNING_RATE:使用Warmup的余弦退火學習率,初值設置為0;WARMUP_EPOCH:帶Warmup的余弦退火學習率的epoch數(shù)量,設置為5;GN_GROUP_SIZE:組歸一化的特征圖分組大小,設置為32。1.4實驗模型訓練我們應用改進后的EfficientNet網(wǎng)絡模型在預處理后的數(shù)據(jù)集上開始進行訓練。主要使用Tensorflow學習框架來進行深度卷積神經(jīng)網(wǎng)絡訓練,Tensorflow能夠同時支持GPU和CPU的訓練,操作方便,其實驗效率也很高。實驗的數(shù)據(jù)集圖片全部采用RGB格式參與實驗。數(shù)據(jù)劃分方面,我們將數(shù)據(jù)集分為三個部分,用于驗證集的圖片占10%,用于測試的圖片占5%,剩余85%的圖片用作訓練集。每張圖片已經(jīng)事先為其做好了標注,主要格式是“圖片文件名/物品編號”,例如“img_1.jpg,0”。實驗初始進行數(shù)據(jù)集預處理,包括數(shù)據(jù)增強、歸一化等操作,之后用改進后的模型將數(shù)據(jù)作為輸入層進行學習。實驗加入了Nadam優(yōu)化算法,動量是0.9,迭代周期為50個。學習率初值為10-4。采用交叉熵函數(shù)作為多分類的損失函數(shù),其如下式4-1所示。式中pyi是指實際為標簽yi的概率,而qH(p,q)=?另外使用Dropout正則化使部分神經(jīng)元隨機失活,這樣有助于防止模型過擬合現(xiàn)象的出現(xiàn),并且能夠提高訓練速度,神經(jīng)元被保留的概率設置為0.4。訓練共進行50輪,batchsize設置為8。每輪訓練之后保存代價損失函數(shù)值Loss率和準確率。在整體訓練完成之后,將模型以及其權(quán)重保存到指定路徑,之后使用該訓練后的模型針對測試集進行測試。1.5實驗模型測試測試過程方面,首先加載訓練階段生成的模型文件,其主要包括了網(wǎng)絡模型的計算圖和模型參數(shù),之后加載測試集數(shù)據(jù)及其對應的標簽文件進行模型測試。在模型測試前,測試集數(shù)據(jù)首先也需要與訓練集做同樣的預處理,主要將圖片規(guī)范到224×224的方形區(qū)域方便測試,并轉(zhuǎn)換為RGB三通道圖像。評估標準方面,主要有模型的準確率和平均準確率,其主要是實驗中預測正確的樣本數(shù)量占測試樣本總數(shù)m的比例,其公式如式4-2所示。在本實驗中主要計算預測正確的圖片數(shù)量占所有測試集圖片總數(shù)的比例。accuracy=該式中,fxi是模型預測的標簽,yi表示真實的標簽。Ⅱ平均準確率是指所有類別的準確率的平均值,也就是四個種類垃圾各自預測的準確率加和求平均得到的數(shù)值。1.6實驗結(jié)果分析訓練完成之后,針對垃圾分類模型做的改進,我們使用消融實驗法,在精簡網(wǎng)絡MBConv模塊數(shù)量的前提下,設置四種類型的模型,來觀察各改進對于網(wǎng)絡的不同效果,主要分為以下幾個部分:實驗一:含有SK模塊和特征融合機制的模型實驗二:含有SK模塊的模型實驗三:含有特征融合機制的模型實驗四:未含有SK模塊和特征融合機制的模型將以上四個標準的模型分別進行訓練學習,并記錄每次迭代后的準確率和損失函數(shù)值,結(jié)果如下圖4-6所示,各實驗模型由不同顏色的曲線進行表示。a)準確率曲線b)損失函數(shù)曲線圖4-6四模型分別進行訓練的準確率和損失函數(shù)值對比Fig.4-6TheAccuracyandLossFunctionoftheFourModelsWereCompared從圖中可以看到,準確率方面,實驗一要比其他三個實驗都要高,并且提升的很快,Loss率也更低,這說明實驗一中加入兩種改進的網(wǎng)絡更具有良好的識別效果,且效率高,收斂快;實驗二、三和四的收斂速度依次遞減。在測試中進一步檢驗以上各種模型在測試數(shù)據(jù)集中的準確率,在每一類別上對各模型進行統(tǒng)計,結(jié)果如下表4-2所示??梢詮闹锌闯鲈陬悇e總體的平均準確率上,包含所有改進的實驗一模型都優(yōu)于其它三個實驗模型,其平均準確率達到了0.9547。在單一子類別方面來看,實驗一模型也都顯著優(yōu)于其它實驗模型。因此我們可以看到,在加入了改進的模型具有很好的泛化能力,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論