【《惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例》5500字】_第1頁(yè)
【《惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例》5500字】_第2頁(yè)
【《惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例》5500字】_第3頁(yè)
【《惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例》5500字】_第4頁(yè)
【《惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例》5500字】_第5頁(yè)
已閱讀5頁(yè),還剩6頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例目錄TOC\o"1-3"\h\u14473惡意代碼檢測(cè)模型與實(shí)驗(yàn)探究案例 125400第1章惡意代碼檢測(cè)模型 1285061.1問(wèn)題分析與方法討論 1201821.1.1問(wèn)題分析 1274991.1.2方法概述 2206051.2數(shù)據(jù)預(yù)處理 3279071.2.1數(shù)據(jù)集均衡化 3326861.2.2數(shù)據(jù)集格式調(diào)整 3278181.3惡意代碼檢測(cè) 3239811.1.1整體模型設(shè)計(jì) 3117531.1.2網(wǎng)絡(luò)模塊設(shè)計(jì) 4127591.1.3模型訓(xùn)練 527866第2章實(shí)驗(yàn)與分析 7146852.1實(shí)驗(yàn)設(shè)置 795672.1.1實(shí)驗(yàn)環(huán)境和數(shù)據(jù)集 7200102.1.2評(píng)價(jià)指標(biāo) 8104972.2總體性能驗(yàn)證與分析 814812.3模型結(jié)構(gòu)性能驗(yàn)證與分析 9第1章惡意代碼檢測(cè)模型1.1問(wèn)題分析與方法討論1.1.1問(wèn)題分析當(dāng)前使用較多的惡意代碼檢測(cè)模型往往都傾向于不斷提升檢測(cè)準(zhǔn)確率,所以模型設(shè)計(jì)的越來(lái)越復(fù)雜,為了提取更多的特征,參數(shù)量也越來(lái)越大;這就導(dǎo)致了當(dāng)前較多模型的檢測(cè)效率不夠高,且對(duì)硬件的要求較高;為了讓基于深度學(xué)習(xí)的惡意代碼檢測(cè)方式不局限于中高端機(jī)型,開發(fā)一款檢測(cè)準(zhǔn)確率較高的輕量化網(wǎng)絡(luò)是很有必要的。所以本文提出了一款基于AlexNet模型結(jié)構(gòu)和結(jié)合深度可分離卷積的惡意代碼檢測(cè)模型。惡意代碼檢測(cè)模型選取Alexnet結(jié)構(gòu)的原因是:Alexnet是第一個(gè)具有重大突破的卷積神經(jīng)網(wǎng)絡(luò),且該網(wǎng)絡(luò)結(jié)構(gòu)較為簡(jiǎn)單,只有八層,符合輕量化網(wǎng)絡(luò)的要求;本文將在AlexNet的基礎(chǔ)上,修改網(wǎng)絡(luò)結(jié)構(gòu),將原網(wǎng)絡(luò)中三層池化層替換為卷積層,以此來(lái)加深網(wǎng)絡(luò)的深度,提升檢測(cè)準(zhǔn)確率;再將網(wǎng)絡(luò)中所有的卷積層更換為深度可分離卷積,借此降低網(wǎng)絡(luò)的參數(shù)數(shù)量,優(yōu)化網(wǎng)絡(luò)以滿足目標(biāo)需求。1.1.2方法概述基于Alexnet的惡意代碼檢測(cè)模型網(wǎng)絡(luò)組成框圖如圖3-1所示,由于本實(shí)驗(yàn)選取的惡意代碼數(shù)據(jù)集已經(jīng)是png格式,故不需要惡意代碼圖像化模塊;本實(shí)驗(yàn)總體包括兩個(gè)模塊,下面分別對(duì)該兩個(gè)模塊進(jìn)行闡述:數(shù)據(jù)預(yù)處理模塊:惡意代碼數(shù)據(jù)集分布十分不均,不同種類的惡意代碼樣本數(shù)量差距過(guò)大,所以需要對(duì)不同種類的樣本進(jìn)行均衡化處理,數(shù)據(jù)預(yù)處理模塊使用了過(guò)采樣和欠采樣來(lái)對(duì)數(shù)據(jù)集進(jìn)行均衡化處理。惡意代碼數(shù)據(jù)集為分文件夾的形式,為了將其調(diào)整為適合網(wǎng)絡(luò)輸入的格式,需要將所有種類的惡意代碼圖片整合為一個(gè)文件夾且設(shè)置對(duì)應(yīng)標(biāo)簽。惡意代碼檢測(cè)模塊:本文的主要目的是使用優(yōu)化后的Alexnet模型對(duì)惡意代碼進(jìn)行檢測(cè),所以先需要構(gòu)建Alexnet網(wǎng)絡(luò)模型,再在該模型的基礎(chǔ)上修改網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),使用BN層來(lái)替代Alexnet網(wǎng)絡(luò)中的LRN層,加快收斂速度和防止過(guò)擬合;使用深度可分離卷積來(lái)替代卷積層和池化層,以此在加深網(wǎng)絡(luò)深度的同時(shí),減少由于網(wǎng)絡(luò)深度增加而帶來(lái)的參數(shù)增長(zhǎng)。網(wǎng)絡(luò)模型在輸出部分選用了Categorical_Crossentropy[[]檀結(jié)慶,朱星辰,蔡蒙琪.基于GMSD的新混合損失函數(shù)[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,44(04):472-477+502.][]檀結(jié)慶,朱星辰,蔡蒙琪.基于GMSD的新混合損失函數(shù)[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,44(04):472-477+502.圖SEQ圖\*ARABIC3-1研究流程圖1.2數(shù)據(jù)預(yù)處理1.2.1數(shù)據(jù)集均衡化本實(shí)驗(yàn)使用的數(shù)據(jù)集是malimg數(shù)據(jù)集,由于數(shù)據(jù)集中幾類樣本的權(quán)重太大,合計(jì)占了數(shù)據(jù)集的百分之五十,所以需要對(duì)該數(shù)據(jù)集進(jìn)行均衡化處理;本文選擇的數(shù)據(jù)集均衡化方法是欠擬合,根據(jù)欠擬合的方式,隨機(jī)將樣本數(shù)過(guò)大的幾種惡意代碼削減數(shù)量。1.2.2數(shù)據(jù)集格式調(diào)整由于數(shù)據(jù)集中的圖像都是以文件夾的形式分隔開來(lái),所以需要先為每張圖片制作標(biāo)簽,將數(shù)據(jù)集預(yù)處理為圖集和標(biāo)簽集兩部分;可以先調(diào)用os庫(kù)中的listdir函數(shù)來(lái)獲取所有數(shù)據(jù)的目錄,然后通過(guò)路徑合成來(lái)獲取文件位置并按種類編號(hào),并調(diào)用os.system()函數(shù),執(zhí)行copy操作,將已經(jīng)編號(hào)完成的數(shù)據(jù)集中到相同的文件夾中。最后根據(jù)目錄和文件編號(hào)生成編號(hào)-種類表并存入csv文件,這樣就能處理為便于導(dǎo)入的形式。由于不同種類的惡意代碼圖像化后尺寸并不一致,需要統(tǒng)一調(diào)整為256*256的格式,本文中使用resize來(lái)對(duì)圖片進(jìn)行縮放。1.3惡意代碼檢測(cè)1.1.1整體模型設(shè)計(jì)Alexnet中有五個(gè)卷積層、三個(gè)池化層、兩個(gè)LRN層和三個(gè)全連接層,由于該網(wǎng)只有五個(gè)卷積層,因此該網(wǎng)絡(luò)的結(jié)構(gòu)較為簡(jiǎn)單,LRN層位于前兩個(gè)卷積層后,在前兩個(gè)和最后一個(gè)卷積層后,接上了池化層;由于池化層的主要功能是降低神經(jīng)網(wǎng)絡(luò)的復(fù)雜度,且在AlexNet中選擇的是最大池化(MaxPooling),在當(dāng)時(shí)的環(huán)境下,硬件條件不夠,所以需要采樣池化層來(lái)降采樣,在本文中,會(huì)選擇使用卷積層來(lái)替代AlexNet中網(wǎng)絡(luò)的池化層,以此來(lái)保留更多的數(shù)據(jù)信息在前兩個(gè)卷積層后Alexnet使用了兩個(gè)局部響應(yīng)歸一化層(LRN:LocalResponseNormalization),但隨著神經(jīng)網(wǎng)絡(luò)的發(fā)展,越來(lái)越多人選擇使用批量歸一化層(BN:BatchNormalization),所以在此模型中,我會(huì)選用BN層來(lái)替代LRN層。由于上文介紹的深度可分離卷積的優(yōu)越性,本文會(huì)將卷積層都替換為深度可分離卷積,以此找到一個(gè)較優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)。Alexnet網(wǎng)絡(luò)中使用relu作為激活函數(shù),這是因?yàn)閟igmoid[[]WaliLuqmanetal.Acutepylephlebitissecondarytoperforatedsigmoiddiverticulitis:Acasereport.[J].Radiologycasereports,2021,16(6):1504-1507.]和tanh[[]左延年,申遠(yuǎn),神經(jīng)網(wǎng)絡(luò)中激活函數(shù)tanh的正則化[J].周口師范學(xué)院學(xué)報(bào),2020,37(05):23-27.]兩類激活函數(shù)都有飽和區(qū),relu解決了激活函數(shù)的導(dǎo)數(shù)問(wèn)題,有助于緩解梯度消失的問(wèn)題,網(wǎng)絡(luò)的檢測(cè)效率也會(huì)提高。在網(wǎng)絡(luò)末尾的全連接層中加入dropout,Alex[]WaliLuqmanetal.Acutepylephlebitissecondarytoperforatedsigmoiddiverticulitis:Acasereport.[J].Radiologycasereports,2021,16(6):1504-1507.[]左延年,申遠(yuǎn),神經(jīng)網(wǎng)絡(luò)中激活函數(shù)tanh的正則化[J].周口師范學(xué)院學(xué)報(bào),2020,37(05):23-27.圖SEQ圖\*ARABIC4-2網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)1.1.2網(wǎng)絡(luò)模塊設(shè)計(jì)輸入;惡意代碼數(shù)據(jù)從input處輸入,input為(256*256*1)是因?yàn)樵O(shè)計(jì)輸入數(shù)據(jù)的尺寸為256*256,是灰度圖像,所以通道數(shù)為1。深度可分離卷積層;C1、C3、C5、C4、C6、C7為深度可分離卷積層,這幾層替代了原AlexNet中卷積層的未知,卷積層的kernel(卷積層的形狀)=(x,x,y,z),x*x代表著前一層輸出的尺寸,y代表著輸入的通道數(shù),z代表著輸出的通道數(shù),stride代表著每次卷積核移動(dòng)的距離,最后接上relu(線性整流層)激活函數(shù)。批量歸一化層;BN層是LRN層的替代。LRN層是局部響應(yīng)歸一化層,LRN層是AlexNet的特色,它可以對(duì)輸入進(jìn)行歸一化操作,該層有著橫向抑制的作用,在接收到激活函數(shù)的輸出時(shí),將該結(jié)果進(jìn)行歸一化處理,可以大大提高神經(jīng)網(wǎng)絡(luò)的泛化性能;但隨著神經(jīng)網(wǎng)絡(luò)的發(fā)展逐漸由BN替代了LRN層,使用BN層的神經(jīng)網(wǎng)絡(luò)可以接受更大的學(xué)習(xí)率,且該網(wǎng)絡(luò)的梯度也能得到優(yōu)化,隨著學(xué)習(xí)率的提升,該網(wǎng)絡(luò)的訓(xùn)練速度也會(huì)得到提升,并且也不再那么依賴參數(shù)初始化,BN層還能增強(qiáng)網(wǎng)絡(luò)的泛化能力,因此選擇BN層來(lái)替代LRN層是最優(yōu)解。池化層;C2、C4、C8的位置本該是池化層,池化是卷積神經(jīng)網(wǎng)絡(luò)中的一個(gè)很重要的一個(gè)功能層,它的主要功能是降低數(shù)據(jù)的復(fù)雜程度,也就是降采樣,池化方式分為平均池(AveragePooling)和最大池化(MaxPooling),最大池化的過(guò)程就是不斷采樣圖像中的一定區(qū)域,使用該區(qū)域內(nèi)的最大值代表該區(qū)域的特征,它能有效降低參數(shù)的數(shù)量,以此來(lái)加快訓(xùn)練過(guò)程;且因?yàn)楹雎缘袅艘徊糠值臄?shù)據(jù),有一定防止過(guò)擬合的功能。最大池化也是卷積神經(jīng)網(wǎng)絡(luò)中最常用的池化方法,且常常會(huì)選擇令池化層的stride小于filter,這樣就能盡可能地覆蓋完整數(shù)據(jù)。但考慮到池化層可能會(huì)忽略掉一部分重要信息,所以本文中使用深度可分離卷積來(lái)替換掉池化層,使神經(jīng)網(wǎng)絡(luò)保留更多的信息,且比常規(guī)的卷積層參數(shù)量更少。全連接層;F1、F2是全連接層,在神經(jīng)網(wǎng)絡(luò)中,全連接層在神經(jīng)網(wǎng)絡(luò)中承擔(dān)著分類的功能,它起到了把學(xué)習(xí)的“分布特征表示”映射到樣本標(biāo)記空間的作用,全連接層中的每個(gè)神經(jīng)元與其前一層的所有神經(jīng)元全部連接;該層將會(huì)綜合卷積層或池化層中具有類別區(qū)分性的局部信息,然后傳遞給下一層,處于網(wǎng)絡(luò)尾部的全連接層的輸出通常會(huì)被傳遞softmax函數(shù)。在神經(jīng)網(wǎng)絡(luò)中,常常會(huì)在神經(jīng)網(wǎng)絡(luò)的末尾接上兩個(gè)全連接層[[]胡小春,朱成宇,陳燕.深度卷積神經(jīng)網(wǎng)絡(luò)模型的研究分析[J].信息技術(shù)與信息化,2021(04):107-110.],每層中的每個(gè)神經(jīng)元都可以模擬作為一個(gè)多項(xiàng)式,根據(jù)泰勒公式的原理,我們需要許多的神經(jīng)元去擬合非線性曲線,所以常常會(huì)使用兩層全連接層。全連接層中的神經(jīng)元個(gè)數(shù)和激活函數(shù)會(huì)影響神經(jīng)網(wǎng)絡(luò)性能,在理論上,神經(jīng)元的個(gè)數(shù)增多會(huì)增強(qiáng)神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,同時(shí)也會(huì)提升神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力,但神經(jīng)元的個(gè)數(shù)增多同樣會(huì)導(dǎo)致模型過(guò)擬合的問(wèn)題,且訓(xùn)練時(shí)間也會(huì)相應(yīng)增加,這是本網(wǎng)絡(luò)中所不希望的結(jié)構(gòu)。F1、F2代表著全連接層,該層的filter代表著尺寸F1的尺寸選為1024、F2的尺寸選為25,dropout代表著隨機(jī)丟棄神經(jīng)元的概率,它的取值為0.1。[]胡小春,朱成宇,陳燕.深度卷積神經(jīng)網(wǎng)絡(luò)模型的研究分析[J].信息技術(shù)與信息化,2021(04):107-110.激活函數(shù);本網(wǎng)絡(luò)在每個(gè)深度可分離卷積層后,都添加了relu作為激活函數(shù)。在神經(jīng)網(wǎng)絡(luò)中,如果沒(méi)有非線性因素,那么網(wǎng)絡(luò)的結(jié)構(gòu)將會(huì)是一條直線,所以需要使用激活函數(shù)來(lái)引進(jìn)非線性因素,來(lái)讓神經(jīng)網(wǎng)絡(luò)引入非線性因素,使神經(jīng)網(wǎng)絡(luò)可以逼近和擬合任何非線性函數(shù),當(dāng)前使用較多的激活函數(shù)為:relu、sigmoid和tanh函數(shù)。在Alexnet中使用的激活函數(shù)是relu,在深度學(xué)習(xí)的研究中1,最大的困擾就是梯度消失的問(wèn)題;使用sigmoid和tanh等激活函數(shù)的時(shí)候,會(huì)帶來(lái)梯度消失問(wèn)題,而relu的優(yōu)點(diǎn)是可以克服梯度消失,以此大大提升神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。但它也會(huì)對(duì)輸入為負(fù)數(shù)的數(shù)據(jù)直接丟棄,在許多條件下并不適用,而且relu函數(shù)不是一個(gè)以0為中心的函數(shù),它的結(jié)果只能在0和正數(shù)之間取值[[]J.A.A.OpschoorandCh.SchwabandJ.Zech.ExponentialReLUDNNExpressionofHolomorphicMapsinHighDimension[J].ConstructiveApproximation,2021,1-46.[]J.A.A.OpschoorandCh.SchwabandJ.Zech.ExponentialReLUDNNExpressionofHolomorphicMapsinHighDimension[J].ConstructiveApproximation,2021,1-46.1.1.3模型訓(xùn)練模型的結(jié)構(gòu)參數(shù)如下表所示:表3-1神經(jīng)網(wǎng)絡(luò)參數(shù)表網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)InputSize=(256,256,1)C6層kernel=(3,3,192)relu,strides=1C1層kernel=(11,11,48)relu,strides=4C7層kernel=(3,3,192)relu,strides=1C2層kernel=(3,3,192)relu,strides=2C8層kernel=(3,3,128)relu,strides=2C3層kernel=(5,5,128)relu,strides=1BN層C4層kernel=(3,3,192)relu,strides=2F1、F2size=1024、25,dropout=0.5C5層kernel=(3,3,192)relu,strides=1outputSize=25損失函數(shù)Categorical_Crossentropy優(yōu)化器Adam圖片的輸入尺寸為256*256,batch_size選擇為8,測(cè)試得到該參數(shù)下epoch為100輪時(shí)效果較好。訓(xùn)練并輸出模型。具體模型訓(xùn)練流程:數(shù)據(jù)以256*256*1從input處輸入,經(jīng)過(guò)96個(gè)11*11步長(zhǎng)為4的深度可分離卷積后變?yōu)?4*64*48;再進(jìn)入第二個(gè)3*3*192的深度可分離卷積,輸出為31*31*192;再進(jìn)入BN層,數(shù)據(jù)的尺寸不會(huì)發(fā)生變化;從BN層輸出后,進(jìn)入第三個(gè)5*5*128的深度可分離卷積,該層的輸出為31*31*128;再通過(guò)第四個(gè)3*3*192的深度可分離卷積,輸出為15*15*192;再進(jìn)入到BN層,依舊不改變數(shù)據(jù)尺寸;經(jīng)過(guò)第五個(gè)3*3*192的深度可分離卷積,輸出的結(jié)構(gòu)為13*13*192;再經(jīng)過(guò)第六個(gè)3*3*192的深度可分離卷積后,數(shù)據(jù)變成了11*11*192;經(jīng)過(guò)第七個(gè)3*3*256的深度可分離卷積后,數(shù)據(jù)輸出為9*9*128;經(jīng)過(guò)最后一層3*3*192步長(zhǎng)為2的深度可分離卷積后輸出為4*4*192;此輸出再經(jīng)過(guò)flatten展平,輸入到分別為1024和25的全連接層后,輸出劃分為25類。

第2章實(shí)驗(yàn)與分析2.1實(shí)驗(yàn)設(shè)置2.1.1實(shí)驗(yàn)環(huán)境和數(shù)據(jù)集本實(shí)驗(yàn)中使用的是malimg[[]FarkhundIqbaletal.ADeepLearningFrameworkforMalwareClassification[J].InternationalJournalofDigitalCrimeandForensics(IJDCF),2020,12(1):90-108.[]FarkhundIqbaletal.ADeepLearningFrameworkforMalwareClassification[J].InternationalJournalofDigitalCrimeandForensics(IJDCF),2020,12(1):90-108.具體數(shù)量由下表所示:表4-1均衡化后數(shù)據(jù)集詳情家族數(shù)量家族數(shù)量Adialer.C125Lolyda.AA2184Agent.FYI116Malex.gen!J136C2LOP.P146Lolyda.AT159Dialplatform.B177Rbot!gen158Fakerean157VB.AT176Dontovo.A162Wintrim.BX97C2LOP.gen!g167Skintrim.N80Instantaccess198Yuner.A215Lolyda.AA1213Obfuscator.AD142Allaple.L325Swizzor.gen!E128Autorun.K106Swizzor.gen!I132Alueron.gen!J198Lolyda.AA3123Allaple.A378本次實(shí)驗(yàn)的實(shí)驗(yàn)環(huán)境和設(shè)備參數(shù)如下表。表4-2實(shí)驗(yàn)環(huán)境和設(shè)備參數(shù)硬件說(shuō)明軟件說(shuō)明CPUInteli5-7300CUDA11GPUGTX1050編譯器VisualStudioRAM8GB編程語(yǔ)言Python本次實(shí)驗(yàn)中一些超參數(shù)如下。表4-3超參數(shù)及其設(shè)置EpochBatch_sizedropoutoptimize10080.1Adam2.1.2評(píng)價(jià)指標(biāo)本次實(shí)驗(yàn)的目的是設(shè)計(jì)一種能在中低端個(gè)人計(jì)算機(jī)的環(huán)境下有較好運(yùn)算體驗(yàn)的惡意代碼檢測(cè)網(wǎng)絡(luò),所以需要構(gòu)建一個(gè)輕量化的神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)的模型和參數(shù)需要較為簡(jiǎn),訓(xùn)練效率高,且擁有較高的準(zhǔn)確率,故選取訓(xùn)練時(shí)間和模型的準(zhǔn)確率作為本次實(shí)驗(yàn)的兩個(gè)評(píng)價(jià)指標(biāo),模型的處理時(shí)間以該模型在測(cè)試集下的十次平均處理時(shí)間為準(zhǔn)。模型準(zhǔn)確率以測(cè)試集分類正確的圖數(shù)除以測(cè)試集的總數(shù)得到。2.2總體性能驗(yàn)證與分析為了驗(yàn)證本文提出的惡意代碼檢測(cè)模型的準(zhǔn)確性和性能,將本文構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)模型與測(cè)試結(jié)果效果較好的幾個(gè)惡意代碼檢測(cè)模型進(jìn)行比較測(cè)試,驗(yàn)證該模型在訓(xùn)練效率和檢測(cè)準(zhǔn)確度上的進(jìn)步。Nataraj使用K臨近算法對(duì)惡意代碼的GIST特征進(jìn)行提取分類;CuiZ[9]將惡意代碼轉(zhuǎn)換為灰度圖像,使用自己搭建的卷積神經(jīng)網(wǎng)絡(luò)來(lái)檢測(cè);蔣[[]蔣考林,白瑋,張磊,陳軍,潘志松,郭世澤.基于多通道圖像深度學(xué)習(xí)的惡意代碼檢測(cè)[J].計(jì)算機(jī)應(yīng)用,2021,41(04):1142-1147.[]蔣考林,白瑋,張磊,陳軍,潘志松,郭世澤.基于多通道圖像深度學(xué)習(xí)的惡意代碼檢測(cè)[J].計(jì)算機(jī)應(yīng)用,2021,41(04):1142-1147.表4-5網(wǎng)絡(luò)性能比較網(wǎng)絡(luò)方法數(shù)據(jù)集是否均衡化多通道圖像數(shù)據(jù)集準(zhǔn)確率處理時(shí)間ms本網(wǎng)絡(luò)的方法是否89.77%55CuiZ是否81.57%141蔣考林是否85.03%57Nataraj是否91.33%143蔣考林是是91.25%181根據(jù)實(shí)驗(yàn)結(jié)果可知,本模型在列出的幾種網(wǎng)絡(luò)模型中,在單通道圖像數(shù)據(jù)集上的檢測(cè)準(zhǔn)確率第二高,且訓(xùn)練耗時(shí)最少。雖然Nataraj的K臨近算法的檢測(cè)準(zhǔn)確率在單通道數(shù)據(jù)集中最高,但該方法的檢測(cè)效率并不高,它的準(zhǔn)確率是犧牲檢測(cè)效率而換來(lái)的;蔣考林使用的模型與Alexnet模型結(jié)構(gòu)一致,該方法的訓(xùn)練效率較高,但由于網(wǎng)絡(luò)模型仍是經(jīng)典的Alexnet網(wǎng)絡(luò)結(jié)構(gòu)所以在檢測(cè)準(zhǔn)確率上并不理想;蔣考林的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論