基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別方法分析與應(yīng)用_第1頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別方法分析與應(yīng)用_第2頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別方法分析與應(yīng)用_第3頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別方法分析與應(yīng)用_第4頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別方法分析與應(yīng)用_第5頁(yè)
已閱讀5頁(yè),還剩25頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

緒論研究背景和意義研究背景人體正常細(xì)胞受到致癌物的影響時(shí),會(huì)異常生長(zhǎng)從而變成腫瘤細(xì)胞[1]。腫瘤可以分為惡性腫瘤和良性腫瘤。惡性腫瘤嚴(yán)重危害人們的健康甚至生命。根據(jù)世界衛(wèi)生組織發(fā)布的數(shù)據(jù)表明,癌癥現(xiàn)在是導(dǎo)致人類死亡的主要原因之一。此外,欠發(fā)達(dá)和發(fā)展中國(guó)家的癌癥死亡率比世界上任何其他地區(qū)都高。死亡率如此之高的原因是,這些國(guó)家的大多數(shù)人口都不知道癌癥的癥狀和原因?;及┣捌诓o(wú)明顯病理特征,當(dāng)患者察覺(jué)身體不適再去就醫(yī)時(shí),往往已經(jīng)錯(cuò)過(guò)了最佳治療時(shí)間,想要治愈癌癥為時(shí)已晚。此外,導(dǎo)致高死亡率的另一個(gè)因素是缺乏獲得高質(zhì)量的醫(yī)療設(shè)施、醫(yī)療領(lǐng)域的專家以及缺乏有效的癌癥篩查和診斷方法的機(jī)會(huì)[2]。目前,我國(guó)醫(yī)療行業(yè)還普遍存在優(yōu)質(zhì)醫(yī)療資源總量相對(duì)不足和醫(yī)療資源的分布不均衡等問(wèn)題,醫(yī)生對(duì)腦腫瘤的診斷水平也良莠不齊。大城市的公立三甲醫(yī)院,醫(yī)生專業(yè)素養(yǎng)高,但存在讀片效率較低的情況,一名影像科醫(yī)生診斷一位患者需要20分鐘,無(wú)法滿足眾多患者的排隊(duì)問(wèn)診現(xiàn)實(shí)需求。而基層醫(yī)院醫(yī)療水平相對(duì)落后,醫(yī)療人員對(duì)復(fù)雜影像的處理能力、判斷能力較為薄弱,因此誤診漏診率較高。同時(shí),基層醫(yī)院還承擔(dān)著大量的癌癥篩查任務(wù),需要降低誤診漏診率的同時(shí),提高診療效率,進(jìn)而提高綜合醫(yī)療水平。很長(zhǎng)一段時(shí)間以來(lái),傳統(tǒng)的腦腫瘤圖像識(shí)別需要大量的能量和耐心,并且存在潛在的錯(cuò)誤和不確定性[3]。隨著腦腫瘤患者的數(shù)量逐年增加,很明顯,傳統(tǒng)的診斷方法與現(xiàn)代醫(yī)學(xué)的需求不符。深度學(xué)習(xí)技術(shù)在醫(yī)學(xué)領(lǐng)域的杰出優(yōu)勢(shì)已成為醫(yī)學(xué)領(lǐng)域圖像分類的高級(jí)研究工具,越來(lái)越多的研究人員對(duì)該領(lǐng)域的科學(xué)研究感興趣[4]。研究表明,較早的研究人員使用傳統(tǒng)方法對(duì)腦腫瘤進(jìn)行了分類,主要包括小波轉(zhuǎn)換[5],灰度相連矩陣,支持向量機(jī)(SVM)[6,7,8,9]和其他方法。Cheng[10]等人提出了幾種方法對(duì)腦腫瘤進(jìn)行識(shí)別分類,即灰度直方圖,灰度水平的共同矩陣和單詞袋模型,以對(duì)不同類型的腦腫瘤進(jìn)行識(shí)別分類,并公布出了實(shí)驗(yàn)中使用的數(shù)據(jù)集,將其命名為CE-MRI數(shù)據(jù)集。Das[11]等人使用了包含3064T1加權(quán)對(duì)比的卷積神經(jīng)網(wǎng)絡(luò)對(duì)MRI圖像進(jìn)行了數(shù)據(jù)增強(qiáng),用于鑒定各種類型腦腫瘤,例如神經(jīng)膠質(zhì)瘤、腦膜瘤和垂體腫瘤。CNN模型經(jīng)過(guò)訓(xùn)練,可以使用多個(gè)卷積和合并過(guò)程。通過(guò)基于可變大小的卷積內(nèi)核來(lái)對(duì)卷積網(wǎng)絡(luò)的大小進(jìn)行調(diào)整,從而優(yōu)化模型,最后該模型的精確率達(dá)到了94%。綜上所述,基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別方法可以幫助醫(yī)生快速、準(zhǔn)確地判斷是否為腦腫瘤及識(shí)別腫瘤的類型,從而為患者提供個(gè)體化的治療方案。這類方法在保證準(zhǔn)確率的同時(shí)又大大提高了工作效率,為醫(yī)生節(jié)省了時(shí)間和精力,從而去幫助更多的患者。意義基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別與應(yīng)用有著重要意義。首先,它可以自動(dòng)化的進(jìn)行腦腫瘤種類識(shí)別分類,有助于早期診斷和個(gè)性化治療方案的制定,提高治療成功率。在保證準(zhǔn)確率的同時(shí),提高醫(yī)生的診斷效率,降低了時(shí)間成本和診斷成本。其次,神經(jīng)網(wǎng)絡(luò)在輔助醫(yī)學(xué)研究方面也發(fā)揮著重要作用。通過(guò)分析影像數(shù)據(jù),幫助醫(yī)學(xué)研究人員發(fā)現(xiàn)不同種類腫瘤的特征,推動(dòng)相關(guān)領(lǐng)域的科學(xué)研究進(jìn)展。將神經(jīng)網(wǎng)絡(luò)應(yīng)用于移動(dòng)應(yīng)用程序或醫(yī)療設(shè)備中,智能化地改善診斷過(guò)程,有助于普及醫(yī)療資源,提高醫(yī)療服務(wù)水平。綜上所述,基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤種類識(shí)別與應(yīng)用,對(duì)于提高診斷準(zhǔn)確性、改善醫(yī)療效率以及推動(dòng)醫(yī)學(xué)研究都具有重要的意義。國(guó)內(nèi)外研究現(xiàn)狀近年來(lái),隨著神經(jīng)網(wǎng)絡(luò)技術(shù)的持續(xù)發(fā)展,神經(jīng)網(wǎng)絡(luò)技術(shù)已經(jīng)廣泛用于各個(gè)領(lǐng)域,并在多方面上取得了不錯(cuò)的的成果。在醫(yī)學(xué)領(lǐng)域上,基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤類型識(shí)別方法在圖像分割、分類識(shí)別、病灶檢測(cè)等方面都取得了顯著成果。其中,該方法可以通過(guò)分析和處理腦腫瘤圖像數(shù)據(jù),并自動(dòng)對(duì)其檢測(cè)和分類,從而幫助醫(yī)生進(jìn)行快速判定病情。使用深度學(xué)習(xí)對(duì)腦腫瘤圖像進(jìn)行分類的算法有很多,自2015年以來(lái),學(xué)術(shù)界設(shè)計(jì)了許多深度學(xué)習(xí)網(wǎng)絡(luò)模型,例如RestNet[12],VGG,DenseNet等。Pereira等人[13]設(shè)計(jì)了一個(gè)CNN,將大腦掩模和全腦圖像分為二元類。實(shí)驗(yàn)結(jié)果顯示,全腦圖像和大腦掩模分類模型的最高準(zhǔn)確率分別達(dá)到了89.5%和92.9%。Papageorgiou等人[14]使用模糊認(rèn)知圖(FCM)來(lái)區(qū)分低級(jí)別和高級(jí)別神經(jīng)膠質(zhì)瘤,該方法的高度腦腫瘤的準(zhǔn)確率為93.22%,低度腦腫瘤的準(zhǔn)確率為90.26%。Zacharaki等人[15]提出了一個(gè)特征選擇方案。他們首先提取了實(shí)驗(yàn)中腫瘤形狀,強(qiáng)度和不變的紋理等特征,然后使用SVM對(duì)這些特征進(jìn)行特征選擇和腫瘤分類,結(jié)果表明該方案在分類低和高級(jí)神經(jīng)膠質(zhì)瘤分類中達(dá)到了88%的最高準(zhǔn)確率。Arunachalam和Savarimuthu[16]提出了使用位移不變剪波變換(SIST)來(lái)增強(qiáng)腦部MRI圖像數(shù)據(jù)。然后使用Gabor濾波器,灰度共發(fā)生矩陣(GLCM)和離散小波變換(DWT)來(lái)提取特征。最后,將提取的特征輸入到前饋反向傳播神經(jīng)網(wǎng)絡(luò)中,實(shí)驗(yàn)獲取到較高準(zhǔn)確率。Preethi和Aishwarya[17]提出了一個(gè)多階段的腦腫瘤分類模型。首先,他們使用基于小波的灰度共生矩陣(GLCM)方法從腦部MRI圖像中提取到相關(guān)特征。然后,他們將從GLCM提取的特征與其他特征組合成特征矩陣。接下來(lái),他們使用對(duì)立花粉算法(OFPA)對(duì)提取的特征進(jìn)行重建。最后,他們使用深度神經(jīng)網(wǎng)絡(luò)(DNN)根據(jù)經(jīng)過(guò)重建的特征矩陣對(duì)MRI圖像進(jìn)行分類,模型達(dá)到了92%的準(zhǔn)確率。Ghassemi等人[18]提出了一種新方法來(lái)改進(jìn)生成對(duì)抗網(wǎng)絡(luò)(GAN)的體系結(jié)構(gòu),以生成更真實(shí)的MRI圖像。他們將卷積神經(jīng)網(wǎng)絡(luò)用作GAN的鑒別器,使用兩個(gè)數(shù)據(jù)集對(duì)CNN進(jìn)行預(yù)訓(xùn)練提高了鑒別器的性能,為了增強(qiáng)GAN生成的圖像的真實(shí)性,他們對(duì)數(shù)據(jù)進(jìn)行了增強(qiáng),最后將GAN中CNN的最后一層替換為SoftMax層。結(jié)果表明,該方法的在隨機(jī)分割率方面達(dá)到95.6%的性能。將預(yù)訓(xùn)練的CNN作為GAN的鑒別器雖然是一種常用的方法,但由于GAN的網(wǎng)絡(luò)對(duì)輸入的數(shù)據(jù)大小通常需要一定要求。因此在實(shí)際應(yīng)用中,這使得一些知名網(wǎng)絡(luò)無(wú)法成為鑒別器。Begum和Lakshmi等人[19]提出了另一種有效的算法,用于腦腫瘤圖像的分類和分割。首先,他們對(duì)腦腫瘤MRI圖像進(jìn)行預(yù)處理,去除噪聲和其他干擾信息。其次,使用運(yùn)行長(zhǎng)度紋理特征和灰度共生矩陣(GLCM)高效提取圖像的統(tǒng)計(jì)特征。然后,對(duì)提取到的所有統(tǒng)計(jì)特征使用對(duì)立重力搜索算法(OGSA)對(duì)冗余和不相關(guān)的特征進(jìn)行排除。接著,將篩選出的特征輸入到循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中,將圖像分為腫瘤和非腫瘤兩種類別。最后,對(duì)于被分類為腫瘤的圖像,將其發(fā)送到第二階段進(jìn)行感興趣區(qū)域(ROI)的分割。該算法在實(shí)際的數(shù)據(jù)集中獲得了96%的分類準(zhǔn)確率。Z.Huang等人[20]介紹了一種名為CNNBCN(ConvolutionalNeuralNetworkbasedonComplexNetworks)的卷積神經(jīng)網(wǎng)絡(luò),并改進(jìn)了其激活函數(shù)。這個(gè)網(wǎng)絡(luò)的結(jié)構(gòu)是通過(guò)隨機(jī)生成的圖形算法構(gòu)建的,而無(wú)需手動(dòng)開(kāi)發(fā)和優(yōu)化。在實(shí)驗(yàn)中該方法的最高準(zhǔn)確率達(dá)到了95.49%。主要研究?jī)?nèi)容針對(duì)醫(yī)學(xué)影像圖下是否存在腦腫瘤鑒定及腦腫瘤的分類識(shí)別問(wèn)題,本課題計(jì)劃基于神經(jīng)網(wǎng)絡(luò)對(duì)其展開(kāi)研究,把采集到的腦部影像圖進(jìn)行處理分析。即擬用基于神經(jīng)網(wǎng)絡(luò)的卷積神經(jīng)網(wǎng)絡(luò)CNN下的ResNet-50、VGG-16、MobileNet-v2和EfficientNet-v2框架構(gòu)建模型,對(duì)是否存在腦腫瘤鑒定及腦腫瘤的分類識(shí)別,并對(duì)模型檢測(cè)精度進(jìn)行評(píng)估,最后實(shí)驗(yàn)總結(jié)。主要研究?jī)?nèi)容如下:1、數(shù)據(jù)集分析和數(shù)據(jù)預(yù)處理本文計(jì)劃以腦部影像圖數(shù)據(jù)集作為研究對(duì)象,對(duì)圖像進(jìn)行標(biāo)準(zhǔn)化和數(shù)據(jù)增強(qiáng)等處理,查看數(shù)據(jù)集數(shù)據(jù)分布,使用torch.utils.data.random_split函數(shù)隨機(jī)分割數(shù)據(jù),將數(shù)據(jù)集劃分成8:2的訓(xùn)練集與測(cè)試集。2、基于神經(jīng)網(wǎng)絡(luò)的腦腫瘤分類識(shí)別模型通過(guò)使用神經(jīng)網(wǎng)絡(luò)在圖片處理方面的算法,卷積神經(jīng)網(wǎng)絡(luò)下的ResNet-50、VGG-16、MobileNet-v2和EfficientNet-V2模型進(jìn)行是否存在腦腫瘤的鑒定及腦腫瘤的分類識(shí)別。3、腦腫瘤的鑒定及腦腫瘤的分類識(shí)別對(duì)比模型在訓(xùn)練與驗(yàn)證的準(zhǔn)確率和損失值,繪制混淆矩陣,然后根據(jù)混淆矩陣計(jì)算出準(zhǔn)確率、精確度、召回率、F1-Score各指標(biāo)來(lái)對(duì)模型進(jìn)行評(píng)估,然后對(duì)優(yōu)化器、學(xué)習(xí)率等進(jìn)行調(diào)整以對(duì)模型進(jìn)行優(yōu)化,最后使模型更為精準(zhǔn)的識(shí)別出每張圖像中是否存在腦腫瘤的鑒定和腦腫瘤分類識(shí)別。論文架構(gòu)第一章,緒論部分主要介紹了課題的研究背景和意義,并通過(guò)梳理國(guó)內(nèi)外相關(guān)的研究文獻(xiàn),確定了本文的研究?jī)?nèi)容和研究思路。第二章,介紹本課題相關(guān)的主要基礎(chǔ)理論知識(shí),及介紹了相關(guān)模型的基礎(chǔ)框架,為后續(xù)的研究打下基礎(chǔ)。第三章,是本課題的重要內(nèi)容,首先介紹本課題相對(duì)較優(yōu)的模型框架,然后介紹了數(shù)據(jù)集及數(shù)據(jù)預(yù)處理,然后介紹本實(shí)驗(yàn)的實(shí)驗(yàn)環(huán)境及相關(guān)參數(shù)設(shè)置,最后介紹了本實(shí)驗(yàn)的模型對(duì)比分析評(píng)估情況及結(jié)論。第四章,對(duì)以上的內(nèi)容進(jìn)行梳理,同時(shí),總結(jié)本課題中所進(jìn)行的主要工作內(nèi)容以及目前存在的劣勢(shì)和不足,并探討未來(lái)可以完善的研究方向。相關(guān)理論及技術(shù)神經(jīng)網(wǎng)絡(luò)的概念神經(jīng)網(wǎng)絡(luò)是一種受生物神經(jīng)系統(tǒng)運(yùn)作方式啟發(fā)的計(jì)算模型。它由大量神經(jīng)元(節(jié)點(diǎn))相互連接而成,組成一個(gè)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),常用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域。神經(jīng)網(wǎng)絡(luò)一般由輸入層、隱藏層和輸出層構(gòu)成。數(shù)據(jù)先被輸入層接收,然后在隱藏層神經(jīng)元通過(guò)激活函數(shù)對(duì)加權(quán)輸入進(jìn)行非線性變換,從而引入了網(wǎng)絡(luò)的非線性特性,如調(diào)整激活函數(shù)、權(quán)重等相關(guān)操作,從而進(jìn)行特征的提取,最后輸出模型的預(yù)測(cè)結(jié)果。神經(jīng)網(wǎng)絡(luò)能夠自動(dòng)提取學(xué)習(xí)特征,是一種強(qiáng)大的模型,能夠?qū)W習(xí)到復(fù)雜的數(shù)據(jù)模式和關(guān)系,其廣泛應(yīng)用于各個(gè)領(lǐng)域當(dāng)中。圖2.1卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種專門設(shè)計(jì)用于處理網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的人工神經(jīng)網(wǎng)絡(luò)。它的靈感主要來(lái)源于生物學(xué)中視覺(jué)皮層的工作原理,因此在圖像處理方面表現(xiàn)出色。如圖2.1所示,其核心思想是通過(guò)卷積層、池化層和全連接層構(gòu)建網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的有效處理和分析。卷積層通過(guò)卷積操作和激活函數(shù)提取局部特征并保留空間信息,池化層通過(guò)降采樣操作增強(qiáng)模型魯棒性和計(jì)算效率,全連接層將之前層級(jí)提取到的特征向量展平成一維向量,然后通過(guò)一系列全連接的神經(jīng)元進(jìn)行權(quán)重計(jì)算和非線性變換,最終得到輸出類別的概率分布或者其他任務(wù)的結(jié)果。訓(xùn)練過(guò)程采用反向傳播算法,不斷調(diào)整參數(shù)以學(xué)習(xí)數(shù)據(jù)模式和規(guī)律。CNN還具有參數(shù)共享和局部連接特性,在圖像識(shí)別、目標(biāo)檢測(cè)、人臉識(shí)別等領(lǐng)域取得顯著成就。輸入層輸入層是神經(jīng)網(wǎng)絡(luò)的第一層,負(fù)責(zé)接收原始數(shù)據(jù)并將其轉(zhuǎn)化為神經(jīng)網(wǎng)絡(luò)能夠理解和處理的形式傳遞給隱藏層。每個(gè)輸入神經(jīng)元對(duì)應(yīng)輸入數(shù)據(jù)的一個(gè)特征,不進(jìn)行計(jì)算,只傳遞數(shù)據(jù)給下一層。神經(jīng)元間通常全連接,數(shù)據(jù)經(jīng)過(guò)權(quán)重和偏置調(diào)整后傳遞給隱藏層,最終進(jìn)行預(yù)測(cè)或分類。卷積層圖2.2卷積運(yùn)算卷積層是卷積神經(jīng)網(wǎng)絡(luò)中的重要組成部分之一,它采用卷積運(yùn)算來(lái)抽取輸入數(shù)據(jù)的特征。如圖2.2所示,每個(gè)卷積層都具有多個(gè)卷積核濾波器,對(duì)填充處理過(guò)的輸入數(shù)據(jù),通過(guò)設(shè)置其步長(zhǎng)、偏置等參數(shù)進(jìn)行卷積運(yùn)算,從而提取不同特征。卷積操作在圖像處理中能有效捕獲局部特征,并保留空間結(jié)構(gòu)信息。利用ReLU等激勵(lì)對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行非線性建模,使其能夠?qū)?fù)雜的非線性關(guān)系進(jìn)行學(xué)習(xí)。利用卷積網(wǎng)絡(luò)中的參數(shù)分享機(jī)制,可以有效地降低模型中的參數(shù)個(gè)數(shù),從而改善模型的推廣性能,提高學(xué)習(xí)率。池化層通常與卷積層配合使用,中間引入激活函數(shù),有助于縮減數(shù)據(jù)維度、降低計(jì)算負(fù)擔(dān)并增強(qiáng)模型魯棒性。激活函數(shù)常用激活函數(shù)有Softmax、Sigmoid、Tanh、ReLU、RwLU6、ELU函數(shù),如圖2.3所示。Softmax,是一種常用且重要的歸一化函數(shù),其將輸入值映射為(0,1)之間的概率實(shí)數(shù),常用于多分類任務(wù)中。2、Sigmoid,使用范圍最廣的一種激活函數(shù),將實(shí)數(shù)映射到(0,1)之間,具有指數(shù)形狀但在深層網(wǎng)絡(luò)中可能存在梯度消失問(wèn)題。3、Tanh函數(shù),將實(shí)數(shù)映射到(-1,1)之間,具有中心接近零的性質(zhì),在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中比較常見(jiàn)。4、ReLU函數(shù),f(x)=max(0,x),解決了Sigmoid和Tanh函數(shù)的梯度消失問(wèn)題,目前在大多數(shù)深度學(xué)習(xí)模型中廣泛使用。5、ReLU6函數(shù)是ReLU的一種變體,將負(fù)輸入值截?cái)酁?,并將大于6的正輸入值截?cái)酁?。它在某些情況下可以減少梯度消失問(wèn)題,并且對(duì)于輸入值較大的情況有更好的魯棒性6、ELU函數(shù),f(x)=x(x>0),f(x)=a(exp(x)-1)(x<=0),相較于ReLU和ELU激活函數(shù),在一些情況下ELU函數(shù)可以提供更好的性能。圖2.3激活函數(shù)池化層在卷積神經(jīng)網(wǎng)絡(luò)中,池化是一種非常重要的方法,它可以有效地對(duì)特征圖進(jìn)行降維,從而達(dá)到降低模型參數(shù)數(shù)目、降低計(jì)算量的目的。最常用的池操作是最大化池和平均池,在圖2.4中用極大或平均的方法縮小了特征圖的大小,見(jiàn)圖2.4。池化層能夠保留主要特征并丟棄不相關(guān)信息,有助于提高模型對(duì)輸入數(shù)據(jù)的不變性,對(duì)圖像平移、縮放等變換具有一定的容忍性。同時(shí),池化層還具有降低過(guò)學(xué)習(xí)效應(yīng)、增強(qiáng)推廣能力等優(yōu)點(diǎn)。在卷積神經(jīng)網(wǎng)絡(luò)中,一般采用池化和卷積層交替使用,以構(gòu)造高效的特征抽取與降維結(jié)構(gòu)。總之,池化作為深度學(xué)習(xí)的一個(gè)重要環(huán)節(jié),是構(gòu)造高效卷積神經(jīng)網(wǎng)絡(luò)的關(guān)鍵支撐。圖2.4最大與平均池化全連接層圖2.5全連接層如圖2.5所示,全連接層(FullyConnectedLayer)是深度神經(jīng)網(wǎng)絡(luò)中常見(jiàn)的層類型,其作用是將前一層的特征扁平化,在此基礎(chǔ)上,利用權(quán)值的學(xué)習(xí),構(gòu)建了輸入與輸出的非線性映射。每一個(gè)神經(jīng)元都和前面的神經(jīng)元相連,構(gòu)成了一個(gè)完整的神經(jīng)網(wǎng)絡(luò),用來(lái)把抽取出來(lái)的高層特征映射到最后的結(jié)果。當(dāng)前一層神經(jīng)元數(shù)目增多時(shí),整個(gè)連通層的參數(shù)數(shù)目也會(huì)隨之增長(zhǎng),所以在處理過(guò)度學(xué)習(xí)問(wèn)題時(shí)要特別注意。通常在全連接層之前使用池化層或卷積層進(jìn)行特征提取和降維以減少計(jì)算復(fù)雜度。總的來(lái)說(shuō),全連接層在深度神經(jīng)網(wǎng)絡(luò)中扮演著關(guān)鍵角色,通過(guò)學(xué)習(xí)權(quán)重和偏置,能夠?qū)⒏呒?jí)特征映射到最終的輸出結(jié)果,為模型提供了強(qiáng)大的擬合能力和表達(dá)能力。批歸一化批歸一化(BatchNormalization,BN層)是深度神經(jīng)網(wǎng)絡(luò)中常用的一種技術(shù),它的作用是通過(guò)在每個(gè)批次的數(shù)據(jù)上進(jìn)行標(biāo)準(zhǔn)化處理,使得數(shù)據(jù)的均值為0,方差為1,解決深層神經(jīng)網(wǎng)絡(luò)中的數(shù)值不穩(wěn)定的問(wèn)題,使得同批次的各個(gè)特征分布相近,網(wǎng)絡(luò)更加容易訓(xùn)練。批量規(guī)范化是這樣進(jìn)行的,先求出每批輸入數(shù)據(jù)的平均值與標(biāo)準(zhǔn)偏差,再用這些數(shù)值來(lái)中心化和按比例調(diào)整輸入數(shù)據(jù),使其分布接近于標(biāo)準(zhǔn)的正態(tài)分布。最后還可以引入可學(xué)習(xí)的參數(shù),通過(guò)縮放和平移等操作來(lái)調(diào)整數(shù)據(jù)的偏移和尺度,該方法不僅可以提高模型的穩(wěn)定性,而且可以有效地防止梯度丟失和梯度爆破等問(wèn)題。輸出層輸出層通常作為卷積神經(jīng)網(wǎng)絡(luò)的最后一層,其作用是將神經(jīng)網(wǎng)絡(luò)學(xué)到的特征映射到適當(dāng)?shù)妮敵隹臻g,根據(jù)具體的任務(wù)來(lái)輸出生成預(yù)測(cè)結(jié)果或分類標(biāo)簽。輸出層的神經(jīng)元數(shù)量通常對(duì)應(yīng)著數(shù)據(jù)集中的類別數(shù)量,每個(gè)神經(jīng)元對(duì)應(yīng)一個(gè)類別,最后預(yù)測(cè)出每個(gè)類別的概率。在多分類問(wèn)題中,常用Softmax激活函數(shù)將各類之間的對(duì)應(yīng)關(guān)系表達(dá)為各類概率,最后以最大概率輸出的類作為待預(yù)測(cè)類。ResNet-50框架圖2.6ResNet-50架構(gòu)ResNet-50的網(wǎng)絡(luò)結(jié)構(gòu)包含了多個(gè)殘差塊,這些殘差塊使得網(wǎng)絡(luò)能夠更深,同時(shí)避免了梯度消失的問(wèn)題,使得網(wǎng)絡(luò)更容易訓(xùn)練。具體來(lái)說(shuō),ResNet-50包含了5個(gè)階段(stage),每個(gè)階段包含了一系列的殘差塊。如圖2.6所示,這是一個(gè)簡(jiǎn)化的ResNet-50架構(gòu)。ResNet50首先會(huì)對(duì)輸入數(shù)據(jù)會(huì)進(jìn)行零填充,以便在卷積操作中確保特征圖大小不變,從而保留輸入圖片的邊界信息。然后在Stage1中進(jìn)行一系列操作,包括卷積、批量歸一化、ReLU激活和最大池化,用于初始的特征提取和下采樣。在Stage2、Stage3、Stage4、Stage5這幾個(gè)階段中,每個(gè)階段包含多個(gè)殘差塊(基本塊和瓶頸塊),包括卷積塊(ConvolutionalBlock)和恒等映射塊(IdentityBlock)。這些階段進(jìn)一步提取特征,并通過(guò)跳躍連接保持了特征圖的大小。在此基礎(chǔ)上,對(duì)最終的特征進(jìn)行了平均池化,得到了具有一定尺寸的特征矢量。接著,展平,使平均池層的輸出變成一維矢量,為完全連接層作好準(zhǔn)備。最后的全連接層將展平的特征向量映射到最終的輸出類別或其他任務(wù)的輸出。EfficientNet-V2框架EfficientNet-V2是Google提出的高效神經(jīng)網(wǎng)絡(luò)架構(gòu),是EfficientNet系列的升級(jí)版。相比EfficientNet-V1,V2在保持高效性能的同時(shí)進(jìn)一步提升了準(zhǔn)確性和泛化能力,其網(wǎng)絡(luò)結(jié)構(gòu)如下表2.1所示。在0階段,模型進(jìn)行了簡(jiǎn)單的卷積,用于初始特征提取和下采樣。在第1階段,包含兩個(gè)Fused-MBConv1模塊,這些模塊通常包括深度可分離卷積(DepthwiseSeparableConvolution)和擴(kuò)張卷積(DilatedConvolution),該方法能夠更好地提取出特征,增強(qiáng)網(wǎng)絡(luò)的非線性,從而改善模型的性能。在第2、第3階段進(jìn)一步提取特征并減小特征圖的尺寸。第4階段通過(guò)多次堆疊擴(kuò)張卷積和深度可分離卷積來(lái)提取特征,并且步長(zhǎng)為2,以減小特征圖的尺寸。第5、第6階段,保持特征圖的尺寸不變,增加模塊的數(shù)量,具有更深的網(wǎng)絡(luò)結(jié)構(gòu),從而進(jìn)一步提取特征。第7階段包括一層卷積和一層池化,以及一個(gè)完整的全連通層。表2.1EfficientNet-V2結(jié)構(gòu)階段操作步長(zhǎng)通道數(shù)層數(shù)0Conv3x322411Fused-MBConv1,k3×312422Fused-MBConv4,k3×324843Fused-MBConv4,k3×326444MBConv4,k3×3212865MBConv6,k3×3116096MBConv6,k3×32256157Conv1×1&Pooling&FC—12281EfficientNet-V2引入了Fused-MBConv與MBConv層,如圖2.7所示。EfficientNet-V2優(yōu)化了Depthwise卷積,通過(guò)每個(gè)nn卷積核只處理一個(gè)通道,再通過(guò)11卷積核綜合信息,減少參數(shù)量和計(jì)算量。用Fused-MBConv替代Depthwise卷積,充分利用現(xiàn)代加速器,雖增加了參數(shù)量但也提升訓(xùn)練速度。這種結(jié)合優(yōu)化策略使V2在效率和性能上取得了平衡。圖2.7模塊結(jié)構(gòu)VGG框架圖2.8VGG網(wǎng)絡(luò)結(jié)構(gòu)如圖2.8所示,這個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)輸入尺寸為224x224的RGB三個(gè)顏色通道彩色圖像,經(jīng)過(guò)多個(gè)block進(jìn)行特征后,利用完全連通層,將抽取出來(lái)的特征映射到最后的分類中。其網(wǎng)絡(luò)結(jié)構(gòu)包括5個(gè)block和3個(gè)全連接層。每個(gè)block包含若干個(gè)3x3大小卷積核的卷積層,隨著通道數(shù)逐漸增加,其圖像特征圖尺寸逐漸減小。經(jīng)過(guò)特征提取完后接入3個(gè)全連接層,前兩個(gè)包含各4096個(gè)神經(jīng)元將特征向量進(jìn)行降維和組合,最后一個(gè)包含1000個(gè)神經(jīng)元,經(jīng)過(guò)SoftMax輸出1000個(gè)類的后驗(yàn)概率。整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中,紅色為采用最大池化進(jìn)行下采樣,白色為卷積層加ReLU激活函數(shù),藍(lán)色為全連接層加ReLU激活函數(shù),參數(shù)傳遞從左向右進(jìn)行,最終通過(guò)拉平操作將參數(shù)轉(zhuǎn)化為1x1的長(zhǎng)向量輸入全連接層。評(píng)估指標(biāo)在模型訓(xùn)練中,評(píng)估指標(biāo)是用來(lái)衡量模型性能和效果的重要標(biāo)準(zhǔn),最常用的模型評(píng)估指標(biāo)有準(zhǔn)確率與損失值。由于單一的精確率和損失值無(wú)法反映模型的總體表現(xiàn),所以通常還會(huì)采用混淆矩陣來(lái)綜合評(píng)估模型的總體表現(xiàn)?;煜仃囀窃u(píng)價(jià)分類算法性能的一個(gè)重要手段,特別是對(duì)類不均衡和多類的情形。混沌矩陣包含真陽(yáng)性(TruePositive)、真陰性(TrueNegative)、假陽(yáng)性(FalsePositive)和假陰性(FalseNegative)多種類別信息,從而更全面地評(píng)估模型性能?;煜仃嚥粌H可以為整個(gè)模型進(jìn)行評(píng)估,還可對(duì)每個(gè)類別進(jìn)行評(píng)估,可以更全面地了解模型在不同類別上的分類性能,并針對(duì)性地改進(jìn)模型。真陽(yáng)性(TP)表示真正例,即模型將正類別樣本正確地預(yù)測(cè)為正類別。真陰性(TN)表示真負(fù)例,模型將負(fù)類別樣本正確地預(yù)測(cè)為負(fù)類別。假陽(yáng)性(FP)表示假正例,即模型將負(fù)類別樣本錯(cuò)誤地預(yù)測(cè)為正類別。假陰性(FN)表示假負(fù)例,即模型將正類別樣本錯(cuò)誤地預(yù)測(cè)為負(fù)類別。 在經(jīng)過(guò)混淆矩陣?yán)L制后,準(zhǔn)確率、精確度、召回率和F1-Score都可以從混淆矩陣中計(jì)算得出。準(zhǔn)確率(Accuracy)是評(píng)價(jià)分類器性能的一種常用指標(biāo),它表示分類器正確預(yù)測(cè)的樣本數(shù)與總樣本數(shù)之比。它衡量的是模型正確預(yù)測(cè)的能力,即所有預(yù)測(cè)正確的樣本數(shù)與總樣本數(shù)的比值。計(jì)算公式如下:Accuracy=精確度(Precision)是指分類器預(yù)測(cè)為正例的樣本中,真正為正例的比例。它衡量的是模型預(yù)測(cè)為正例的準(zhǔn)確性。計(jì)算公式如下:Precision=召回率(Recall)是指分類器正確預(yù)測(cè)為正例的樣本數(shù)占真實(shí)正例總數(shù)的比例。它衡量的是模型能夠檢測(cè)到多少正例。計(jì)算公式如下:Recall=F1-Score是精確度和召回率的調(diào)和平均數(shù),綜合考慮了分類器的準(zhǔn)確性和召回率。F1-Score越高,代表模型的性能越好。計(jì)算公式如下:F1?Score=章節(jié)小結(jié)在本章內(nèi)容中,首先對(duì)神經(jīng)網(wǎng)絡(luò)的基本概念和有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的一些基本知識(shí)進(jìn)行闡述。然后,簡(jiǎn)要地介紹了卷積神經(jīng)網(wǎng)絡(luò)的一些構(gòu)成要素,對(duì)卷積神經(jīng)網(wǎng)絡(luò)的組成進(jìn)行了詳細(xì)的介紹,包括輸入層,卷積層,激活函數(shù),池化層,完全連通層,批量標(biāo)準(zhǔn)化和輸出層。然后,分別介紹了ResNet-50、EfficientNet-v2和VGG神經(jīng)網(wǎng)絡(luò)架構(gòu),對(duì)它們進(jìn)行了簡(jiǎn)單闡述。最后,本文將介紹一般常用的模型評(píng)價(jià)標(biāo)準(zhǔn),包括精確度,損失值,混淆矩陣,精確度,召回率,以及F1-Score。腦腫瘤MRI圖像分類網(wǎng)絡(luò)模型分析MobileNet-v2框架MobileNet-v2是一種面向移動(dòng)終端與嵌入式終端的深度神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu),通過(guò)輕量化、深度可分卷積的設(shè)計(jì)來(lái)降低系統(tǒng)的參數(shù)、降低計(jì)算復(fù)雜度,同時(shí)保證了模型的高效率,是基于MobileNet-v1的移動(dòng)網(wǎng)絡(luò)系列的第2代模型。MobileNet-v2的基本單元是倒殘差塊(InvertedResidualBlock),由擴(kuò)展層(ExpansionLayer)、深度可分離卷積層(DepthwiseConvolutionLayer)和投影層(ProjectionLayer)組成。這個(gè)塊被設(shè)計(jì)為可以堆疊多個(gè)以構(gòu)建更深的網(wǎng)絡(luò)。MobileNet-v2中采用了倒殘差(InvertedResidual)結(jié)構(gòu),這是MobileNet-v1中深度可分離卷積的改進(jìn)版本。與ResNet架構(gòu)的先降維、卷積、再升維的方式不同,是先升維、卷積、再降維。只有當(dāng)步幅為1時(shí)且輸入特征矩陣與輸出特征矩陣形狀相同的時(shí)候才有殘差連接。倒殘差結(jié)構(gòu)首先利用輕量級(jí)1x1卷積擴(kuò)充信道數(shù)目,并利用深度可分離卷積實(shí)現(xiàn)特征抽取,最后利用1x1卷積降低信道數(shù)目。該方法能有效地降低參數(shù)個(gè)數(shù),降低計(jì)算量,同時(shí)保證了系統(tǒng)的有效性。MobileNet-v2還引入了一種線性瓶頸(LinearBottleneck)結(jié)構(gòu),即利用輸入與輸出間的線性瓶頸來(lái)保持信息的流動(dòng)。線性瓶頸結(jié)構(gòu)是MobileNet-v2中的關(guān)鍵組成部分之一,用于在不引入額外非線性操作的情況下增加網(wǎng)絡(luò)的表達(dá)能力。圖3.1MobileNet-v2網(wǎng)絡(luò)模型參考圖3.1,在數(shù)據(jù)輸入之后,首先用1x1的卷積核進(jìn)行卷積運(yùn)算,接入ReLU6激活函數(shù)中。其次,設(shè)定步長(zhǎng),完成3x3卷積運(yùn)算,再次接入ReLU6激活函數(shù)中。最后,再用1x1的卷積核進(jìn)行卷積運(yùn)算,最后接入線性Linear激活函數(shù)。數(shù)據(jù)集與預(yù)處理3.2.1數(shù)據(jù)集介紹圖3.2數(shù)據(jù)集展示本課題使用的腦腫瘤圖像數(shù)據(jù)集來(lái)自公開(kāi)數(shù)據(jù)集,該數(shù)據(jù)集有不同角度拍攝的腦部MRI圖像組成,一共有3096張圖像,其中腦膜瘤有913張,垂體瘤有844張,膠質(zhì)瘤有901張,正常腦部圖像有438張,其分布和圖像如圖3.2所示。3.2.2預(yù)處理圖3.3數(shù)據(jù)處理前后對(duì)比針對(duì)MRI圖像數(shù)據(jù),首先從原始數(shù)據(jù)中提取特征并添加標(biāo)簽,構(gòu)建帶有腦膜瘤、正常、膠質(zhì)瘤和垂體瘤等四種類別標(biāo)簽的樣本集合。隨后進(jìn)行數(shù)據(jù)預(yù)處理,包括計(jì)算其均值與標(biāo)準(zhǔn)差進(jìn)行標(biāo)準(zhǔn)化處理,隨機(jī)旋轉(zhuǎn)圖像最多±30°,將圖像調(diào)整為64x64像素大小并從中心裁剪出64x64部分,以50%的概率隨機(jī)水平翻轉(zhuǎn)圖像,將圖像轉(zhuǎn)換為Tensor后進(jìn)行標(biāo)準(zhǔn)化處理,其處理前后對(duì)比如圖3.3所示。最后,將數(shù)據(jù)集按80%、20%的比例分割成訓(xùn)練集和驗(yàn)證集,實(shí)現(xiàn)對(duì)腦腫瘤的精確分類。參數(shù)設(shè)置與評(píng)估指標(biāo)3.3.1實(shí)驗(yàn)環(huán)境本課題實(shí)驗(yàn)基于PyTorch深度學(xué)習(xí)框架,使用Python3.8語(yǔ)言實(shí)現(xiàn),調(diào)用了PyTorch中torchvision模塊中的ResNet-50、VGG-16、MobileNet-v2和EfficientNet-v2模型。在windows10環(huán)境下完成,硬件設(shè)備為Intel(R)Core(TM)i7-9750HCPU@2.60GHz2.59GHzCPU,NVIDIAGeForceGTX1650顯卡,12GB內(nèi)存4GB顯存,如表3.1所示。表3.1實(shí)驗(yàn)環(huán)境軟、硬件環(huán)境配置學(xué)習(xí)框架PyTorch2.2.1+cpu語(yǔ)言Python3.8計(jì)算機(jī)環(huán)境windows10系統(tǒng)CPU處理器Intel(R)Core(TM)i7-9750HCPU@2.60GHz2.59GHz顯卡NVIDIAGeForceGTX1650內(nèi)存12GB顯存4GB3.3.2參數(shù)設(shè)置在訓(xùn)練過(guò)程中,對(duì)比不同參數(shù)的訓(xùn)練效果,本課題實(shí)驗(yàn)決定使用Adam優(yōu)化器優(yōu)化所調(diào)用的模型,模型訓(xùn)練中設(shè)置的相關(guān)參數(shù)如表3.2。表3.2訓(xùn)練過(guò)程的參數(shù)設(shè)置參數(shù)迭代次數(shù)批次大小子進(jìn)程數(shù)優(yōu)化器學(xué)習(xí)率數(shù)值10084Adam0.0001實(shí)驗(yàn)對(duì)比與分析3.4.1損失值為了分析模型在訓(xùn)練數(shù)據(jù)上的預(yù)測(cè)與真實(shí)標(biāo)簽之間的差異,探究其模型對(duì)數(shù)據(jù)集的適應(yīng)力及模型泛化能力,進(jìn)行了訓(xùn)練與驗(yàn)證的繪制損失曲線圖,各模型結(jié)果如圖3.4所示。(a)ResNet-50(b)VGG-16(c)MobileNet-v2(d)EfficientNet-v2圖3.4各模型損失曲線圖在a圖中,其訓(xùn)練和驗(yàn)證損失值隨著迭代次數(shù)的增加而趨于穩(wěn)定,在其損失值在0.2上下波動(dòng)。在圖b中,其驗(yàn)證損失值總體波動(dòng)大,且隨著迭代次數(shù)的增加反而有向上反彈的趨勢(shì)。在圖c中,其圖像與a是較為相似的。在圖d中,雖然其驗(yàn)證損失值在訓(xùn)練初期升高且損失值也相比其他模型高出許多,但是隨著迭代次數(shù)的增加,其驗(yàn)證損失值也能迅速下降然后趨于平穩(wěn)。綜上所述,除圖b損失曲線圖效果較差外,考慮其每個(gè)模型特性不一樣,且其他模型損失曲線圖差距小,說(shuō)明圖a、c、d損失曲線圖效果較好,即在訓(xùn)練中ResNet-50、MobileNet-v2、EfficientNet-v2模型的數(shù)據(jù)擬合性和泛化性更優(yōu)于VGG-16。3.4.2準(zhǔn)確率為了分析各模型之間的訓(xùn)練效果和準(zhǔn)確率,進(jìn)行了繪制迭代次數(shù)與訓(xùn)練驗(yàn)證準(zhǔn)確率的關(guān)系圖,如圖3.5所示。(a)ResNet-50(b)VGG-16(c)MobileNet-v2(d)EfficientNet-v2圖3.5各模型準(zhǔn)確率圖總體來(lái)看,在訓(xùn)練模型過(guò)程中,各模型的準(zhǔn)確率都是隨著迭代次數(shù)的增加而提升,然后趨于穩(wěn)定。對(duì)比模型的波動(dòng)大小,VGG-16的波動(dòng)會(huì)大一點(diǎn)且是趨于向下波動(dòng),表明實(shí)驗(yàn)中VGG-16的訓(xùn)練效果最差。實(shí)驗(yàn)獲取了ResNet-50、VGG-16、MobileNet-v2、EfficientNet-v2模型的最高準(zhǔn)確率,分別為96.13%、95.48%、96.26%、96.26%。由上可知,MobileNet-v2、EfficientNet-v2模型的訓(xùn)練效果會(huì)比ResNet-50、VGG-16模型更好。3.4.3混淆矩陣 (a)ResNet-50(b)VGG-16圖3.6混淆矩陣(c)MobileNet-v2(d)EfficientNet-v2圖3.6混淆矩陣分別使用模型ResNet-50、VGG-16、MobileNet-v2、EfficientNet-v2提供測(cè)試結(jié)果,然后畫(huà)出混淆矩陣,如圖3.6所示。由圖可知,每個(gè)模型對(duì)不同類別的分類效果都不一樣,且每個(gè)類別之間分類效果并無(wú)太大差距,從混淆矩陣圖中難以比較整體模型的性能。3.4.4性能評(píng)估表對(duì)比分析為進(jìn)一步比較模型整體的性能,根據(jù)混淆矩陣所得數(shù)據(jù)分別計(jì)算出每個(gè)網(wǎng)絡(luò)模型對(duì)腦腫瘤分類驗(yàn)證的評(píng)價(jià)指標(biāo)結(jié)果,考慮其波動(dòng)性,采取了計(jì)算三次求取平均值方法,具體數(shù)值如表3.3-表3.6所示。表3.3ResNet-50驗(yàn)證評(píng)價(jià)指標(biāo) 表3.4VGG-16驗(yàn)證評(píng)價(jià)指標(biāo)類別精確率召回率F1分?jǐn)?shù)腦膠質(zhì)瘤0.960.900.93腦膜瘤0.880.950.91正常0.950.940.94垂體瘤0.980.970.97類別精確率召回率F1分?jǐn)?shù)腦膠質(zhì)瘤0.940.910.92腦膜瘤0.920.910.91正常0.940.980.96垂體瘤0.950.970.96表3.5MobileNet-v2驗(yàn)證評(píng)價(jià)指標(biāo) 表3.6EfficientNet-v2驗(yàn)證評(píng)價(jià)指標(biāo)類別精確率召回率F1分?jǐn)?shù)腦膠質(zhì)瘤0.980.890.93腦膜瘤0.940.940.94正常0.820.990.90垂體瘤0.970.980.97類別精確率召回率F1分?jǐn)?shù)腦膠質(zhì)瘤0.980.880.93腦膜瘤0.880.960.92正常0.950.970.96垂體瘤0.960.970.97由表可知,MobileNet-v2模型在腦膠質(zhì)瘤、腦膜瘤、垂體瘤這三種類別下的評(píng)價(jià)指標(biāo)是略高于其他三個(gè)模型的,但在識(shí)別正常腦部圖像時(shí)MobileNet-v2模型的評(píng)價(jià)指標(biāo)是最低的。雖然其他模型在個(gè)別類中也取得不錯(cuò)的評(píng)價(jià)指標(biāo),但綜合來(lái)看,MobileNet-v2模型的訓(xùn)練效果是相對(duì)好的。為進(jìn)一步比較模型整體的性能,還繪制出各模型對(duì)每個(gè)類的總體評(píng)估表,如表3.7所示。表3.7模型性能評(píng)估表模型準(zhǔn)確率精確率召回率F1分?jǐn)?shù)Res-500.94030.94210.94030.9406VGG-160.93810.93800.93810.9379MobileNet_v20.94160.94590.94130.9418EfficientNet_v20.94290.94580.94290.9430對(duì)比模型總體性能,可知EfficientNet_v2模型略優(yōu)于其他模型,其次是MobileNet_v2模型。因EfficientNet_v2模型和MobileNet_v2模型差距微小,所以本課題還采取了模型的其他數(shù)據(jù)進(jìn)行對(duì)比參考,如模型的總參數(shù)數(shù)量、模型所需的總內(nèi)存大小、每個(gè)epoch所需的平均時(shí)間,如表3.8所示。表3.8參數(shù)評(píng)估表模型總參數(shù)量(MB)總內(nèi)存(MB)平均時(shí)間(s)計(jì)算量(GFLOPs)Res-5097.7376.831503.8-4.1VGG-16527747.1548015-30MobileNet_v213.5166.81600.3-0.6EfficientNet_v2208808.794203.8對(duì)比上表數(shù)據(jù)發(fā)現(xiàn)MobileNet_v2在總參數(shù)數(shù)量、模型所需的總內(nèi)存大小、每個(gè)epoch所需的平均時(shí)間都顯著優(yōu)于其他幾個(gè)模型,且在整體性能上也并不輸于其他模型。3.4.5實(shí)驗(yàn)總結(jié)在課題實(shí)驗(yàn)中,調(diào)用ResNet-50,VGG-16,MobileNet-v2,EfficientNet-v2多個(gè)預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,獲得了各模型的最優(yōu)準(zhǔn)確率,分別為96.13%、95.84%、96.29%和96.29%,繪制出了各模型的損失值,準(zhǔn)確率,混淆矩陣,性能評(píng)估表以及模型相關(guān)參數(shù)。在進(jìn)行了對(duì)比實(shí)驗(yàn)后,得出結(jié)論。雖然各個(gè)模型之間存在一些差異,但模型的整體性能差距微小,在資源受限條件下,MobileNet_v2是值得主推的模型之一。在參數(shù)量和內(nèi)存消耗等方面,MobileNet_v2顯著優(yōu)于其他模型。它相對(duì)較小的參數(shù)量和內(nèi)存消耗使得其在資源受限的環(huán)境中更具優(yōu)勢(shì)。在移動(dòng)設(shè)備、嵌入式設(shè)備、微服務(wù)器等資源限制的場(chǎng)景下,MoblieNet_v2模型更具優(yōu)勢(shì),而其他模型如ResNet-50和VGG-16需要更大的參數(shù)量和內(nèi)存消耗,因此在這些場(chǎng)景下可能并不適用。章節(jié)小結(jié)本章介紹了MobileNet_v2框架、腦腫瘤圖像數(shù)據(jù)集、預(yù)處理步驟、參數(shù)設(shè)置與評(píng)估指標(biāo)和實(shí)驗(yàn)對(duì)比分析。數(shù)據(jù)集部分描述了數(shù)據(jù)集組成和預(yù)處理步驟,包括特征提取、標(biāo)簽添加和數(shù)據(jù)增強(qiáng)。參數(shù)設(shè)置與評(píng)估指標(biāo)部分詳細(xì)介紹了深度學(xué)習(xí)框架、硬件環(huán)境、參數(shù)設(shè)置。在實(shí)驗(yàn)對(duì)比與分析部分,四種不同模型(ResNet-50、VGG-16、MobileNet-v2和EfficientNet-v2)的性能進(jìn)行了綜合比較,發(fā)現(xiàn)模型之間的差距并不明顯,但MobileNet_v2模型在特定條件下,如在資源受限的環(huán)境下,則更具優(yōu)勢(shì)。

總結(jié)與展望本課題以醫(yī)學(xué)影像分類為研究對(duì)象展開(kāi)了實(shí)驗(yàn)和分析,通過(guò)調(diào)用不同網(wǎng)絡(luò)模型進(jìn)行腦腫瘤圖像識(shí)別分類,根據(jù)模型的表現(xiàn)進(jìn)行全面比較與評(píng)估。課題總結(jié)課題首先介紹了使用的腦腫瘤圖像數(shù)據(jù)集的基本信息。該數(shù)據(jù)集包含了不同角度拍攝的腦部MRI圖像,共計(jì)3096張,涵蓋了腦膜瘤、垂體瘤、膠質(zhì)瘤和正常腦部圖像等四種類別。隨后,對(duì)數(shù)據(jù)進(jìn)行了預(yù)處理,包括特征提取、標(biāo)簽添加和數(shù)據(jù)增強(qiáng)等,以便于深度學(xué)習(xí)模型的訓(xùn)練和評(píng)估。接著,詳細(xì)介紹了實(shí)驗(yàn)所采用的深度學(xué)習(xí)框架、硬件環(huán)境以及模型訓(xùn)練中的參數(shù)設(shè)置。在實(shí)驗(yàn)對(duì)比與分析部分,通過(guò)損失值、準(zhǔn)確率、混淆矩陣和性能評(píng)估表的對(duì)比分析,對(duì)四種不同模型(ResNet-50、VGG-16、MobileNet-v2和EfficientNet-v2)的性能進(jìn)行了綜合比較?;趯?shí)驗(yàn)結(jié)果的對(duì)比分析,綜合來(lái)講MobileNet_v2更具優(yōu)勢(shì)。MobileNet_v2有助于提高系統(tǒng)性能、降低資源消耗。它在總參數(shù)量、總內(nèi)存消耗、訓(xùn)練時(shí)長(zhǎng)和準(zhǔn)確率等方面都表現(xiàn)出色,尤其適用于資源受限的環(huán)境和對(duì)實(shí)時(shí)性要求較高的應(yīng)用場(chǎng)景,且其整體性能不屬于其他幾個(gè)模型。在醫(yī)學(xué)領(lǐng)域中,在資源受限下使用MobileNet_v2進(jìn)行腦腫瘤分類是一個(gè)很好的選擇。MobileNet_v2的輕量級(jí)設(shè)計(jì)和高效率特點(diǎn)使得它非常適合在資源受限的環(huán)境中進(jìn)行圖像分類任務(wù),同時(shí)還能保持較高的分類準(zhǔn)確率。MobileNet_v2是一種在保持高準(zhǔn)確率的同時(shí)顯著減少參數(shù)數(shù)量和計(jì)算量的模型,因此非常適合在資源受限的環(huán)境中進(jìn)行圖像分類任務(wù)。其輕量級(jí)特性不僅節(jié)省了存儲(chǔ)空間和計(jì)算資源,還確保了模型的高效率和實(shí)用性。醫(yī)療人員可以輕松地在移動(dòng)設(shè)備、嵌入式系統(tǒng)和微服務(wù)器上部署MobileNetV2,以實(shí)現(xiàn)對(duì)腦腫瘤的快速診斷和分類。這種高效且精準(zhǔn)的特點(diǎn)使醫(yī)生能夠?qū)崟r(shí)對(duì)腦部影像進(jìn)行分類,從而幫助他們及時(shí)做出診斷和治療決策。此外,移動(dòng)設(shè)備的便攜性和靈活性使醫(yī)療團(tuán)隊(duì)能夠隨時(shí)隨地在線進(jìn)行影像分析和診斷,從而提高了工作效率并改善了患者的診療體驗(yàn)。工作展望本課題存在一些不足,具有一定的可進(jìn)一步完善與擴(kuò)展的空間,包括以下幾個(gè)方面。1、優(yōu)化深度學(xué)習(xí)模型的結(jié)構(gòu)和參數(shù),包括嘗試不同的網(wǎng)絡(luò)架構(gòu)、損失函數(shù)和優(yōu)化算法,以提高醫(yī)學(xué)圖像分類任務(wù)的性能和泛化能力。在此基礎(chǔ)上,還可以采用更多更高效的數(shù)據(jù)增強(qiáng)與預(yù)處理等方法,并在此基礎(chǔ)上加入更加復(fù)雜的腦瘤影像,以提高數(shù)據(jù)的多樣性及模型泛化能力,以及提高模型的穩(wěn)健性與推廣性能。課題的實(shí)施,將有助于推動(dòng)研究結(jié)果在臨床中的應(yīng)用,為臨床提供更加精準(zhǔn)、快捷的診療手段。2、多模態(tài)融合與聯(lián)合學(xué)習(xí)。醫(yī)學(xué)圖像分類任務(wù)通常不僅涉及到單一的圖像數(shù)據(jù),還可能包括其他模態(tài)的數(shù)據(jù),比如病人的臨床資料、基因信息等,將這些因素有機(jī)的結(jié)合起來(lái),可能會(huì)極大的改善模型的預(yù)測(cè)精度,大大提高預(yù)測(cè)的準(zhǔn)確率。未來(lái)的研究可以探索多模態(tài)融合的方法,將來(lái)自不同模態(tài)的數(shù)據(jù)進(jìn)行有效地結(jié)合和利用,以提高分類模型的性能和準(zhǔn)確性。此外,聯(lián)合學(xué)習(xí)方法可以同時(shí)訓(xùn)練多個(gè)相關(guān)任務(wù)的模型,共享特征表示和知識(shí),從而提高模型的泛化能力和魯棒性。這些技術(shù)的應(yīng)用將可能進(jìn)一步推動(dòng)醫(yī)學(xué)圖像分類的發(fā)展和應(yīng)用。在未來(lái)的研究中,可以針對(duì)以上方面展開(kāi)工作,不斷改進(jìn)和完善醫(yī)學(xué)圖像分類的方法和模型,為醫(yī)療實(shí)踐提供更加高效精確的輔助診斷工具。

參考文獻(xiàn)DiL,HaoZ,ZhaoM,etal.BrainTumorSegmentionBasedonDilatedConvolutionRefine.Networks[C].2018IEEE16thInternationalConferenceonSoftwareEngineeringResearch,ManagementandApplications(SERA).IEEE,2018:113-120.OrganizationWH.Cancerindevelopingcountries:facingthechallenge[J].Director-General,2014,39(06):70-81.包星星,趙璨,饒家聲.機(jī)器學(xué)習(xí)在MRI圖像腦腫瘤分割中的研究進(jìn)展[J].醫(yī)療衛(wèi)生裝備,2019,40(11):90-96.龔尚瑾,渠鴻竹,方向東.深度學(xué)習(xí)在醫(yī)學(xué)影像學(xué)領(lǐng)域應(yīng)用研究進(jìn)展[J].醫(yī)學(xué)信息學(xué)雜志,2020,41(07):40-43.SundararajGK,BalamuruganV.RobustclassificationofprimarybraintumorinComputerTomographyimagesusingK-NNandlinearSVM[C].InternationalConferenceonContemporaryComputing&Informatics.IEEE,2015:263-275.DeviTM,RamaniG,ArockiarajSX.MRBrainTumorClassificationandSegmentationViaWavelets[C].InternationalConferenceonWirelessCommunications,SignalProcessingandNetworking.Chennai,India,2018:8538643.MathewAR,AntoPB.TumordetectionandclassificationofMRIbrainimageusingwavelettransformandSVM[C].InternationalConferenceonSignalProcessingandCommunication.Coimbatore,India,2017:75-78.PollyFP,ShilSK,HossainMA,etal.DetectionandClassificationofHGGandLGGBrainTumorUsingMachineLearning[C].InternationalConferenceonInformationNetworking.ChiangMai,Thailand,2018:813-817.IslamA,HossainMF,SahaC.ANewHybridApproachforBrainTumorClassificationUsingBWT-KSVM[C].4thInternationalConferenceonAdvancesinElectricalEngineering.Dhaka,Bangladesh,2017:241-246ChengJ,HuangW,CaoS,etal.Correction:enhancedperformanceofbraintumorclassificationviatumorregionaugmentationandpartition[J].PloSone,2015,10(12):e0144479.DasS,AranyaO,LabibaNN.BrainTumorClassificationUsingConvolutionalNeuralNetwork[C].1stInternationalConferenceonAdvancesinScience,EngineeringandRoboticsTechnology(ICASERT).2019:1-5.HeK,ZhangX,RenS,etal.Deepresiduallearningforimagerecognition[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:770-778.PereiraS

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論