基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)_第1頁(yè)
基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)_第2頁(yè)
基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)_第3頁(yè)
基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)_第4頁(yè)
基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

目錄

1引言...........................................................................................................................1

1.1項(xiàng)目背景........................................................................................................1

1.2開(kāi)發(fā)環(huán)境與工具............................................................................................1

1.2.1Python簡(jiǎn)介........................................................................................1

1.2.2AlexNet簡(jiǎn)介......................................................................................1

1.2.3TensorFlow簡(jiǎn)介................................................................................2

2需求分析...................................................................................................................2

2.1可行性需求分析............................................................................................3

2.1.1技術(shù)可行性.........................................................................................3

2.1.2項(xiàng)目可行性.........................................................................................3

2.2關(guān)鍵技術(shù)分析................................................................................................3

2.2.1輸入層.................................................................................................4

2.2.2卷積層.................................................................................................4

2.2.3池化層.................................................................................................4

2.2.4Dropout層..........................................................................................4

2.2.5全連接層.............................................................................................5

2.2.6Softmax輸出層..................................................................................5

3數(shù)據(jù)集處理...............................................................................................................5

3.1數(shù)據(jù)集收集....................................................................................................5

3.2數(shù)據(jù)集標(biāo)注....................................................................................................6

3.3數(shù)據(jù)集預(yù)處理................................................................................................6

4模型構(gòu)建及評(píng)估分析...............................................................................................7

4.1模型構(gòu)建........................................................................................................7

4.1.1搭建AlexNet模型.............................................................................7

4.1.2加載數(shù)據(jù)集.......................................................................................11

4.1.3訓(xùn)練模型...........................................................................................12

4.2模型評(píng)估與優(yōu)化..........................................................................................13

I

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

5模型預(yù)測(cè).................................................................................................................14

6小結(jié).........................................................................................................................15

參考資料.....................................................................................................................16

II

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)

1引言

人們普遍關(guān)注識(shí)別技術(shù)在人工智能技術(shù)領(lǐng)域中的發(fā)展。人工智能識(shí)別技術(shù)

使得許多實(shí)際價(jià)值得以實(shí)現(xiàn),它是一種利用計(jì)算機(jī)科技、掃描設(shè)施、攝像機(jī)等

裝置,模擬人類(lèi)視覺(jué)功能來(lái)識(shí)別物體的技術(shù),它可以分為無(wú)生命物體識(shí)別技術(shù)

和有生命物體識(shí)別技術(shù)。人工智能識(shí)別技術(shù)不僅改善了人們的生活質(zhì)量,而且

也促進(jìn)了經(jīng)濟(jì)的發(fā)展。

1.1項(xiàng)目背景

新冠病毒的突然爆發(fā),極大地?cái)_亂了人類(lèi)的正常生產(chǎn)生活。和一般的流行

性感冒不一樣,它能夠經(jīng)由人的口水傳染,并有可能傳染給別人。最近,面對(duì)

疫情,從市場(chǎng)上被撕下來(lái)的口罩正在減少。因?yàn)?,在這種情況下,外出時(shí)帶上

口罩尤其重要。它能從源頭上對(duì)外界的人類(lèi)唾液和空氣進(jìn)行隔離。能夠有效地

防止自身及他人感染病毒,成為首要的防護(hù)措施。很多時(shí)候,有些人不響應(yīng)國(guó)

家和黨的號(hào)召,對(duì)病毒不重視,離開(kāi)時(shí)也不愛(ài)戴口罩,這就給了病毒可乘之機(jī),

給自己和別人的生命安全帶來(lái)了很大的危險(xiǎn)。

尤其重要和緊迫的是,要有一個(gè)系統(tǒng),通過(guò)收集和識(shí)別數(shù)字圖像并發(fā)出適

當(dāng)?shù)木婧途瘓?bào),來(lái)識(shí)別一個(gè)人是否戴著口罩。隨著計(jì)算機(jī)視覺(jué)技術(shù)的逐年進(jìn)

步,基于圖像的口罩識(shí)別迅速引起了人們的關(guān)注。

1.2開(kāi)發(fā)環(huán)境與工具

1.2.1Python簡(jiǎn)介

Python語(yǔ)言的誕生是在1989年由荷蘭大神GuidovanRossum(龜叔)獨(dú)立

開(kāi)發(fā)完成的。

Python語(yǔ)言的特點(diǎn):易于學(xué)習(xí)、清晰優(yōu)雅、快速開(kāi)發(fā)、跨平臺(tái)、可移植、

可擴(kuò)展、交互式、解釋性、動(dòng)態(tài)面向?qū)ο笳Z(yǔ)言?!皟?nèi)置電池”,許多標(biāo)準(zhǔn)和第

三方庫(kù)?;钴S的社區(qū)、許多貢獻(xiàn)者互助。開(kāi)源語(yǔ)言、強(qiáng)大的開(kāi)發(fā)動(dòng)態(tài)等。

1.2.2AlexNet簡(jiǎn)介

1

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

AlexNet是一種基于深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的圖像分類(lèi)模型,于2012年由

AlexKrizhevsky等人提出。它在ImageNet比賽中首次將深度學(xué)習(xí)應(yīng)用于計(jì)算

機(jī)視覺(jué),并奪得了驚人的優(yōu)異成績(jī)。

AlexNet模型擁有約6,800萬(wàn)個(gè)參數(shù)和大約60百萬(wàn)個(gè)神經(jīng)元。AlexNet模

型的應(yīng)用非常廣泛,除了圖像分類(lèi)之外,還可以應(yīng)用于對(duì)象檢測(cè)、語(yǔ)義分割等

領(lǐng)域。

在基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)中,采用了卷積神經(jīng)網(wǎng)

絡(luò)(ConvolutionalNeuralNetwork,CNN)來(lái)實(shí)現(xiàn)口罩識(shí)別的任務(wù)。CNN是一種

前饋神經(jīng)網(wǎng)絡(luò),主要用于圖像和語(yǔ)音識(shí)別等領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)

(representationlearning)能力,CNN中的卷積層采用了不同的卷積核進(jìn)行

圖像特征提取,池化層則通過(guò)對(duì)卷積層輸出的特征圖做最大或平均池化來(lái)減小

輸入的大小并增加模型的平移不變性,因此也被稱(chēng)為“平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)

(Shift-InvariantArtificialNeuralNetworks,SIANN)”。對(duì)卷積神經(jīng)網(wǎng)絡(luò)

的研究始于20世紀(jì)80至90年代,其是仿造生物的視知覺(jué)機(jī)制構(gòu)建,可以進(jìn)行

監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),其隱含層內(nèi)的卷積核參數(shù)共享和層間連接的稀疏性使

得卷積神經(jīng)網(wǎng)絡(luò)能夠以較小的計(jì)算量對(duì)格點(diǎn)化特征,例如像素和音頻進(jìn)行學(xué)習(xí)、

有穩(wěn)定的效果且對(duì)數(shù)據(jù)沒(méi)有額外的特征工程(featureengineering)要求。

1.2.3TensorFlow簡(jiǎn)介

TensorFlow是GoogleBrain團(tuán)隊(duì)開(kāi)發(fā)的,它是一種開(kāi)源機(jī)器學(xué)習(xí)框架。它

被廣泛用于深度學(xué)習(xí)、人工智能、自然語(yǔ)言處理等領(lǐng)域。2015年11月9日正式

發(fā)布。TensorFlow的思想是以最簡(jiǎn)單的方式來(lái)實(shí)現(xiàn)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的概念,

它結(jié)合了計(jì)算代數(shù)的優(yōu)化技術(shù),使它便計(jì)算許多數(shù)學(xué)表達(dá)式。

TensorFlow能應(yīng)用在許多地方,比如,圖像識(shí)別、手寫(xiě)數(shù)字分類(lèi)、遞歸神

經(jīng)網(wǎng)絡(luò)、單詞嵌入、自然語(yǔ)言處理、視頻檢測(cè)等等。TensorFlow采用數(shù)據(jù)流圖

的方式來(lái)表示計(jì)算過(guò)程,節(jié)點(diǎn)表示計(jì)算操作,邊表示張量(Tensor)之間的傳

遞。

在基于深度學(xué)習(xí)AlexNet模型的口罩識(shí)別方法設(shè)計(jì)中,TensorFlow可以用

于構(gòu)建和訓(xùn)練模型,同時(shí)也可以用于模型的部署和應(yīng)用。TensorFlow提供了方

便的API和工具,可以極大地簡(jiǎn)化深度學(xué)習(xí)模型的開(kāi)發(fā)和應(yīng)用過(guò)程。

2需求分析

2

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

2.1可行性需求分析

2.1.1技術(shù)可行性

Python在人工智能、大數(shù)據(jù)、自動(dòng)化操作、全棧開(kāi)發(fā)方面具有得天獨(dú)厚的

優(yōu)勢(shì),python對(duì)于需要減少編譯鏈接、多實(shí)踐的初學(xué)者來(lái)說(shuō),錯(cuò)誤可能會(huì)減少。

python有網(wǎng)絡(luò)、文件、GUI、數(shù)據(jù)庫(kù)、它提供了一個(gè)非常完整的基本代碼庫(kù),覆

蓋文本等許多內(nèi)容,形象地稱(chēng)為“內(nèi)置電池(Batteriesincluded)”。使用

Python開(kāi)發(fā)許多功能不需要從頭開(kāi)始編寫(xiě),也不需要直接使用。Python是一種

面向?qū)ο蟮恼Z(yǔ)言,但它的面向?qū)ο髤s不像C那樣強(qiáng)調(diào)概念,而是更注重實(shí)用。它

用最簡(jiǎn)單的方法讓編程者能夠享受到面向?qū)ο髱?lái)的好處,這正是Python能像

Java、C#那樣吸引眾多支持者的原因之一。

2.1.2項(xiàng)目可行性

由于全球新冠肺炎疫情的影響,保護(hù)全球公民健康的要求已經(jīng)提高。在公

共場(chǎng)所戴口罩可以作為預(yù)防傳染病的一種方法,因此戴口罩出行已成為人們的

日常習(xí)慣。乘坐交通工具或人員進(jìn)出大型購(gòu)物中心、校園、醫(yī)院、辦公室等場(chǎng)

所時(shí),需要進(jìn)行口罩佩戴檢查。檢測(cè)是否使用口罩已成為預(yù)防和控制流行病的

重要手段。在進(jìn)行人工檢查時(shí),存在工人缺席、交通排隊(duì)、識(shí)別和放行丟失等

問(wèn)題,以及密集且流動(dòng)性極強(qiáng)的公共交通如果僅僅依靠人工檢查無(wú)疑是一項(xiàng)耗

時(shí)且密集的工作,隨著時(shí)間的推移,檢查員也會(huì)感到疲憊,從而導(dǎo)致效率低下。

因此,使用人工智能技術(shù)而不是人力資源來(lái)檢查口罩是否正確佩戴成為更好的

選擇。

2.2關(guān)鍵技術(shù)分析

Alexnet網(wǎng)絡(luò)結(jié)構(gòu)圖如圖2-1:

圖2-1Alexnet網(wǎng)絡(luò)結(jié)構(gòu)圖

3

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

2.2.1輸入層

AlexNet的輸入層接受RGB彩色圖像,大小為227×227。

2.2.2卷積層

AlexNet采用了五個(gè)卷積層,其中前兩個(gè)卷積層后會(huì)緊跟一個(gè)池化層。這些

卷積層和池化層共同組成了AlexNet的特征提取器。

Conv1層:為AlexNet的第1個(gè)卷積層,使用的卷積核為(11*11*3)*96(卷

積核大小為11*11,輸入通道為3,輸出通道為96),步長(zhǎng)為4。通過(guò)套用卷積

通用公式,可以得到最后輸出的特征圖的高度和寬度均為55,最后輸出的特征

圖的維度為55×55×96。

Conv2層:為AlexNet的第2個(gè)卷積層,使用的卷積核為(5*5*96)*256,步

長(zhǎng)為1。得到最后輸出的特征圖的高度和寬度均為27,最后得到輸出的特征圖

的維度為27×27×256。

Conv3層:為AlexNet的第3個(gè)卷積層,使用的卷積核(3*3*256)*384,步

長(zhǎng)為1。

Conv4層:為AlexNet的第4個(gè)卷積層,使用的卷積核為(3*3*384)*384,

步長(zhǎng)為1。得到最后輸出的特征圖的高度和寬度均為13,最后得到特征圖的維

度為13×13×384。

Conv5層:為AlexNet的第5個(gè)卷積層,使用的卷積核為(3*3*384)*256,

步長(zhǎng)為1。得到最后輸出的特征圖的高度和寬度均為13,最后得到輸出的特征

圖的維度為13×13×256。

2.2.3池化層

池化核大小為3×3,步長(zhǎng)為2。池化(Pooling)是卷積神經(jīng)網(wǎng)絡(luò)中另一個(gè)重

要的概念,它實(shí)際上是一種形式的降采樣。有多種不同形式的非線(xiàn)性池化函數(shù),

而其中最大池化(MaxPooling)是最為常見(jiàn)的。它是將輸入的圖像劃分為若干個(gè)

矩形區(qū)域,對(duì)每個(gè)子區(qū)域輸出最大值。直覺(jué)上,這種機(jī)制能夠有效地原因在于,在

發(fā)現(xiàn)一個(gè)特征之后,它的精確位置遠(yuǎn)不及它和其他特征的相對(duì)位置的關(guān)系重要。

池化層會(huì)不斷地減小數(shù)據(jù)的空間大小,因此參數(shù)的數(shù)量和計(jì)算量也會(huì)下降,這在

一定程度上也控制了過(guò)擬合Error!Referencesourcenotfound.。

2.2.4Dropout層

AlexNet使用了Dropout層,用于減少模型的過(guò)擬合情況。在訓(xùn)練的時(shí)候以

4

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

1/2概率使得隱藏層的某些神經(jīng)元的輸出為0,這樣就丟掉了一半節(jié)點(diǎn)的輸出,

反向傳播的時(shí)候也不更新這些節(jié)點(diǎn),輸出的特征圖的維度為1×4096。

2.2.5全連接層

全連接層是每一個(gè)結(jié)點(diǎn)都與上一層的所有結(jié)點(diǎn)相連用來(lái)把前邊提取到的特

征綜合起來(lái)。由于其全相連的特性,一般全連接層的參數(shù)也是最多的。在CNN

結(jié)構(gòu)中,經(jīng)多個(gè)卷積層和池化層后,連接著1個(gè)或1個(gè)以上的全連接層與MLP

類(lèi)似,全連接層中的每個(gè)神經(jīng)元與其前一層的所有神經(jīng)元進(jìn)行全連接。全連接

層可以整合卷積層或者池化層中具有類(lèi)別區(qū)分性的局部信息。為了提升CNN網(wǎng)

絡(luò)性能,全連接層每個(gè)神經(jīng)元的激勵(lì)函數(shù)一般采用ReLU函數(shù)。

2.2.6Softmax輸出層

softmax最主要的作用,就是將神經(jīng)網(wǎng)絡(luò)的輸出轉(zhuǎn)化為概率形式。神經(jīng)元的

輸出值越大,經(jīng)過(guò)輸出層轉(zhuǎn)換的概率就越大。

3數(shù)據(jù)集處理

口罩識(shí)別是一種計(jì)算機(jī)視覺(jué)的任務(wù),通常需要大量的數(shù)據(jù)來(lái)訓(xùn)練深度學(xué)習(xí)

模型。在AlexNet模型中口罩識(shí)別需要的數(shù)據(jù)包括有口罩和沒(méi)有口罩的圖像。

3.1數(shù)據(jù)集收集

圖3-1收集圖像數(shù)據(jù)

收集圖像數(shù)據(jù)集:數(shù)據(jù)集來(lái)源于網(wǎng)絡(luò),使用各種在線(xiàn)資源收集的人們佩戴

或未佩戴口罩的圖像,共298張圖像放入名為JPEGImages的文件夾中,圖片從

5

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

000001—000298命名,如圖3-1。

3.2數(shù)據(jù)集標(biāo)注

用標(biāo)注工具對(duì)圖像進(jìn)行標(biāo)注:對(duì)于每個(gè)圖像,需要標(biāo)注圖像中是否存在口

罩。這可以通過(guò)將圖像中存在口罩的區(qū)域框出或者直接在圖像上作出標(biāo)記來(lái)完

成。本文使用的是LabelImg,把戴口罩的標(biāo)為mask,不戴口罩標(biāo)為face。放入

名為Annotataions的文件夾中,如圖3-2。

圖3-2圖像標(biāo)注

3.3數(shù)據(jù)集預(yù)處理

將數(shù)據(jù)集分成訓(xùn)練集、驗(yàn)證集和測(cè)試集:通常,將數(shù)據(jù)集分成訓(xùn)練集、驗(yàn)

證集和測(cè)試集可以幫助評(píng)估模型的性能。訓(xùn)練集有98張,測(cè)試集有102張,驗(yàn)

證集有98張,共298張數(shù)據(jù)集,代碼如圖3-3。

6

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

圖3-3分割數(shù)據(jù)集

4模型構(gòu)建及評(píng)估分析

4.1模型構(gòu)建

4.1.1搭建AlexNet模型

AlexNet模型是一種卷積神經(jīng)網(wǎng)絡(luò)(CNN),它由多個(gè)卷積層、池化層、全

連接層和激活函數(shù)等組成。

1.Conv2D函數(shù)

Conv2D函數(shù)是卷積層中的一種操作,它用于從輸入數(shù)據(jù)中提取特征并將其

轉(zhuǎn)換為輸出數(shù)據(jù)。在AlexNet模型中,Conv2D函數(shù)負(fù)責(zé)對(duì)輸入圖像進(jìn)行卷積操

7

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

作,從而學(xué)習(xí)到特征信息。

Conv2D函數(shù)的參數(shù)包括filters(卷積核的數(shù)量)、kernel_size(卷積核

的大?。?、activation(激活函數(shù)類(lèi)型)和input_shape(輸入數(shù)據(jù)的形狀)。

同時(shí),在Conv2D函數(shù)中還可以設(shè)置padding參數(shù),以控制卷積運(yùn)算的邊緣處理

方法,常用的padding方式有"valid"和"same"。

kernel_size:卷積核的大小,如果該參數(shù)是一個(gè)整數(shù)q,那么卷積核的大

小是qXq。

stride:步長(zhǎng)。是卷積過(guò)程中移動(dòng)的步長(zhǎng)。默認(rèn)情況下是1。一般卷積核在

輸入圖像上的移動(dòng)是自左至右,自上至下。如果參數(shù)是一個(gè)整數(shù)那么就默認(rèn)在

水平和垂直方向都是該整數(shù)。如果參數(shù)是stride=(2,1),2代表著高(h)進(jìn)行

步長(zhǎng)為2,1代表著寬(w)進(jìn)行步長(zhǎng)為1。

padding:填充,默認(rèn)是0填充

2.Sequential函數(shù)

Sequential函數(shù)是一種常見(jiàn)的數(shù)學(xué)函數(shù),它可以用來(lái)解決復(fù)雜的問(wèn)題。它

的基本思路是:將問(wèn)題分為很多個(gè)小問(wèn)題再來(lái)解決,從而獲得最終的答案。

Sequential函數(shù)是一種組合函數(shù),它可以將多個(gè)函數(shù)順序連接起來(lái),實(shí)現(xiàn)

函數(shù)的組合。它可以將多個(gè)函數(shù)視為一個(gè)整體,叢而獲得更高的效率。

Sequential函數(shù)可以用于解決復(fù)雜的問(wèn)題,例如求解多元函數(shù)的最小值、

求解矩陣的最大特征值等。Sequential函數(shù)也可以用于解決更復(fù)雜的問(wèn)題,例

如動(dòng)態(tài)規(guī)劃、機(jī)器學(xué)習(xí)和人工智能等。

Sequential函數(shù)也可以用于模擬復(fù)雜的系統(tǒng),例如環(huán)境動(dòng)力學(xué)、社會(huì)系統(tǒng)

和生物系統(tǒng)等。它可以用于模擬系統(tǒng)的運(yùn)行情況,并分析其變化趨勢(shì),從而為

系統(tǒng)的調(diào)整和優(yōu)化提供有效的參考。

Sequential函數(shù)是一種強(qiáng)大的數(shù)學(xué)工具,它可以用于解決復(fù)雜的問(wèn)題,甚

至可以用于模擬復(fù)雜的系統(tǒng)。它的使用范圍很廣泛,是研究復(fù)雜問(wèn)題的有效工

具,也是實(shí)現(xiàn)智能的必要條件。

3.Dense函數(shù)

Dense數(shù)是深度學(xué)習(xí)中常用的一種層類(lèi)型,它可以讓神經(jīng)網(wǎng)絡(luò)更加容易擬合

復(fù)雜的函數(shù),并能夠解決具有非線(xiàn)性特征的問(wèn)題。它也是深度學(xué)習(xí)模型中最常

用的一類(lèi)層。

Dense數(shù)由參數(shù)和激活函數(shù)組成。參數(shù)是指權(quán)重參數(shù)、偏置參數(shù)等,而激活

函數(shù)提供了非線(xiàn)性特征,能夠?qū)⒕W(wǎng)絡(luò)的輸出從單二變量變?yōu)槎嗑S特征,從而增

強(qiáng)網(wǎng)絡(luò)的性能。激活函數(shù)的選擇也是影響深度學(xué)習(xí)模型性能的重要參數(shù),常用

8

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

的激活函數(shù)有Sigmod、Remlu、Softmax等。

Dense數(shù)可以用來(lái)構(gòu)建多層神經(jīng)網(wǎng)絡(luò),這也是深度學(xué)習(xí)模型的基礎(chǔ)。在構(gòu)建

多層神經(jīng)網(wǎng)絡(luò)時(shí),每一層的Dense數(shù)都會(huì)與前后層之間建立連接,而在每一層

Dense函數(shù)中,有多個(gè)隱藏層,每一個(gè)隱藏層連接至上一個(gè)隱藏層或輸入層,最

終,輸出層連接至最后一個(gè)隱藏層。

Dense數(shù)使得深度學(xué)習(xí)中的算法可以處理更復(fù)雜的任務(wù)和更多樣化的數(shù)據(jù),

它可以極大地提高算法的工作效率,提高了智能化系統(tǒng)的性能。Dense數(shù)還可以

解決線(xiàn)性回歸、時(shí)序分析、自然語(yǔ)言處理(NLP)、等等各種非線(xiàn)性特征的問(wèn)題,

使得智能化系統(tǒng)發(fā)展得更加迅速隨著深度學(xué)習(xí)技術(shù)的發(fā)展,Dense函數(shù)也在不斷

進(jìn)化。比如多層感知器(MLP)通過(guò)全連接層的構(gòu)建,解決NLP問(wèn)題,而殘差網(wǎng)

絡(luò)(ResNet)則將Dense函數(shù)中的每一層連接起來(lái),把信息傳播更為有效,從而

提升了深度學(xué)習(xí)模型的表現(xiàn)力。

由此可見(jiàn),Dense數(shù)是深度學(xué)習(xí)模型的重要基礎(chǔ),它不僅具有普遍應(yīng)用,而

且還不斷進(jìn)化,帶來(lái)了無(wú)窮的可能性。在未來(lái),隨著深度學(xué)習(xí)科技的發(fā)展,Dense

數(shù)也將持續(xù)扮演重要角色,將深度學(xué)習(xí)帶入更高的層次。

4.MaxPooling2D函數(shù)

MaxPooling2D函數(shù)是一種池化操作,它可以減小圖像的尺寸和參數(shù)數(shù)量,

同時(shí)還能夠增加模型的魯棒性。在AlexNet模型中,MaxPooling2D函數(shù)的主要

作用是對(duì)卷積層的輸出進(jìn)行下采樣,從而保留更重要的特征,同時(shí)減小了過(guò)擬

合的風(fēng)險(xiǎn)。為了更好地保證模型的泛化能力和準(zhǔn)確性,需要在訓(xùn)練模型時(shí)對(duì)輸

入數(shù)據(jù)進(jìn)行歸一化或標(biāo)準(zhǔn)化處理。

poolsize:用于設(shè)置池化窗口的大小,這個(gè)參數(shù)需要指定一個(gè)整數(shù)元組或列

表。本設(shè)計(jì)中參數(shù)的值為(3,3),則表示將輸入的特征圖分成3x3的小塊,對(duì)每

個(gè)小塊取最大值作為輸出的新特征圖中對(duì)應(yīng)位置的值。poolsize參數(shù)的值必須

是正整數(shù),且小于或等于輸入特征圖在對(duì)應(yīng)維度上的大小。

strides:用于設(shè)置池化窗口在輸入特征圖上移動(dòng)的步長(zhǎng),并影響池化操作

的數(shù)量和輸出特征圖的大小。本設(shè)計(jì)中步長(zhǎng)值為(2,2),則表示池化窗口在高度

和寬度方向上每次移動(dòng)2個(gè)像素。

5.Flatten函數(shù)

Flatten層用來(lái)將輸入“壓平”,即把多維的輸入一維化,常用在從卷積層

到全連接層的過(guò)渡。

在利用Alex網(wǎng)絡(luò)進(jìn)行面具識(shí)別的過(guò)程中,需要使用Flatten函數(shù),將卷

積與池化層的結(jié)果轉(zhuǎn)換成一維向量,并將其作為整個(gè)連通層的輸入。在此基礎(chǔ)

9

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

上,將卷積/集合層的特征圖譜轉(zhuǎn)換成一系列的特征矢量,使所有連通層都能從

中提取出更高級(jí)的抽象特征,從而達(dá)到對(duì)物體進(jìn)行分類(lèi)與識(shí)別的目的。

總的來(lái)說(shuō),F(xiàn)latten函數(shù)的功能就是把一個(gè)多維數(shù)據(jù)集壓縮成一個(gè)一維數(shù)據(jù)

集,這樣就可以用于以后的數(shù)據(jù)處理。

6.Dropout函數(shù)

Dropout是一種非常常用的正則化方法。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時(shí)候經(jīng)常會(huì)

遇到過(guò)擬合的問(wèn)題,過(guò)擬合具體表現(xiàn)在:模型在訓(xùn)練數(shù)據(jù)上損失函數(shù)較小,預(yù)

測(cè)準(zhǔn)確率較高;但是在測(cè)試數(shù)據(jù)上損失函數(shù)比較大,預(yù)測(cè)準(zhǔn)確率較低。Dropout

被應(yīng)用在全連接層之后。它能夠有效提高模型的性能、減小模型的訓(xùn)練誤差,

并且在測(cè)試時(shí)也可以使用Dropout方法對(duì)模型進(jìn)行正則化,以獲得更好的性能

表現(xiàn)。

定義AlexNet模型代碼如圖4-1,定義AlexNet輸出模型結(jié)構(gòu)如圖4-2。

圖4-1AlexNet模型構(gòu)建代碼

10

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

圖4-2定義AlexNet輸出模型結(jié)構(gòu)展示頁(yè)面

4.1.2加載數(shù)據(jù)集

在進(jìn)行訓(xùn)練之前,需要將處理后的數(shù)據(jù)集導(dǎo)入到模型中,代碼如圖4-3。

11

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

圖4-3數(shù)據(jù)集展示頁(yè)面

4.1.3訓(xùn)練模型

將導(dǎo)入的數(shù)據(jù)集傳輸?shù)紸lexNet模型中進(jìn)行訓(xùn)練。訓(xùn)練可以通過(guò)在數(shù)據(jù)集

上迭代許多次來(lái)完成,每次迭代稱(chēng)為一個(gè)“epoch”。本文使用Python中的

TensorFlow框架進(jìn)行模型訓(xùn)練。模型編譯與訓(xùn)練代碼如圖4-4,模型編譯與訓(xùn)

練運(yùn)行展示頁(yè)面4-5,模型可視化展示頁(yè)面4-6。

圖4-4模型編譯與訓(xùn)練代碼展示頁(yè)面

12

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

圖4-5模型編譯與訓(xùn)練運(yùn)行展示頁(yè)面

圖4-6模型可視化展示頁(yè)面

4.2模型評(píng)估與優(yōu)化

在模型經(jīng)過(guò)訓(xùn)練之后,我們需要使用測(cè)試集來(lái)評(píng)估模型的性能和泛化能力。

模型評(píng)估代碼如圖4-7,模型評(píng)估運(yùn)行如圖4-8。

13

湖南商務(wù)職業(yè)技術(shù)學(xué)院畢業(yè)設(shè)計(jì)

圖4-7模型評(píng)估代碼

圖4-8模型評(píng)估運(yùn)行結(jié)果

5模型預(yù)測(cè)

將待預(yù)測(cè)的圖像數(shù)據(jù)輸入已加載的模型中,并使用模型的predict函數(shù)進(jìn)

行預(yù)測(cè),得到預(yù)測(cè)結(jié)果。在口罩識(shí)別任務(wù)中,預(yù)測(cè)結(jié)果通常為佩戴口罩、未佩

戴口罩標(biāo)簽。模型預(yù)測(cè)代碼如圖5-1,模型預(yù)測(cè)圖如圖5-2,模型預(yù)測(cè)結(jié)果如圖

5-3。

圖5-1模型預(yù)測(cè)代碼展示頁(yè)面

圖5-2模型預(yù)測(cè)圖展示頁(yè)面圖5-3模

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論