深度學(xué)習(xí)技術(shù)與應(yīng)用 課件 第6章 初識(shí)Keras與多層感知機(jī)_第1頁(yè)
深度學(xué)習(xí)技術(shù)與應(yīng)用 課件 第6章 初識(shí)Keras與多層感知機(jī)_第2頁(yè)
深度學(xué)習(xí)技術(shù)與應(yīng)用 課件 第6章 初識(shí)Keras與多層感知機(jī)_第3頁(yè)
深度學(xué)習(xí)技術(shù)與應(yīng)用 課件 第6章 初識(shí)Keras與多層感知機(jī)_第4頁(yè)
深度學(xué)習(xí)技術(shù)與應(yīng)用 課件 第6章 初識(shí)Keras與多層感知機(jī)_第5頁(yè)
已閱讀5頁(yè),還剩17頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

深度學(xué)習(xí)技術(shù)與應(yīng)用DeepLearningTechnologyandApplicationcontents目錄第六章初識(shí)Keras與多層感知機(jī)01.

MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortrainingPART1MNIST手寫(xiě)數(shù)字的應(yīng)用01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigitsMNIST數(shù)據(jù)集

一般機(jī)器學(xué)習(xí)框架都使用MNIST作為入門(mén)。就像"HelloWorld"對(duì)于任何一門(mén)編程語(yǔ)言一樣,要想入門(mén)機(jī)器學(xué)習(xí),就先要掌握MNIST。MNIST手寫(xiě)數(shù)字集是“卷積神經(jīng)網(wǎng)絡(luò)之父”YannLeCun所收集的。MNIST數(shù)據(jù)是由幾千張28×28的單色圖片組成,比較簡(jiǎn)單,非常適合深度學(xué)習(xí)新生入門(mén)學(xué)習(xí)所使用。導(dǎo)?所需要使?到的相關(guān)依賴模塊importnumpyasnpfromkeras.utilsimportnp_utilsfromkeras.datasetsimportmnistimportpandasaspdimportmatplotlib.pyplotasplt01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理讀取數(shù)據(jù)集的信息01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理2.查看數(shù)據(jù)集中圖像和標(biāo)簽01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理2.為了更加方便地查看數(shù)據(jù)集,定義一個(gè)顯示多個(gè)圖像的函數(shù)01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理2.使?showimagesset顯示測(cè)試集的數(shù)據(jù)show_images_set(images=X_test_image,labels=y_test_label,prediction=[],idx=0)01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理3.數(shù)據(jù)集圖像預(yù)處理操作將數(shù)據(jù)集中的圖像(28×28)轉(zhuǎn)換成?維向量再轉(zhuǎn)換數(shù)據(jù)類型為Float32 X_Train=X_train_image.reshape(60000,28*28).astype('float32') X_Test=X_test_image.reshape(10000,28*28).astype('float32')對(duì)圖像進(jìn)?歸?化處理,便是將0到255的數(shù)映射到0和1之間的數(shù),這樣可以提到模型訓(xùn)練精度 X_Train_normalize=X_Train/255 X_Test_normalize=X_Test/25501.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理數(shù)據(jù)的歸一化是數(shù)據(jù)預(yù)處理中重要的的一步,很多種方法都可以被稱作數(shù)據(jù)的歸一化,例如簡(jiǎn)單的去除小數(shù)位,而更高級(jí)歸一化技術(shù)才能對(duì)我們訓(xùn)練有所幫助,例如z-score歸一化。01.MNIST手寫(xiě)數(shù)字的應(yīng)用ApplicationofMNISThandwrittendigits數(shù)據(jù)預(yù)處理數(shù)據(jù)集圖像預(yù)處理操作,將數(shù)據(jù)集中的圖像(28×28)轉(zhuǎn)換成一維向量,再轉(zhuǎn)換數(shù)據(jù)類型為Float32 X_Train=X_train_image.reshape(60000,28*28).astype('float32') X_Test=X_test_image.reshape(10000,28*28).astype('float32')PART2搭建多層感知機(jī)進(jìn)行訓(xùn)練02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining多層感知機(jī)1.首先搭建一個(gè)最簡(jiǎn)單的模型,僅有輸入層和輸出層fromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropout,Flatten,Conv2D,MaxPooling2D,ActivationUsingTensorFlowbackend.#設(shè)置模型參數(shù)CLASSES_NB=10INPUT_SHAPE=28*28#建立Sequential模型model=Sequential()#添加一個(gè)Dense層model.add(Dense(units=CLASSES_NB,input_dim=INPUT_SHAPE,))#定義輸出層,使用softmax將0~9共10個(gè)數(shù)字的結(jié)果通過(guò)概率的形式進(jìn)行激活轉(zhuǎn)換model.add(Activation('softmax'))02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining多層感知機(jī)2.神經(jīng)網(wǎng)絡(luò)訓(xùn)練

多層感知器模型已經(jīng)建立完畢,可以使用反向傳播的方式進(jìn)行模型訓(xùn)練,Keras的訓(xùn)練需要使用compile對(duì)模型設(shè)置訓(xùn)練參數(shù):loss:損失函數(shù)使用交叉熵?fù)p失函數(shù)cross_entropy進(jìn)行訓(xùn)練。optimizer:使用adam優(yōu)化器的方式進(jìn)行梯度下降算法的優(yōu)化,可以加快神經(jīng)網(wǎng)絡(luò)收斂速度。metrics:評(píng)估方式設(shè)置為準(zhǔn)確率accuracy。 #設(shè)置訓(xùn)練參數(shù) pile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])

#驗(yàn)證集劃分比例 VALIDATION_SPLIT=0.2 #訓(xùn)練周期 EPOCH=10 #單批次數(shù)據(jù)量 BATCH_SIZE=128 #訓(xùn)練LOG打印形式 VERBOSE=202.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining多層感知機(jī)2.神經(jīng)網(wǎng)絡(luò)訓(xùn)練以圖表的形式呈現(xiàn)訓(xùn)練結(jié)果:藍(lán)?的線為準(zhǔn)確率(acc)在每?輪的訓(xùn)練中都在不斷的提藍(lán)?的線為誤差率(loss)在每?輪的訓(xùn)練中都在不斷的降低02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining增加隱藏層改進(jìn)模型逐步建?多層感知機(jī)模型。輸?層的神經(jīng)元個(gè)數(shù)共有784個(gè),隱藏層共有256個(gè),?輸出層則有10個(gè),分別對(duì)應(yīng)10個(gè)0~9之間的數(shù)字結(jié)果。02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining增加隱藏層改進(jìn)模型逐步建?多層感知機(jī)模型。輸?層的神經(jīng)元個(gè)數(shù)共有784個(gè),隱藏層共有256個(gè),?輸出層則有10個(gè),分別對(duì)應(yīng)10個(gè)0~9之間的數(shù)字結(jié)果。02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining增加隱藏層改進(jìn)模型02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining增加隱藏層改進(jìn)模型02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti-layerperceptronfortraining增加隱藏層改進(jìn)模型02.搭建多層感知機(jī)進(jìn)行訓(xùn)練Buildmulti

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論