《深度學(xué)習(xí)與Python實現(xiàn)與應(yīng)用》課件python第一章_第1頁
《深度學(xué)習(xí)與Python實現(xiàn)與應(yīng)用》課件python第一章_第2頁
《深度學(xué)習(xí)與Python實現(xiàn)與應(yīng)用》課件python第一章_第3頁
《深度學(xué)習(xí)與Python實現(xiàn)與應(yīng)用》課件python第一章_第4頁
《深度學(xué)習(xí)與Python實現(xiàn)與應(yīng)用》課件python第一章_第5頁
已閱讀5頁,還剩20頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

目錄contents01深度學(xué)習(xí)簡介02神經(jīng)網(wǎng)路03神經(jīng)網(wǎng)絡(luò)的發(fā)展歷史04常用的深度學(xué)習(xí)框架05編程環(huán)境的安裝深度學(xué)習(xí)簡介011.1深度學(xué)習(xí)簡介為了學(xué)習(xí)一種好的表示,需要構(gòu)建具有一定“深度”的模型,并通過學(xué)習(xí)算法來讓模型自動學(xué)習(xí)出好的特征表示(從底層特征,到中層特征,再到高層特征),從而最終提升預(yù)測模型的準(zhǔn)確率所謂。下圖給出了深度學(xué)習(xí)的數(shù)據(jù)處理流程。神經(jīng)網(wǎng)絡(luò)021.2.1人腦神經(jīng)網(wǎng)絡(luò)1.2.2人工神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)是為模擬人腦神經(jīng)網(wǎng)絡(luò)而設(shè)計的一種計算模型,它從結(jié)構(gòu)、實現(xiàn)機理和功能上模擬人腦神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)的發(fā)展歷史031.3神經(jīng)網(wǎng)絡(luò)發(fā)展的5個階段1)第一階段:模型提出第一階段為1943年~1969年,是神經(jīng)網(wǎng)絡(luò)發(fā)展的第一個高潮期。2)第二階段:冰河期第二階段為1969年~1983年,是神經(jīng)網(wǎng)絡(luò)發(fā)展的第一個低谷期。3)第三階段:反向傳播算法引起的復(fù)興第三階段為1983年~1995年,是神經(jīng)網(wǎng)絡(luò)發(fā)展的第二個高潮期。4)第四階段:流行度降低第四階段為1995年~2006年,在此期間,支持向量機和其他更簡單的方法(例如線性分類器)在機器學(xué)習(xí)領(lǐng)域的流行度逐漸超過了神經(jīng)網(wǎng)絡(luò)。5)第五階段:深度學(xué)習(xí)的崛起第五階段為從2006年開始至今,在這一時期研究者逐漸掌握了訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)的方法,使得神經(jīng)網(wǎng)絡(luò)重新崛起。常用的深度學(xué)習(xí)框架041.4常用的深度學(xué)習(xí)框架主流框架

Theano

Scikit-learn

Caffe

Torch

MXNet

PyTorch

Keras

TensorFlow編程環(huán)境安裝051.5.1anaconda安裝網(wǎng)址:/products/distribution1.5.2CUDA安裝網(wǎng)址:/cuda-10.0-download-archive1.5.2CUDA安裝1.5.2CUDA測試打開cmd,輸入nvcc-v1.5.3

cudnn安裝網(wǎng)址:https:\\\cudnn進(jìn)入后看到下圖界面,選擇對應(yīng)版本下載1.5.3

cudnn安裝下載完成cuDNN文件后,解壓并進(jìn)入文件夾,我們將名為“cuda”的文件夾重命名為“cudnn765”,并復(fù)制此文件夾。C:\ProgramFiles\NVIDIAGPUComputingToolkit\CUDA\v10.0,粘貼“cudnn765”文件夾即可。1.5.4

環(huán)境變量設(shè)置1.5.4

環(huán)境變量設(shè)置1.5.4

環(huán)境變量設(shè)置1.5.5TensorFlow-gpu安裝TensorFlow和其他的Python庫一樣,使用Python包管理工具pipinstall命令即可安裝。下面是幾個包的安裝實列。首先打開cmd,輸入:#使用國內(nèi)清華源安裝pipinstallnumpy-i/simple#使用國內(nèi)清華源安裝TensorFlowCPU版本pipinstall-Utensorflow-gpu-i/simple1.5.5TensorFlow-cpu安裝如果不能安裝TensorFlowGPU版本,則可以安裝CPU版本。版本驗證:在cmd命令行輸入ipython進(jìn)入ipython交互式終端,輸入“importtensorflowastf”命令。通過“tf.__version__”查看本地安裝的TensorFlow版本號#使用國內(nèi)清華源安裝TensorFlowCPU版本pipinstall-Utensorflow-i/simple1.5.5TensorFlow簡潔安裝實際上,對于新手來說,可以將手動安裝CUDA和cuDNN,配置Path環(huán)境變量并安裝TensorFlow這4大步驟通過兩條命令完成:#創(chuàng)建名為tf2的虛擬環(huán)境,并根據(jù)預(yù)設(shè)環(huán)境名tensorflow-gpu#自動安裝CUDA,cuDNN,TensorFlowGPU等condacreate-ntf2tensorflow-gpu#激活tf2虛擬環(huán)境condaactivatetf21.5.5TensorFlowgpu資源管理TensorFlow在運行時,默認(rèn)會占用所有GPU顯存資源,占用所有GPU顯存資源會使得其他程序無法運行。因此可以將TensorFlow的顯存占用方式為增長式占用模式,實現(xiàn)如下:#設(shè)置GPU顯存使用方式#獲取GPU設(shè)備列表gpus=tf.config.experimental.list\_physical\_devices('GPU’)ifgpus:

try:

#設(shè)置GPU為增長式占用forgpuingpus:

tf.config.experimental.set\_memory\_growth(gpu,True)

exceptRuntimeErrorase:

print(e)1.5.6常用編輯器安裝使用Python語言編寫程序的方式非常多,可以使用ipython或者ipythonnotebook方式交互式編寫代碼,也可

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論