2023學(xué)年完整公開(kāi)課版TensorFlow的基本概念_第1頁(yè)
2023學(xué)年完整公開(kāi)課版TensorFlow的基本概念_第2頁(yè)
2023學(xué)年完整公開(kāi)課版TensorFlow的基本概念_第3頁(yè)
2023學(xué)年完整公開(kāi)課版TensorFlow的基本概念_第4頁(yè)
2023學(xué)年完整公開(kāi)課版TensorFlow的基本概念_第5頁(yè)
已閱讀5頁(yè),還剩8頁(yè)未讀 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1.1

機(jī)學(xué)習(xí)概覽歡迎進(jìn)入《數(shù)據(jù)科學(xué)與機(jī)器學(xué)習(xí)》課程學(xué)習(xí)第4單元機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)TensorFLow深度學(xué)習(xí)庫(kù)TensorFLow深度學(xué)習(xí)庫(kù)安裝TensorFlow202

TensorFlow的基本概念01

TensorFlowAPI簡(jiǎn)介03

TensorFlow/Keras的使用步驟04TensorFlow基本概念TensorFlow概述

TensorFlow是一個(gè)編程系統(tǒng),使用圖來(lái)表示計(jì)算任務(wù).圖中的節(jié)點(diǎn)被稱(chēng)之為op(operation的縮寫(xiě))。一個(gè)op獲得0個(gè)或多個(gè)Tensor,執(zhí)行計(jì)算,產(chǎn)生0個(gè)或多個(gè)Tensor.每個(gè)Tensor是一個(gè)類(lèi)型化的多維數(shù)組。一個(gè)TensorFlow圖描述了計(jì)算的過(guò)程。

為了進(jìn)行計(jì)算,圖必須在會(huì)話里被啟動(dòng)。會(huì)話將圖的op分發(fā)到諸如CPU或GPU之類(lèi)的設(shè)備上,同時(shí)提供執(zhí)行op的方法。這些方法執(zhí)行后,將產(chǎn)生的tensor返回。在Python語(yǔ)言中,返回的tensor是numpyndarray對(duì)象。TensorFlow的程序被組織成一個(gè)構(gòu)建階段和一個(gè)執(zhí)行階段。在構(gòu)建階段op的執(zhí)行步驟被描述成一個(gè)圖。在執(zhí)行階段,使用Session(會(huì)話)執(zhí)行圖中的op。(1)組裝一個(gè)Graph(2)使用Session去執(zhí)行Graph中的opTensorFlow基本概念構(gòu)建圖importtensorflowastfa=tf.constant(3)b=tf.constant(4)c=tf.add(a,b)函數(shù)tf.constant()用于生成一個(gè)常量,即不用sess.run就有值,在運(yùn)行過(guò)程中不變,常量的類(lèi)型可以是字符串或張量。函數(shù)tf.add(),接收兩個(gè)參數(shù),并將這兩個(gè)參數(shù)相加,參數(shù)只要是張量,或者運(yùn)算結(jié)果是個(gè)張量即可。TensorFlow基本概念執(zhí)行回話importpat.v1astftf.disable_eager_execution()hello=tf.constant('hello,tensorflow')sess=tf.Session()print(sess.run(hello))sess.close()Session對(duì)象每次使用完畢,需要使用close()方法關(guān)閉,使用with結(jié)構(gòu)可以讓python在結(jié)構(gòu)內(nèi)的語(yǔ)句執(zhí)行結(jié)束時(shí),自動(dòng)調(diào)用Session的close()方法TensorFlow基本概念占位符placeholder計(jì)算圖可以使用占位符placeholder來(lái)參數(shù)化地從外部輸入數(shù)據(jù),placeholder的作用是在稍后(session調(diào)用run時(shí))提供一個(gè)值。a=tf.placeholder(tf.float32)b=tf.placeholder(tf.float32)c=a+bwithtf.Session()assess:print(sess.run(c,{a:3,b:4}))print(sess.run(c,{a:[1,3],b:[2,4]}))TensorFlow基本概念張量(Tensor)張量(Tensor):張量有多種.。零階張量為純量或標(biāo)量(scalar)也就是一個(gè)數(shù)值.比如[1],一階張量為向量(vector),比如一維的[1,2,3],二階張量為矩陣(matrix),比如二維的[[1,2,3],[4,5,6],[7,8,9]],以此類(lèi)推,還有三階三維的…張量從流圖的一端流動(dòng)到另一端的計(jì)算過(guò)程。它生動(dòng)形象地描述了復(fù)雜數(shù)據(jù)結(jié)構(gòu)在人工神經(jīng)網(wǎng)中的流動(dòng)、傳輸、分析和處理模式。張量有兩個(gè)屬性:rank(階)一般指維度,也就是三層方括號(hào)圖1:階TensorFlow基本概念張量(Tensor)張量有兩個(gè)屬性:shape(形狀)用于描述張量?jī)?nèi)部的組織關(guān)系,指tensor每個(gè)維度數(shù)據(jù)的個(gè)數(shù),與numpy數(shù)組的shape是一個(gè)概念。TensorFlow基本概念變量變量用于存儲(chǔ)和更新參數(shù),存放于內(nèi)存的緩沖區(qū)中,需要被初始化。當(dāng)創(chuàng)建一個(gè)變量時(shí),將一個(gè)張量作為初值傳入構(gòu)造函數(shù)Variable()。TensorFLow提供了一系列操作符來(lái)初始化張量,其初值可以是常量,也可以是隨機(jī)值。一般情況下都是取隨機(jī)值。常用函數(shù)如下:

tf.zeros產(chǎn)生全0的數(shù)組

tf.ones產(chǎn)生全1的數(shù)組

tf.constant產(chǎn)生一個(gè)定值的常量

tf.random_normal產(chǎn)生的數(shù)組正態(tài)分布

tf.random_uniform均勻分布計(jì)算前需要初始化所有Variable,一般在定義Graph時(shí)定義global_variables_initializer。TensorFlow基本概念fetch和feedfetch取值用來(lái)從op的張量中取值,為了取回操作的輸出內(nèi)容,可以使用Session對(duì)象的run()調(diào)用執(zhí)行圖,傳入一些tensor來(lái)取回結(jié)果。當(dāng)獲取多個(gè)tensor值時(shí),是在op的一次運(yùn)行中一起獲得的。input1=tf.constant(3.0)input2=tf.constant(2.0)input3=tf.constant(5.0)a=tf.add(input2,input3)b=tf.multiply(input1,a)withtf.Session()assess:result=sess.run([a,b])#[a,b]即是一次fetch兩個(gè)張量

print(result)TensorFlow基本概念feed(賦值)使用一個(gè)tensor值替換一個(gè)操作的輸出結(jié)果??梢蕴峁ゝeed數(shù)據(jù)作為run()調(diào)用的參數(shù)。feed常用在placeholder定義的張量。input1=tf.placeholder(tf.float32)input2=tf.placeholder(tf.float32)b=tf.multiply(input1,input2)withtf.Session()assess:

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論