版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
第10章智能技術(shù)基礎(chǔ)本次課程內(nèi)容2.機(jī)器學(xué)習(xí)4.人工神經(jīng)網(wǎng)絡(luò)1.智能技術(shù)發(fā)展背景3.感知器5.卷積神經(jīng)網(wǎng)絡(luò)7.Tensorflow簡介8.Pytorch簡介6.深度學(xué)習(xí)特征讓機(jī)器具備智能是人們長期追求的目標(biāo)。上世紀(jì)50年代,數(shù)學(xué)家AlanTuring提出圖靈測試,采用回答問題方式,辨別機(jī)器是否具有智能。如果在相當(dāng)長時(shí)間內(nèi),問詢者無法判斷對(duì)方是人還是機(jī)器,那么就認(rèn)為這個(gè)機(jī)器是智能的。1.智能技術(shù)發(fā)展背景
人和計(jì)算機(jī)隔離(不同房間),一起參加問題測試要實(shí)現(xiàn)人工智能,必備基礎(chǔ):理解語言、學(xué)習(xí)、記憶、推理、決策機(jī)器學(xué)習(xí)(MachineLearning,ML):因其在很多領(lǐng)域的出色表現(xiàn)逐漸成為熱門學(xué)科機(jī)器學(xué)習(xí)的主要目的:設(shè)計(jì)和分析一些學(xué)習(xí)算法,讓計(jì)算機(jī)從數(shù)據(jù)中獲得一些決策函數(shù),從而可以幫助人們解決一些特定任務(wù),提高效率。機(jī)器學(xué)習(xí)涉及:概率論、統(tǒng)計(jì)學(xué)、逼近論、凸分析、計(jì)算復(fù)雜性理論等智能技術(shù)發(fā)展背景
人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork,ANN),也簡稱神經(jīng)網(wǎng)絡(luò),是眾多機(jī)器學(xué)習(xí)算法中比較接近生物神經(jīng)網(wǎng)絡(luò)特性的數(shù)學(xué)模型。人工神經(jīng)網(wǎng)絡(luò)通過模擬生物神經(jīng)網(wǎng)絡(luò)(大腦)的結(jié)構(gòu)和功能,由大量的節(jié)點(diǎn)(或稱“神經(jīng)元”,或“單元”)和之間相互聯(lián)接構(gòu)成,可以用來對(duì)數(shù)據(jù)之間的復(fù)雜關(guān)系進(jìn)行建模。智能技術(shù)發(fā)展背景
感知器:是Rosenblatt,1958年提出的可以模擬人類感知能力的數(shù)學(xué)模型,因其結(jié)構(gòu)過于簡單,不能解決簡單的異或(XOR)等線性不可分問題,造成人工神經(jīng)領(lǐng)域發(fā)展的低潮直到1986年,GeoffreyHinton、YannLeCun等人將反向傳播BP算法(Backpropagation,BP)引入到多層感知器,人工神經(jīng)網(wǎng)絡(luò)才重新引起人們的關(guān)注。2000年以后,因?yàn)楫?dāng)時(shí)計(jì)算機(jī)的計(jì)算能力不能支持訓(xùn)練大規(guī)模的神經(jīng)網(wǎng)絡(luò),人工神經(jīng)網(wǎng)絡(luò)又一次陷入低潮。智能技術(shù)發(fā)展背景
2006年,Hinton等發(fā)現(xiàn)多層前饋神經(jīng)網(wǎng)絡(luò)可以先通過逐層預(yù)訓(xùn)練,再用反向傳播算法進(jìn)行精調(diào)的方式進(jìn)行有效學(xué)習(xí)
GPU實(shí)現(xiàn)大規(guī)模并行計(jì)算:計(jì)算機(jī)計(jì)算能力的提高,可以訓(xùn)練大規(guī)模的人工神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)(DeepLearning,DL):從機(jī)器學(xué)習(xí)中的人工神經(jīng)網(wǎng)絡(luò)發(fā)展出來的新領(lǐng)域。智能技術(shù)發(fā)展背景
發(fā)展歷史8/slides/20179/slides/2017機(jī)器學(xué)習(xí):給定一些訓(xùn)練樣本(xi,yi),(其中xi是輸入,yi是需要預(yù)測的目標(biāo)),讓計(jì)算機(jī)自動(dòng)尋找一個(gè)決策函數(shù)f(·)來建立x和y之間的關(guān)系2.機(jī)器學(xué)習(xí)
機(jī)器學(xué)習(xí)≈尋找一個(gè)函數(shù)語音識(shí)別對(duì)話系統(tǒng)f
圖片識(shí)別f
f
“Cat”
“Howareyou”“Hello”“Hi”(你說的內(nèi)容)(系統(tǒng)的回答)有監(jiān)督學(xué)習(xí)(SupervisedLearning)無監(jiān)督學(xué)習(xí)(UnsupervisedLearning)增強(qiáng)學(xué)習(xí)(ReinforcementLearning)(a)機(jī)器學(xué)習(xí)算法的類型有監(jiān)督學(xué)習(xí)
有監(jiān)督學(xué)習(xí):利用一組已知輸入x和輸出y的數(shù)據(jù)對(duì)模型進(jìn)行學(xué)習(xí),在學(xué)習(xí)過程中盡量使輸出標(biāo)記和真實(shí)標(biāo)記y相接近有監(jiān)督學(xué)習(xí)分為回歸和分類回歸問題(Regression):如果輸出y是連續(xù)值(實(shí)數(shù)或連續(xù)整數(shù)),f(x)的輸出也是連續(xù)值,對(duì)于所有已知或未知的(x,y),使得f輸出和y盡可能地一致。損失函數(shù)通常定義為平方誤差有監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)UnsupervisedLearning
無監(jiān)督學(xué)習(xí):是用來學(xué)習(xí)的數(shù)據(jù)不包含輸出目標(biāo),需要學(xué)習(xí)算法自動(dòng)學(xué)習(xí)到一些有價(jià)值的信息。一個(gè)典型的無監(jiān)督學(xué)習(xí)問題就是聚類(Clustering)。增強(qiáng)學(xué)習(xí):也稱強(qiáng)化學(xué)習(xí),強(qiáng)調(diào)如何基于環(huán)境做出一系列的動(dòng)作,以取得最大化的累積收益。每做出一個(gè)動(dòng)作,并不一定立刻得到收益。建立一些準(zhǔn)則:機(jī)器學(xué)習(xí)算法中定義一個(gè)損失函數(shù)
在所有的訓(xùn)練樣本上來評(píng)價(jià)決策函數(shù)的風(fēng)險(xiǎn):風(fēng)險(xiǎn)函數(shù)R根據(jù)已知訓(xùn)練樣本(經(jīng)驗(yàn)數(shù)據(jù))計(jì)算得到,稱經(jīng)驗(yàn)風(fēng)險(xiǎn)學(xué)習(xí)的目標(biāo):找到一個(gè)參數(shù)使得經(jīng)驗(yàn)風(fēng)險(xiǎn)R最?。╞)如何衡量決策函數(shù)的好壞過擬合與欠擬合現(xiàn)象過擬合:在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,在未知數(shù)據(jù)上表現(xiàn)差欠擬合:在訓(xùn)練數(shù)據(jù)和未知數(shù)據(jù)上表現(xiàn)都很差
過擬合和欠擬合可以反映模型的問題,目前機(jī)器學(xué)習(xí)應(yīng)用時(shí)多數(shù)出現(xiàn)的是過擬合現(xiàn)象如何衡量決策函數(shù)的好壞(c)機(jī)器學(xué)習(xí)中概念數(shù)據(jù)是指所有能在計(jì)算機(jī)程序處理的對(duì)象的總稱,可以是數(shù)字、字母和符號(hào)等。在不同的任務(wù)中,表現(xiàn)形式不一樣,比如圖像、聲音、文字、傳感器數(shù)據(jù)等特征從數(shù)據(jù)中抽取的一些可以表征它們特性的數(shù)值稱特征,這些數(shù)值型特征一般可以表示為向量形式,也稱為特征向量
機(jī)器學(xué)習(xí)中概念樣本樣本是按照一定的抽樣規(guī)則從全部數(shù)據(jù)中取出的一部分?jǐn)?shù)據(jù),是實(shí)際觀測得到的數(shù)據(jù)。在有監(jiān)督學(xué)習(xí)中,需要提供一組有輸出目標(biāo)的樣本用來學(xué)習(xí)模型以及檢驗(yàn)?zāi)P偷暮脡摹I疃葘W(xué)習(xí)的三個(gè)步驟步驟1:定義一組函數(shù)步驟2:模型和數(shù)據(jù)擬合
步驟3:選擇最優(yōu)函數(shù)步驟1:定義一組函數(shù)步驟2:訓(xùn)練數(shù)據(jù)準(zhǔn)備訓(xùn)練數(shù)據(jù):圖片和他們的標(biāo)簽學(xué)習(xí)目標(biāo)是在訓(xùn)練數(shù)據(jù)上定義的“5”“0”“4”“1”“3”“2”“9”
“1”學(xué)習(xí)目標(biāo)x1x2……x256……………………16x16=256……y1y2y10y1hasthemaximumvalue學(xué)習(xí)目標(biāo)是……Input:y2hasthemaximumvalueInput:is1is2is0SoftmaxStep3:選擇最優(yōu)函數(shù)3.感知器是最簡單的神經(jīng)網(wǎng)絡(luò),只有一層,一個(gè)神經(jīng)元是由美國計(jì)算機(jī)科學(xué)家Roseblatt1957年提出是線性分類器的經(jīng)典學(xué)習(xí)算法生物神經(jīng)元及細(xì)胞:神經(jīng)細(xì)胞也叫神經(jīng)元,接受信號(hào)并對(duì)之做出反應(yīng),比如傳導(dǎo)興奮神經(jīng)元由樹突、胞體、軸突、髓鞘、神經(jīng)末梢等組成。樹突接受信息,并轉(zhuǎn)換成電信號(hào),軸突傳輸電信號(hào)及處理等,神經(jīng)末梢對(duì)信息進(jìn)行反應(yīng)。感知器感知器生物神經(jīng)元單個(gè)神經(jīng)細(xì)胞狀態(tài)有兩種:興奮和抑制。當(dāng)神經(jīng)細(xì)胞接收到的信號(hào)量總和超過了某個(gè)閾值時(shí),細(xì)胞體就會(huì)興奮,產(chǎn)生電脈沖,然后沿著軸突并通過突觸傳遞到其它神經(jīng)元。
感知器:模擬生物神經(jīng)元行為的機(jī)器有與生物神經(jīng)元相對(duì)應(yīng)的部件,如權(quán)重(突觸)、偏置(閾值)及激活函數(shù)(細(xì)胞體),輸出為0或1。人工智能專家們就從生物神經(jīng)元得到啟發(fā),開始了“神經(jīng)網(wǎng)絡(luò)”的研究。人工神經(jīng)元(Neurons),它是神經(jīng)網(wǎng)絡(luò)的基本單元。神經(jīng)元先獲得輸入,然后執(zhí)行某些數(shù)學(xué)運(yùn)算后,再產(chǎn)生一個(gè)輸出。簡單的感知器模型如圖感知器模型和學(xué)習(xí)算法步驟1:搭建基本模塊——神經(jīng)元一個(gè)2輸入神經(jīng)元實(shí)例步驟2:搭建神經(jīng)網(wǎng)絡(luò)搭建神經(jīng)網(wǎng)絡(luò)過程:有2個(gè)輸入、一個(gè)包含2個(gè)神經(jīng)元的隱藏層(h1和h2)、包含1個(gè)神經(jīng)元的輸出層o1。隱藏層是夾在輸入輸入層和輸出層之間的部分,一個(gè)神經(jīng)網(wǎng)絡(luò)可以有多個(gè)隱藏層把神經(jīng)元的輸入向前傳遞獲得輸出的過程稱為前饋(feedforward)假設(shè)上面的網(wǎng)絡(luò)里所有神經(jīng)元都具有相同的權(quán)重w=[0,1]和偏置b=0,激活函數(shù)都是sigmoid,那么輸出結(jié)果怎樣?h1=h2=f(w?x+b)=f((0×2)+(1×3)+0)=f(3)=0.9526o1=f(w?[h1,h2]+b)=f((0?h1)+(1?h2)+0)=f(0.9526)=0.7216
步驟3:訓(xùn)練神經(jīng)網(wǎng)絡(luò)訓(xùn)練就是一個(gè)優(yōu)化的過程
假設(shè)有一個(gè)數(shù)據(jù)集,包含4個(gè)人的身高、體重和性別:目標(biāo)是訓(xùn)練一個(gè)網(wǎng)絡(luò),根據(jù)體重和身高來推測某人的性別減少神經(jīng)網(wǎng)絡(luò)損失損失函數(shù)實(shí)際上是包含多個(gè)權(quán)重、偏置的多元函數(shù):如果調(diào)整一下w1,損失函數(shù)是會(huì)變大還是變???
目標(biāo):再計(jì)算一下當(dāng)前網(wǎng)絡(luò)的偏導(dǎo)數(shù)?L/?w1:如果增大w1,損失函數(shù)L會(huì)有一個(gè)非常小的增長隨機(jī)梯度下降隨機(jī)梯度下降(SGD)的優(yōu)化算法,定義改變權(quán)重和偏置的方法:η是一個(gè)常數(shù),稱為學(xué)習(xí)率(learningrate),它決定訓(xùn)練網(wǎng)絡(luò)速率的快慢將w1減去η·?L/?w1,就等到了新的權(quán)重w1隨機(jī)梯度下降(續(xù))W權(quán)重調(diào)整方法:當(dāng)?L/?w1是正數(shù)時(shí),w1會(huì)變??;當(dāng)?L/?w1是負(fù)數(shù)時(shí),w1會(huì)變大用這種方法去逐步改變網(wǎng)絡(luò)的權(quán)重w和偏置b,損失函數(shù)會(huì)緩慢地降低,改進(jìn)神經(jīng)網(wǎng)絡(luò)隨機(jī)梯度下降(續(xù))訓(xùn)練流程如下:1)從數(shù)據(jù)集中選擇一個(gè)樣本;
2)計(jì)算損失函數(shù)對(duì)所有權(quán)重和偏置的偏導(dǎo)數(shù);3)使用更新公式更新每個(gè)權(quán)重和偏置;4)回到第1步。隨著學(xué)習(xí)過程的進(jìn)行,損失函數(shù)逐漸減小4.人工神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)是1943年,心理學(xué)家W.S.McCulloch和數(shù)理邏輯學(xué)家W.Pitts建立了神經(jīng)網(wǎng)絡(luò)和數(shù)學(xué)模型,稱為MP模型。1949年,心理學(xué)家提出了突觸聯(lián)系強(qiáng)度可變的設(shè)想60年代,人工神經(jīng)網(wǎng)絡(luò)得到了進(jìn)一步發(fā)展,更完善的神經(jīng)網(wǎng)絡(luò)模型包括感知器和自適應(yīng)線性元件等。人工神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)是一種運(yùn)算模型:由大量的節(jié)點(diǎn)(或稱神經(jīng)元)之間相互聯(lián)接構(gòu)成激勵(lì)函數(shù):每個(gè)節(jié)點(diǎn)代表一種特定的輸出函數(shù),稱為激勵(lì)函數(shù)(activationfunction)。權(quán)重:每兩個(gè)節(jié)點(diǎn)間的連接都代表一個(gè)經(jīng)過加權(quán)的信號(hào),權(quán)值又稱為權(quán)重,相當(dāng)于人工神經(jīng)網(wǎng)絡(luò)的記憶。輸出:網(wǎng)絡(luò)的輸出則依網(wǎng)絡(luò)的連接方式,權(quán)重值和激勵(lì)函數(shù)的不同而不同。人工神經(jīng)網(wǎng)絡(luò)目前,已有近40種神經(jīng)網(wǎng)絡(luò)模型,根據(jù)連接的拓?fù)浣Y(jié)構(gòu),神經(jīng)網(wǎng)絡(luò)模型可以分為:前向網(wǎng)絡(luò):網(wǎng)絡(luò)中各個(gè)神經(jīng)元接受前一級(jí)輸入,并輸出到下一級(jí),網(wǎng)絡(luò)中沒有反饋,實(shí)現(xiàn)信號(hào)從輸入空間到輸出空間的變換,信息處理能力來自于簡單非線性函數(shù)的多次復(fù)合。網(wǎng)絡(luò)結(jié)構(gòu)簡單,易于實(shí)現(xiàn)反饋網(wǎng)絡(luò):網(wǎng)絡(luò)內(nèi)神經(jīng)元間有反饋,信息處理是狀態(tài)的變換,可以用動(dòng)力學(xué)系統(tǒng)理論處理。系統(tǒng)的穩(wěn)定性與聯(lián)想記憶功能有密切關(guān)系。神經(jīng)元
人工神經(jīng)元(Neuron):是構(gòu)成人工神經(jīng)網(wǎng)絡(luò)的基本單元,和感知器非常類似
模擬生物神經(jīng)元特性,接受一組輸入信號(hào)并產(chǎn)出輸出
興奮狀態(tài)與抑制狀態(tài):生物神經(jīng)元有一個(gè)閥值,當(dāng)神經(jīng)元所獲得的輸入信號(hào)的積累效果超過閥值時(shí),它就處于興奮狀態(tài);否則,應(yīng)該處于抑制狀態(tài)。激活函數(shù)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中最常用的激活函數(shù)分別是sigmoid型函數(shù)常用的sigmoid型函數(shù)有l(wèi)ogistic函數(shù)(x)和tanh函數(shù):前饋神經(jīng)網(wǎng)絡(luò)前饋神經(jīng)網(wǎng)絡(luò):比較常用拓?fù)浣Y(jié)構(gòu)結(jié)構(gòu):各神經(jīng)元分別屬于不同的層。每一層的神經(jīng)元可以接收前一層神經(jīng)元的信號(hào),并產(chǎn)生信號(hào)輸出到下一層。第一層叫輸入層,最后一層叫輸出層,其它中間層叫做隱藏層整個(gè)網(wǎng)絡(luò)無反饋,信號(hào)從輸入層向輸出層單向傳播。反向傳播算法(續(xù))反向傳播算法的含義是:第l層的一個(gè)神經(jīng)元的誤差項(xiàng)(或敏感性)是所有與該神經(jīng)元相連的第l+1層的神經(jīng)元的誤差項(xiàng)的權(quán)重和,再乘以該神經(jīng)元激活函數(shù)的梯度。反向傳播網(wǎng)絡(luò)的訓(xùn)練過程可以分為以下三步:1)先前饋計(jì)算每一層的狀態(tài)和激活值,直到最后一層;2)反向傳播計(jì)算每一層的誤差;3)計(jì)算每一層參數(shù)的偏導(dǎo)數(shù),并更新參數(shù)卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)是一種前饋神經(jīng)網(wǎng)絡(luò)
CNN受生物學(xué)上感受野(ReceptiveField)的機(jī)制而提出,感受野主要是指聽覺系統(tǒng)、本體感覺系統(tǒng)和視覺系統(tǒng)中神經(jīng)元的一些性質(zhì)比如在視覺神經(jīng)系統(tǒng)中,一個(gè)神經(jīng)元的感受野是指視網(wǎng)膜上的特定區(qū)域,只有這個(gè)區(qū)域內(nèi)的刺激才能夠激活該神經(jīng)元5.卷積神經(jīng)網(wǎng)絡(luò)為什么要引入CNN在人工的全連接神經(jīng)網(wǎng)絡(luò)中,每相鄰兩層之間的每個(gè)神經(jīng)元之間都是有邊相連的。
當(dāng)輸入層的特征維度變得很高時(shí),這時(shí)全連接網(wǎng)絡(luò)需要訓(xùn)練的參數(shù)就會(huì)增大很多,計(jì)算速度就會(huì)變得很慢
例如一張黑白的28×28的手寫數(shù)字圖片,輸入層的神經(jīng)元就有784(28×28)個(gè)/pingzhe/articles/7263079.html全連接神經(jīng)網(wǎng)絡(luò)需要訓(xùn)練參數(shù)過多若在中間只使用一層隱藏層,參數(shù)w就有784×15=11760多個(gè);若輸入的是28×28帶有顏色的RGB格式的手寫數(shù)字圖片,輸入神經(jīng)元就有28×28×3=2352(RGB有3個(gè)顏色通道)個(gè)。這很容易看出使用全連接神經(jīng)網(wǎng)絡(luò)處理圖像中的需要訓(xùn)練參數(shù)過多的問題。CNN大大減少要訓(xùn)練參數(shù)數(shù)量在卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)中,卷積層的神經(jīng)元只與前一層的部分神經(jīng)元節(jié)點(diǎn)相連,即它的神經(jīng)元間的連接是非全連接的,且同一層中某些神經(jīng)元之間的連接的權(quán)重w和偏移b是共享的(即相同的),這樣大量地減少了需要訓(xùn)練參數(shù)的數(shù)量。卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)CNN的結(jié)構(gòu)一般包含這幾個(gè)層:輸入層:用于數(shù)據(jù)的輸入卷積層:使用卷積核進(jìn)行特征提取和特征映射激勵(lì)層:由于卷積也是一種線性運(yùn)算,因此需要增加非線性映射池化層:進(jìn)行下采樣,對(duì)特征圖稀疏處理,減少數(shù)據(jù)運(yùn)算量。全連接層:通常在CNN的尾部進(jìn)行重新擬合,減少特征信息的損失輸出層:用于輸出結(jié)果卷積神經(jīng)網(wǎng)絡(luò)卷積層
:用卷積來代替全連接全連接前饋神經(jīng)網(wǎng)絡(luò)中,如果第l層有nl
個(gè)神經(jīng)元,第l?1層有n(l?1)
個(gè)神經(jīng)元,連接邊有n(l)×n(l?1)
個(gè),也就是權(quán)重矩陣有n(l)×n(l?1)個(gè)參數(shù)。當(dāng)m和n都很大時(shí),權(quán)重矩陣的參數(shù)非常多,訓(xùn)練的效率會(huì)非常低。如果采用卷積來代替全連接:參數(shù)大大減少卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)卷積層全連接層6.卷積神經(jīng)網(wǎng)絡(luò)及特征
54/slides/2017卷積層55/slides/2017卷積層56/slides/2017卷積層57/slides/2017卷積層58/slides/2017卷積層59/slides/2017卷積層60/slides/2017計(jì)算圖61/slides/2017計(jì)算圖62/slides/2017計(jì)算圖63/slides/2017典型的網(wǎng)絡(luò)結(jié)構(gòu)/slides/2017典型的網(wǎng)絡(luò)結(jié)構(gòu)/slides/2017典型的網(wǎng)絡(luò)結(jié)構(gòu)/slides/2017
簡單的神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)實(shí)例NEURALNETWORKS67/slides/2017
全連接的神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)實(shí)例---全連接結(jié)構(gòu)68/slides/2017卷積神經(jīng)網(wǎng)絡(luò):有卷積也有全連接層神經(jīng)網(wǎng)絡(luò)實(shí)例---卷積神經(jīng)網(wǎng)絡(luò)69/slides/2017全卷積神經(jīng)網(wǎng)絡(luò):只有卷積和反卷積,沒有全連接神經(jīng)網(wǎng)絡(luò)實(shí)例---全卷積神經(jīng)網(wǎng)絡(luò)70/slides/2017參數(shù)個(gè)數(shù)71/slides/2017參數(shù)個(gè)數(shù)72/slides/2017參數(shù)個(gè)數(shù)73/slides/2017參數(shù)個(gè)數(shù)74/slides/2017參數(shù)個(gè)數(shù)75/slides/2017全連接層76/slides/2017多層CNN77/slides/20177.Tensorflow簡介TensorFlow由谷歌人工智能團(tuán)隊(duì)開發(fā)和維護(hù),擁有包括TensorFlowHub、TensorFlowLite、TensorFlowResearchCloud在內(nèi)的多個(gè)項(xiàng)目以及各類應(yīng)用程序接口。自2015年11月9日起,TensorFlow依據(jù)阿帕奇授權(quán)協(xié)議(Apache2.0opensourcelicense)開放源代碼TensorFlow?是一個(gè)基于數(shù)據(jù)流編程的符號(hào)數(shù)學(xué)系統(tǒng),被廣泛應(yīng)用于各類機(jī)器學(xué)習(xí)的編程實(shí)現(xiàn),其前身是谷歌的DistBeliefTensorflow擁有多層級(jí)結(jié)構(gòu),可部署于各類服務(wù)器、被廣泛應(yīng)用于谷歌內(nèi)部的產(chǎn)品開發(fā)和各領(lǐng)域的科學(xué)研究
Tensorflow簡介(續(xù))TensorFlow
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 《CB 562-1968膠管螺紋接頭》專題研究報(bào)告
- 葫蘆島市公安機(jī)關(guān)2025年公開招聘警務(wù)輔助人員備考題庫及答案詳解一套
- 2025年白城市鎮(zhèn)賚縣人社局公開招聘47人備考題庫及參考答案詳解一套
- 中國科學(xué)院武漢病毒研究所第四季度集中招聘20人備考題庫及參考答案詳解1套
- 基于生成式AI的中學(xué)英語課堂閱讀理解能力提升策略研究教學(xué)研究課題報(bào)告
- 2025江蘇無錫市宜興市部分機(jī)關(guān)事業(yè)單位招聘編外人員40人(A類)考試重點(diǎn)題庫及答案解析
- 2025湖南益陽市南縣人武部公開招聘編外聘用人員備考考試試題及答案解析
- 2025年海洋風(fēng)電浮式基礎(chǔ)技術(shù)五年發(fā)展與環(huán)境載荷報(bào)告
- 連南農(nóng)商銀行2026校園招聘備考核心試題附答案解析
- 2025四川內(nèi)江隆昌市響石鎮(zhèn)中心學(xué)校招聘1人考試重點(diǎn)題庫及答案解析
- 銷售新車合同范本
- 2025年濟(jì)寧市檢察機(jī)關(guān)招聘聘用制書記員的備考題庫(31人)帶答案詳解
- 2025年滄州幼兒師范高等??茖W(xué)校招聘真題(行政管理崗)
- 2025國家統(tǒng)計(jì)局齊齊哈爾調(diào)查隊(duì)招聘公益性崗位5人筆試考試參考試題及答案解析
- 雨課堂學(xué)堂在線學(xué)堂云《教育心理學(xué)》單元測試考核答案
- 2025昆明市呈貢區(qū)城市投資集團(tuán)有限公司及下屬子公司第一批招聘(12人)筆試考試參考試題及答案解析
- GB/T 30341-2025機(jī)動(dòng)車駕駛員培訓(xùn)教練場技術(shù)要求
- 2025年脾胃科出科考試題及答案
- 河北省2025年職業(yè)院校嵌入式系統(tǒng)應(yīng)用開發(fā)賽項(xiàng)(高職組)技能大賽參考試題庫(含答案)
- 2025年公需課新質(zhì)生產(chǎn)力試題及答案
- 2025年70歲老年人換新本駕駛證需考三力測試題及答案
評(píng)論
0/150
提交評(píng)論