神經(jīng)網(wǎng)絡(luò)完整版本_第1頁(yè)
神經(jīng)網(wǎng)絡(luò)完整版本_第2頁(yè)
神經(jīng)網(wǎng)絡(luò)完整版本_第3頁(yè)
神經(jīng)網(wǎng)絡(luò)完整版本_第4頁(yè)
神經(jīng)網(wǎng)絡(luò)完整版本_第5頁(yè)
已閱讀5頁(yè),還剩35頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1第二章

Introductionof

ArtificialNeuralNetwork

2一、概述ANN是由大量簡(jiǎn)單的處理單元(神經(jīng)元,neurons)互聯(lián)而成的并行分布式系統(tǒng)。它不是人腦的真實(shí)描述,是對(duì)人腦簡(jiǎn)單的抽象和模擬,反映人腦的基本特征。ANN建立在神經(jīng)科學(xué)、數(shù)學(xué)、物理學(xué)、計(jì)算機(jī)科學(xué)學(xué)科研究的基礎(chǔ)上,是一種新的計(jì)算機(jī)制和模型它可以解決一些傳統(tǒng)算法或傳統(tǒng)計(jì)算機(jī)所難于解決的問(wèn)題。ANN可以用電子線路來(lái)實(shí)現(xiàn),也可以用計(jì)算機(jī)程序來(lái)模擬。3

二、人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)大規(guī)模并行分布處理

大量簡(jiǎn)單的處理單元連接起來(lái),形成大規(guī)模并行分布系統(tǒng),不是簡(jiǎn)單的以網(wǎng)絡(luò)拓?fù)涞目臻g來(lái)代替時(shí)間復(fù)雜性神經(jīng)網(wǎng)絡(luò)本質(zhì)上是大規(guī)模非線性動(dòng)力學(xué)系統(tǒng);其計(jì)算本質(zhì)上可表示為系統(tǒng)狀態(tài)映射或變換。原理上ANN可以充分逼近任意復(fù)雜的非線性關(guān)系4人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)神經(jīng)網(wǎng)絡(luò)的存儲(chǔ)和計(jì)算合二為一,渾然一體。很強(qiáng)的魯棒性和容錯(cuò)性:對(duì)不完全信息的處理處理系統(tǒng)本身的不完全性自學(xué)習(xí),自適應(yīng)

ANN通過(guò)卓越的學(xué)習(xí)能力和過(guò)程,從環(huán)境中獲取知識(shí)和經(jīng)驗(yàn),因此有很強(qiáng)的自適應(yīng)能力,這是ANN最重要的特點(diǎn)。

Non-algorithmic;non-programming;對(duì)比數(shù)字計(jì)算機(jī)的離散計(jì)算和精確計(jì)算,神經(jīng)計(jì)算是模擬計(jì)算,不精確計(jì)算,善于聯(lián)想,形象思維、類比、直覺(jué)等計(jì)算——右腦功能5人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)存儲(chǔ)與映射

1、RAM方式(RandomAccessMemory)

–隨機(jī)訪問(wèn)方式是將地址映射到數(shù)據(jù)。

2、CAM方式(ContentAddressableMemory)

–內(nèi)容尋址方式是將數(shù)據(jù)映射到存儲(chǔ)器地址。

3、AM方式(AssociativeMemory)

–聯(lián)想存儲(chǔ)方式是將數(shù)據(jù)映射到數(shù)據(jù)。

后兩種方式是人工神經(jīng)網(wǎng)絡(luò)的工作方式。

?在學(xué)習(xí)/訓(xùn)練期間,人工神經(jīng)網(wǎng)絡(luò)以CAM方式工作→權(quán)矩陣,又被稱為網(wǎng)絡(luò)的長(zhǎng)期存儲(chǔ)器(LongTermMemory,LTM)。

?網(wǎng)絡(luò)在正常工作階段是以AM方式工作的;神經(jīng)元的狀態(tài)表示的模式為短期存儲(chǔ)(ShortTermMemory,STM)6四、fromBNNtoANNBNN人類大腦皮層大約有100億個(gè)神經(jīng)元BiologicalNeuralSystemsNeuronswitchingtime:>secs

(Computertakessecs)

Numberofneuronsinthehumanbrain:~Connections(synapses)perneuron:~HighdegreeofparallelcomputationDistributedrepresentations7biologicalneuronaxonDendriteofanotherneyronsynapse樹突(Dentrite):輸入端軸突(Axon):信息傳導(dǎo),其端部的神經(jīng)末梢(terminals)為輸出端axonterminalDendritenucleuscellbodyfromBNNtoANN8fromBNNtoANN

突觸(Synapse):

軸突(輸出)和樹突(輸入)接口通過(guò)此突觸,一個(gè)神經(jīng)元的輸出神經(jīng)脈沖信號(hào)傳輸?shù)搅硪粋€(gè)神經(jīng)元每個(gè)細(xì)胞有

∽個(gè)突觸9fromBNNtoANN突觸間隙處進(jìn)行量子化學(xué)或電化學(xué)反映,實(shí)現(xiàn)D/A轉(zhuǎn)換電脈沖→神經(jīng)化學(xué)物質(zhì)→膜電位變化興奮型和抑制型(excitatoryorinhibitory)

---有膜電位閾值決定可塑性:突觸的信息傳輸特性是可變的,即可強(qiáng)可弱,可正可負(fù)

---學(xué)習(xí)記憶的基礎(chǔ)

時(shí)空整合性時(shí)間整合:不同時(shí)間的神經(jīng)刺激沖動(dòng)在同一突觸上整合空間整合:同一時(shí)間中不同突觸處膜電位整合

延時(shí)和不應(yīng)期:遺忘和疲勞

相鄰的兩次沖動(dòng)之間需要一個(gè)時(shí)間間隔,其間,不傳遞神經(jīng)沖動(dòng)10fromBNNtoANN

生物神經(jīng)元是一個(gè)多輸入,單輸出的信息處理單元,單輸出可以被分枝為多個(gè)并行輸出(具有相同輸出值),以便輸入到多個(gè)其它神經(jīng)元。每個(gè)神經(jīng)元僅進(jìn)行局部的信息處理:

對(duì)所有輸入信號(hào)用synapse加權(quán)求和用激勵(lì)函數(shù)對(duì)加權(quán)和進(jìn)行處理并輸出

Modelingbiologicalneuron11fromBNNtoANN

ArtificialNeuralNetwork12

InputvaluesweightsSummingfunctionBias(threshhold)θActivationfunctionuOutputyx1x2xmw2wmw1f(u)input/output:

Binary{0,1}Bipolar{-1,1}ContinuousfromBNNtoANNArtificialNeuronModel13fromBNNtoANN

InputvaluesweightsSummingfunctionActivationfunctionuOutputyx1x2xmw2wmw1f(u)

Bias可以等效為一個(gè)權(quán),對(duì)應(yīng)一個(gè)外加的固定輸入w0X0=-1w0=θ14

Step(threshold)function

StepfunctionSignfunctionActivationfunctionsforunitsu+1-1

Signfunction

+10fromBNNtoANN15SigmoidfunctionS-shapedContinuousandeverywheredifferentiableRotationallysymmetricaboutsomepointAsymptoticallyapproachsaturationpointsuf(u)+1HyperbolictangentFunction+1-1反映了不應(yīng)期的飽和特性改變?chǔ)量筛淖兒瘮?shù)斜率,即改變激勵(lì)特性,這對(duì)收斂性有一定影響fromBNNtoANN16GaussianfunctionBell-shaped(radialbasis)Continuousf(u)asymptoticallyapproaches0(orsomeconstant)when|u|islargeSinglemaximum(whenu=

)Example:

GaussianfunctionfromBNNtoANN

17Stochastic

functionwhereTispseudotemparature

T0,reducedtodeterministicformWithprobabilityP(u)Withprobability1-P(u)fromBNNtoANN18

五、DimensionsofaNeuralNetwork一個(gè)神經(jīng)網(wǎng)絡(luò)的性能主要取決于以下三方面neuronmodel:神經(jīng)網(wǎng)絡(luò)的信息處理單元architecture:一組單元和連接拓?fù)鋖earningalgorithm:用訓(xùn)練樣本來(lái)調(diào)整權(quán)重,使得神經(jīng)網(wǎng)絡(luò)能學(xué)會(huì)解決問(wèn)題的知識(shí)和經(jīng)驗(yàn)神經(jīng)網(wǎng)絡(luò)分類:連續(xù)型和離散型;確定型和隨機(jī)型前饋型(feedforwardnetwork)和反饋型(recurrentnetwork);有教師學(xué)習(xí)(supervisedlearning)和無(wú)教師學(xué)習(xí)(unsupervisedlearning)一階線性關(guān)聯(lián)網(wǎng)絡(luò)和高階非線性關(guān)聯(lián)網(wǎng)絡(luò)19DimensionsofaNeuralNetwork

NeuralNetworkArchitectures

前饋網(wǎng)絡(luò)(FeedforwardNetworks)

神經(jīng)元分層組織,信息流從輸入層到輸出層,每一層的神經(jīng)元只接受前一層神經(jīng)元的輸入。

Inputnodes:receiveinputfromtheenvironmentOutputnodes:sendsignalstotheenvironmentHiddennodes:nodirectinteractiontotheenvironment

SinglelayerMultiplelayer20DimensionsofaNeuralNetworkLinksareunidirectional,andtherearenocycles,i.e.,thenetworkisadirectedacyclicgraph(DAG).Unitsarearrangedinlayers,andeachunitislinkedonlytounitsinthenextlayer.Thereisnointernalstateotherthantheweights從學(xué)習(xí)的觀點(diǎn)來(lái)看,前饋網(wǎng)絡(luò)是一種強(qiáng)有力的學(xué)習(xí)系統(tǒng),其結(jié)構(gòu)簡(jiǎn)單而易于編程;從系統(tǒng)的觀點(diǎn)看,前饋網(wǎng)絡(luò)是一靜態(tài)非線性映射,通過(guò)簡(jiǎn)單非線性處理單元的復(fù)合映射,可獲得復(fù)雜的非線性處理能力。但從計(jì)算的觀點(diǎn)看,缺乏豐富的動(dòng)力學(xué)行為。大部分前饋網(wǎng)絡(luò)的分類能力和模式識(shí)別能力一般都強(qiáng)于反饋網(wǎng)絡(luò),典型的前饋網(wǎng)絡(luò)有感知器網(wǎng)絡(luò)、BP網(wǎng)絡(luò)等。特點(diǎn):21DimensionsofaNeuralNetwork反饋網(wǎng)絡(luò)(RecurrentNetworks):atleastonefeedbackloopwithorwithouthiddenlayerRecurrentnetworkwithhiddenlayerRecurrentnetworkwithouthiddenlayer22DimensionsofaNeuralNetwork連接可形成任意拓?fù)湫螒B(tài).有復(fù)雜的動(dòng)力學(xué)行為有系統(tǒng)內(nèi)部狀態(tài)系統(tǒng)可呈不穩(wěn)定、振蕩或混沌狀態(tài)一般對(duì)稱連接

(wij=wji)可時(shí)延訓(xùn)練較難更有生理基礎(chǔ)特點(diǎn)反饋神經(jīng)網(wǎng)絡(luò)是一種反饋動(dòng)力學(xué)系統(tǒng),它需要工作一段時(shí)間才能達(dá)到穩(wěn)定。Hopfield神經(jīng)網(wǎng)絡(luò)是反饋網(wǎng)絡(luò)中最簡(jiǎn)單且應(yīng)用廣泛的模型,它具有聯(lián)想記憶(Content一AddressibleMemory,CAM)的功能,如果將Lyapunov函數(shù)定義為尋優(yōu)函數(shù),Hopfie1d神經(jīng)網(wǎng)絡(luò)還可以用來(lái)解決快速尋優(yōu)問(wèn)題。23DimensionsofaNeuralNetworkModularnetsConsistsofseveralmodules,eachofwhichisaneuralnetforaparticularsub-problemSparseconnectionsbetweenmodules24Class1SubnetworkClass2SubnetworkClass3SubnetworkIIntegrateSubnetworkModulesLinkstobegrownLinkswithvaluespreservedFinalTrainingPhaseFinalNetwork25SelectionofanappropriatearchitectureLearningisaprocessbywhichthefreeparameters(linksorweights)ofaneuralnetworkareadaptedthroughaprocessofstimulationbytheenvironmentinwhichthenetworkisembedded.Thetypeofthelearningisdeterminedbythemannerinwhichtheparameterchangestakeplace.TheprocessofadjustingtheweightsisreferredtoasaLearningAlgorithm.六、NeuralNetworkLearning

學(xué)習(xí)是體現(xiàn)人工神經(jīng)網(wǎng)絡(luò)智能特性的主要標(biāo)志,離開了學(xué)習(xí)算法,人工神經(jīng)網(wǎng)絡(luò)就失去了自適應(yīng)、自組織和自學(xué)習(xí)的能力。26NeuralNetworkLearning

學(xué)習(xí)類型有教師學(xué)習(xí)(Supervisedlearning)Networkisprovidedwithasetofexamplesofpropernetworkbehavior(inputs/targets)需要一組訓(xùn)練樣本。更確切地講是一組樣本對(duì),每個(gè)樣本對(duì)包含輸入和對(duì)應(yīng)的期望輸出,即教師信號(hào)。27Theteacherhasknowledgeoftheenvironment六、NeuralNetworkLearning28Determineweights(learningknowledge)

評(píng)估六、NeuralNetworkLearning基于評(píng)估值調(diào)整權(quán)重值29無(wú)教師學(xué)習(xí)(Unsupervisedlearning)

不需要或者不知道教師信號(hào):輸入模式進(jìn)人網(wǎng)絡(luò)后,網(wǎng)絡(luò)按照一預(yù)先設(shè)定的規(guī)則(如競(jìng)爭(zhēng)規(guī)則)自動(dòng)調(diào)整權(quán)值,神經(jīng)網(wǎng)絡(luò)必須在訓(xùn)練中找到輸入樣本的相互關(guān)系,并對(duì)輸入形成內(nèi)部表示NN(權(quán)矩陣)評(píng)估教師信號(hào)輸出輸入NN(權(quán)矩陣)輸入評(píng)估輸出六、NeuralNetworkLearning有教師學(xué)習(xí)無(wú)教師學(xué)習(xí)30強(qiáng)化學(xué)習(xí)技術(shù)是從控制理論、統(tǒng)計(jì)學(xué)、心理學(xué)等相關(guān)學(xué)科發(fā)展而來(lái),最早可以追溯到巴甫洛夫的條件反射實(shí)驗(yàn)。人類通常從與外界環(huán)境的交互中學(xué)習(xí)。所謂強(qiáng)化(reinforcement)學(xué)習(xí)是指從環(huán)境狀態(tài)到行為映射的學(xué)習(xí),以使系統(tǒng)行為從環(huán)境中獲得的累積獎(jiǎng)勵(lì)值最大。在強(qiáng)化學(xué)習(xí)中,我們?cè)O(shè)計(jì)算法來(lái)把外界環(huán)境轉(zhuǎn)化為最大化獎(jiǎng)勵(lì)量的方式的動(dòng)作。我們并沒(méi)有直接告訴主體要做什么或者要采取哪個(gè)動(dòng)作,而是主體通過(guò)看哪個(gè)動(dòng)作得到了最多的獎(jiǎng)勵(lì)來(lái)自己發(fā)現(xiàn)。主體的動(dòng)作的影響不只是立即得到的獎(jiǎng)勵(lì),而且還影響接下來(lái)的動(dòng)作和最終的獎(jiǎng)勵(lì)。強(qiáng)化學(xué)習(xí)(Reinforcementlearning)介于上述兩者之間的一種學(xué)習(xí)方式。六、NeuralNetworkLearning31主體i:inputr:rewards:statea:action狀態(tài)sisi+1ri+1獎(jiǎng)勵(lì)ri環(huán)境動(dòng)作

aia0a1a2s0s1s2s3六、NeuralNetworkLearning32

Absenceofateacher,Networkisonlyprovidedwithagrade,orscore(payoff),whichindicatesnetworkperformanceLearnactiontomaximizepayoffNotmuchinformationinapayoffsignalPayoffisoftendelayedSuccessfullyappliedtoscheduling,control,gameplayingReinforcementlearningiscloselyrelatedtodynamicprogramming.Reinforcementlearning:六、NeuralNetworkLearning3334LearningRulesError-correctionlearning<-optimumfilteringHebbianlearning<-neurobiologicalCompetitivelearning<-neurobiologicalBoltzmannlearning<-statisticalmechanics六、NeuralNetworkLearning35①Hebbianlearning

rule(相關(guān)學(xué)習(xí)):

在某個(gè)模式中,如果一個(gè)權(quán)兩邊的神經(jīng)元同時(shí)激活,權(quán)將增強(qiáng),以穩(wěn)定該模式。如異步激活,則權(quán)減弱或消失。第n步學(xué)習(xí)時(shí):Localmechanism(spatiotemporalcontiguity)Time-dependentmechanismConjunctionalorcorrelationalmechanismUnsupervisedlearningrule六、NeuralNetworkLearning36

②Error-CorrectionLearningrule

(delta(δ)ruleorWidrow-Hoffrule)ij

神經(jīng)元i的實(shí)際輸出為

其教師信號(hào)為

實(shí)際輸出與期望輸出之間的誤差:-

設(shè)代價(jià)函數(shù)(誤差函數(shù)):反復(fù)調(diào)整權(quán)重,使代價(jià)函數(shù)為最小學(xué)習(xí)過(guò)程中,基于誤差反復(fù)調(diào)整權(quán)重,使得實(shí)際輸出逐漸接近期望輸出,即誤差逐漸變小六、NeuralNetworkLearningsupervisedlearning37③Competitiv

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論