版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
神經(jīng)網(wǎng)絡基本原理1第1頁,共77頁,2023年,2月20日,星期六
人工神經(jīng)網(wǎng)絡(
ANN,ArtificialNeuralNetwork)也簡稱為神經(jīng)網(wǎng)絡(NN),是由大量的簡單處理單元經(jīng)廣泛并行互連形成的一種網(wǎng)絡系統(tǒng)。它是對人腦系統(tǒng)的簡化、抽象和模擬,具有人腦功能的許多基本特征。
目前,人工神經(jīng)網(wǎng)絡已成為許多高科技領域的一個熱門話題。在人工智能領域,它已實際應用于決策支持、模式識別、專家系統(tǒng)、機器學習等許多方面。第2頁,共77頁,2023年,2月20日,星期六
由于神經(jīng)網(wǎng)絡是多學科交叉的產(chǎn)物,各個相關的學科領域?qū)ι窠?jīng)網(wǎng)絡都有各自的看法,因此,關于神經(jīng)網(wǎng)絡的定義,在科學界存在許多不同的見解。目前使用得較廣泛的是T.Koholen(芬蘭赫爾辛基技術大學)的定義,即"神經(jīng)網(wǎng)絡是由具有適應性的簡單單元組成的廣泛并行互連的網(wǎng)絡,它的組織能夠模擬生物神經(jīng)系統(tǒng)對真實世界物體所作出的交互反應。"
第3頁,共77頁,2023年,2月20日,星期六
人腦的基本組成是腦神經(jīng)細胞,大量腦神經(jīng)細胞相互聯(lián)接組成人的大腦神經(jīng)網(wǎng)絡,完成各種大腦功能。而人工神經(jīng)網(wǎng)絡則是由大量的人工神經(jīng)細胞(神經(jīng)元)經(jīng)廣泛互連形成的人工網(wǎng)絡,以此模擬人類神經(jīng)系統(tǒng)的結(jié)構(gòu)和功能。
了解人腦神經(jīng)網(wǎng)絡的組成和原理,有助于對人工神經(jīng)網(wǎng)絡的理解。第4頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡概述人體神經(jīng)結(jié)構(gòu)與特征雖然神經(jīng)元的形態(tài)各不相同,但是都由細胞體和突起兩大部分組成,而突起又分樹突和軸突。第5頁,共77頁,2023年,2月20日,星期六軸突是由細胞體向外延伸出的所有纖維中最長的一條分枝,用來向外傳遞神經(jīng)元產(chǎn)生的輸出信號。每個神經(jīng)元只發(fā)出一條軸突,短的僅幾個微米,其最大長度可達1m以上。第6頁,共77頁,2023年,2月20日,星期六突觸,在軸突的末端形成了許多很細的分枝,這些分枝叫神經(jīng)末梢。每一條神經(jīng)末梢可以與其他神經(jīng)元形成功能性接觸,該接觸部位稱為突觸。每個神經(jīng)元大約有103~105個突觸,換句話說,每個神經(jīng)元大約與103~105個其它神經(jīng)元有連接,正是因為這些突觸才使得全部大腦神經(jīng)元形成一個復雜的網(wǎng)絡結(jié)構(gòu)。所謂功能性接觸,突觸的信息傳遞特性可變,因此細胞之間的連接強度可變,這是一種柔性連接,也稱為神經(jīng)元結(jié)構(gòu)的可塑性,這正是神經(jīng)元之間傳遞信息的奧秘之一。第7頁,共77頁,2023年,2月20日,星期六樹突是指由細胞體向外延伸的除軸突以外的其他所有分支。不同的神經(jīng)元其樹突的數(shù)量也不同,長度較短,但數(shù)量很多,它是神經(jīng)元的輸入端,用于接受從其他神經(jīng)元的突觸傳來的信號。細胞體是神經(jīng)元的主體,胞體和樹突表面是接受的其他神經(jīng)元傳來的信號的主要部位。第8頁,共77頁,2023年,2月20日,星期六 神經(jīng)元中的細胞體相當于一個初等處理器,它對來自其他各個神經(jīng)元的信號進行總體求和,并產(chǎn)生一個神經(jīng)輸出信號。由于細胞膜將細胞體內(nèi)外分開,因此,在細胞體的內(nèi)外具有不同的電位,通常是內(nèi)部電位比外部電位低。細胞膜內(nèi)外的電位之差被稱為膜電位。在無信號輸入時的膜電位稱為靜止膜電位。當一個神經(jīng)元的所有輸入總效應達到某個閾值電位時,該細胞變?yōu)榛钚约毎せ睿?,其膜電位將自發(fā)地急劇升高產(chǎn)生一個電脈沖。這個電脈沖又會從細胞體出發(fā)沿軸突到達神經(jīng)末梢,并經(jīng)與其他神經(jīng)元連接的突觸,將這一電脈沖傳給相應的神經(jīng)元。第9頁,共77頁,2023年,2月20日,星期六生物神經(jīng)元的功能與特征 根據(jù)神經(jīng)生理學的研究,生物神經(jīng)元具有如下重要功能與特性。(1)時空整合功能
神經(jīng)元對不同時間通過同一突觸傳入的神經(jīng)沖動,具有時間整合功能。對于同一時間通過不同突觸傳入的神經(jīng)沖動,具有空間整合功能。兩種功能相互結(jié)合,使生物神經(jīng)元對由突觸傳入的神經(jīng)沖動具有時空整合的功能。
(2)興奮與抑制狀態(tài)
神經(jīng)元具有興奮和抑制兩種常規(guī)的工作狀態(tài)。當傳入沖動的時空整合結(jié)果使細胞膜電位升高,超過動作電位的閾值時,細胞進入興奮狀態(tài),產(chǎn)生神經(jīng)沖動。相反,當傳入沖動的時空整合結(jié)果使細胞膜電位低于動作電位閾值時,細胞進入抑制狀態(tài),無神經(jīng)沖動輸出。
第10頁,共77頁,2023年,2月20日,星期六 (3)脈沖與電位轉(zhuǎn)換
突觸界面具有脈沖/電位信號轉(zhuǎn)化功能。沿神經(jīng)纖維傳遞的信號為離散的電脈沖信號,而細胞膜電位的變化為連續(xù)的電位信號。這種在突觸接口處進行的“數(shù)/模”轉(zhuǎn)換,是通過神經(jīng)介質(zhì)以量子化學方式實現(xiàn)的如下過程:電脈沖→神經(jīng)化學物質(zhì)→膜電位 (4)神經(jīng)纖維傳導速率
神經(jīng)沖動沿神經(jīng)纖維傳導的速度在1m/s~150m/s之間。其速度差異與纖維的粗細、髓鞘(包繞在神經(jīng)元的軸突外部的物質(zhì),起絕緣作用)的有無有關。一般來說,有髓鞘的纖維,其傳導速度在100m/s以上,無髓鞘的纖維,其傳導速度可低至每秒數(shù)米。第11頁,共77頁,2023年,2月20日,星期六人腦神經(jīng)系統(tǒng)的結(jié)構(gòu)與特征
(1)記憶和存儲功能
人腦神經(jīng)系統(tǒng)的記憶和處理功能是有機地結(jié)合在一起的。神經(jīng)元既有存儲功能,又有處理功能,它在進行回憶時不僅不需要先找到存儲地址再調(diào)出所存內(nèi)容,而且還可以由一部分內(nèi)容恢復全部內(nèi)容。尤其是當一部分神經(jīng)元受到損壞(例如腦部受傷等)時,它只會丟失損壞最嚴重部分的那些信息,而不會丟失全部存儲信息。第12頁,共77頁,2023年,2月20日,星期六人腦神經(jīng)系統(tǒng)的結(jié)構(gòu)與特征
(2)高度并行性
人腦大約有1011~1012個神經(jīng)元,每個神經(jīng)元又有103~105個突觸,即每個神經(jīng)元都可以和其他103~105個神經(jīng)元相連,這就提供了非常巨大的存儲容量和并行度。例如,人可以非常迅速地識別出一幅十分復雜的圖像。
第13頁,共77頁,2023年,2月20日,星期六
(3)分布式功能
人們通過對腦損壞病人所做的神經(jīng)心理學研究,沒有發(fā)現(xiàn)大腦中的哪一部分可以決定其余所有各部分的活動,也沒有發(fā)現(xiàn)在大腦中存在有用于驅(qū)動和管理整個智能處理過程的任何中央控制部分。人類大腦的各個部分是協(xié)同工作、相互影響的,并沒有哪一部分神經(jīng)元能對智能活動的整個過程負有特別重要的責任??梢姡诖竽X中,不僅知識的存儲是分散的,而且其控制和決策也是分散的。因此,大腦是一種分布式系統(tǒng)。第14頁,共77頁,2023年,2月20日,星期六
(4)容錯功能
容錯性是指根據(jù)不完全的、有錯誤的信息仍能做出正確、完整結(jié)論的能力。大腦的容錯性是非常強的。例如,我們往往能夠僅由某個人的一雙眼睛、一個背影、一個動作或一句話的音調(diào),就能辨認出來這個人是誰。第15頁,共77頁,2023年,2月20日,星期六
(5)聯(lián)想功能
人腦不僅具有很強的容錯功能,還有聯(lián)想功能。善于將不同領域的知識結(jié)合起來靈活運用,善于概括、類比和推理。例如,一個人能很快認出多年不見、面貌變化較大的老朋友。
(6)自組織和自學習功能
人腦能夠通過內(nèi)部自組織、自學習能力不斷適應外界環(huán)境,從而可以有效地處理各種模擬的、模糊的或隨機的問題。第16頁,共77頁,2023年,2月20日,星期六人工神經(jīng)元及人工神經(jīng)網(wǎng)絡
人工神經(jīng)元的結(jié)構(gòu)
如同生物學上的基本神經(jīng)元,人工的神經(jīng)網(wǎng)絡也有基本的神經(jīng)元。人工神經(jīng)元是對生物神經(jīng)元的抽象與模擬。所謂抽象是從數(shù)學角度而言的,所謂模擬是從其結(jié)構(gòu)和功能角度而言的。
從人腦神經(jīng)元的特性和功能可以知道,神經(jīng)元是一個多輸入單輸出的信息處理單元,其模型如下圖所示:神經(jīng)元模型θx1x2xnyω1ω2ωn第17頁,共77頁,2023年,2月20日,星期六人工神經(jīng)元及人工神經(jīng)網(wǎng)絡神經(jīng)元模型θx1x2xnyω1ω2ωn第18頁,共77頁,2023年,2月20日,星期六人工神經(jīng)元及人工神經(jīng)網(wǎng)絡M-P模型
M-P模型屬于一種閾值元件模型,它是由美國心理學家McCulloch和數(shù)學家Pitts提出的最早(1943)神經(jīng)元模型之一。M-P模型是大多數(shù)神經(jīng)網(wǎng)絡模型的基礎。第19頁,共77頁,2023年,2月20日,星期六
在如圖所示的模型中,x1,x2,…,xn表示某一神經(jīng)元的n個輸入;ωi表示第i個輸入的連接強度,稱為連接權值;θ為神經(jīng)元的閾值;y為神經(jīng)元的輸出??梢钥闯?,人工神經(jīng)元是一個具有多輸入,單輸出的非線性器件。
神經(jīng)元模型的輸入是∑ωi
xi
(i=1,2,……,n)
輸出是
y=f(σ)=f(∑ωi
xi
–
θ)
其中f稱之為神經(jīng)元功能函數(shù)(作用函數(shù),轉(zhuǎn)移函數(shù),傳遞函數(shù),激活函數(shù))。注:可以令x0=
-1,w0=θ,這樣將閾值作為權值來看待。神經(jīng)元模型θx1x2xnyω1ω2ωn第20頁,共77頁,2023年,2月20日,星期六常用的人工神經(jīng)元模型
功能函數(shù)f是表示神經(jīng)元輸入與輸出之間關系的函數(shù),根據(jù)功能函數(shù)的不同,可以得到不同的神經(jīng)元模型。常用的神經(jīng)元模型有以下幾種。 (1)閾值型(Threshold)
這種模型的神經(jīng)元沒有內(nèi)部狀態(tài),作用函數(shù)f是一個階躍函數(shù),它表示激活值σ和其輸出f(σ)之間的關系,如圖5-3所示。σ
f(σ)10圖
5-3閾值型神經(jīng)元的輸入/輸出特性
第21頁,共77頁,2023年,2月20日,星期六 閾值型神經(jīng)元是一種最簡單的人工神經(jīng)元。這種二值型神經(jīng)元,其輸出狀態(tài)取值1或0,分別代表神經(jīng)元的興奮和抑制狀態(tài)。任一時刻,神經(jīng)元的狀態(tài)由功能函數(shù)f來決定。 當激活值σ>0時,即神經(jīng)元輸入的加權總和超過給定的閾值時,該神經(jīng)元被激活,進入興奮狀態(tài),其狀態(tài)f(σ)為1; 否則,當σ<0時,即神經(jīng)元輸入的加權總和不超過給定的閾值時,該神經(jīng)元不被激活,其狀態(tài)f(σ)為0。第22頁,共77頁,2023年,2月20日,星期六
(2)分段線性強飽和型(LinearSaturation)這種模型又稱為偽線性,其輸入/輸出之間在一定范圍內(nèi)滿足線性關系,一直延續(xù)到輸出為最大值1為止。但當達到最大值后,輸出就不再增大。如圖5-4所示。圖
5-4分段線性飽和型神經(jīng)元的輸入/輸出特性
f(σ)σ01第23頁,共77頁,2023年,2月20日,星期六 (3)S型(Sigmoid)
這是一種連續(xù)的神經(jīng)元模型,其輸出函數(shù)也是一個有最大輸出值的非線性函數(shù),其輸出值是在某個范圍內(nèi)連續(xù)取值的,輸入輸出特性常用S型函數(shù)表示。它反映的是神經(jīng)元的飽和特性,如圖5-5所示。σf(σ)圖5-5S型神經(jīng)元的輸入/輸出特性10第24頁,共77頁,2023年,2月20日,星期六
(4)子閾累積型(SubthresholdSummation)
這種類型的作用函數(shù)也是一個非線性函數(shù),當產(chǎn)生的激活值超過T值時,該神經(jīng)元被激活產(chǎn)生一個反響。在線性范圍內(nèi),系統(tǒng)的反響是線性的,如圖5-6所示。σf(σ)T01圖5-6子閾累積型神經(jīng)元的輸入/輸出特性第25頁,共77頁,2023年,2月20日,星期六
從生理學角度看,階躍函數(shù)(閾值型)最符合人腦神經(jīng)元的特點,事實上,人腦神經(jīng)元正是通過電位的高低兩種狀態(tài)來反映該神經(jīng)元的興奮與抑制。然而,由于階躍函數(shù)不可微,因此,實際上更多使用的是與之相仿的Sigmoid函數(shù)。第26頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡
人工神經(jīng)網(wǎng)絡是對人類神經(jīng)系統(tǒng)的一種模擬。盡管人類神經(jīng)系統(tǒng)規(guī)模宏大、結(jié)構(gòu)復雜、功能神奇,但其最基本的處理單元卻只有神經(jīng)元。人工神經(jīng)系統(tǒng)的功能實際上是通過大量神經(jīng)元的廣泛互連,以規(guī)模宏偉的并行運算來實現(xiàn)的。
基于對人類生物系統(tǒng)的這一認識,人們也試圖通過對人工神經(jīng)元的廣泛互連來模擬生物神經(jīng)系統(tǒng)的結(jié)構(gòu)和功能。第27頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡
人工神經(jīng)元之間通過互連形成的網(wǎng)絡稱為人工神經(jīng)網(wǎng)絡。在人工神經(jīng)網(wǎng)絡中,神經(jīng)元之間互連的方式稱為連接模式或連接模型。它不僅決定了神經(jīng)元網(wǎng)絡的互連結(jié)構(gòu),同時也決定了神經(jīng)網(wǎng)絡的信號處理方式。第28頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡的分類
目前,已有的人工神經(jīng)網(wǎng)絡模型至少有幾十種,其分類方法也有多種。例如: 1)按網(wǎng)絡拓撲結(jié)構(gòu)可分為層次型結(jié)構(gòu)和互連型結(jié)構(gòu)
2)按信息流向可分為前饋型網(wǎng)絡與有反饋型網(wǎng)絡;
3)按網(wǎng)絡的學習方法可分為有教師的學習網(wǎng)絡和無教師的學習網(wǎng)絡;
4)按網(wǎng)絡的性能可分為連續(xù)型網(wǎng)絡與離散型網(wǎng)絡,或分為確定性網(wǎng)絡與隨機型網(wǎng)絡;第29頁,共77頁,2023年,2月20日,星期六神經(jīng)元的模型確定之后,一個神經(jīng)網(wǎng)絡的特性及能力主要取決于網(wǎng)絡的拓撲結(jié)構(gòu)及學習方法第30頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡的互連結(jié)構(gòu)及其學習機理人工神經(jīng)網(wǎng)絡的拓撲結(jié)構(gòu)
建立人工神經(jīng)網(wǎng)絡的一個重要步驟是構(gòu)造人工神經(jīng)網(wǎng)絡的拓撲結(jié)構(gòu),即確定人工神經(jīng)元之間的互連結(jié)構(gòu)。根據(jù)神經(jīng)元之間連接的拓撲結(jié)構(gòu),可將神經(jīng)網(wǎng)絡的互連結(jié)構(gòu)分為層次型網(wǎng)絡和互連型網(wǎng)絡兩大類。層次型網(wǎng)絡結(jié)構(gòu)又可根據(jù)層數(shù)的多少分為單層、兩層及多層網(wǎng)絡結(jié)構(gòu)。第31頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡的互連結(jié)構(gòu)及其學習機理簡單單級網(wǎng)……x1x2…xno1o2onwnmw11w1mw2mwn1輸出層輸入層 第32頁,共77頁,2023年,2月20日,星期六單層網(wǎng)絡結(jié)構(gòu)有時也稱兩層網(wǎng)絡結(jié)構(gòu)
單層或兩層神經(jīng)網(wǎng)絡結(jié)構(gòu)是早期神經(jīng)網(wǎng)絡模型的互連模式,這種互連模式是最簡單的層次結(jié)構(gòu)。1)不允許屬于同一層次間的神經(jīng)元互連。2)允許同一層次間的神經(jīng)元互連,則稱為帶側(cè)抑制的連接(或橫向反饋)。此外,在有些雙層神經(jīng)網(wǎng)絡中,還允許不同層之間有反饋連接。輸出層x1o1w11w1mx2o2w2m………xnomwn1輸入層 V第33頁,共77頁,2023年,2月20日,星期六多層網(wǎng)絡結(jié)構(gòu)
通常把三層和三層以上的神經(jīng)網(wǎng)絡結(jié)構(gòu)稱為多層神經(jīng)網(wǎng)絡結(jié)構(gòu)。所有神經(jīng)元按功能分為若干層。一般有輸入層、隱層(中間層)和輸出層。輸出層隱藏層輸入層o1o2om…x1x2xn………………第34頁,共77頁,2023年,2月20日,星期六多層網(wǎng)絡結(jié)構(gòu)
1)輸入層節(jié)點上的神經(jīng)元接受外部環(huán)境的輸入模式,并由它傳遞給相連隱層上的各個神經(jīng)元。
2)隱層是神經(jīng)元網(wǎng)絡的內(nèi)部處理層,這些神經(jīng)元再在網(wǎng)絡內(nèi)部構(gòu)成中間層,由于它們不直接與外部輸入、輸出打交道,故稱隱層。人工神經(jīng)網(wǎng)絡所具有的模式變換能力主要體現(xiàn)在隱層的神經(jīng)元上。
3)輸出層用于產(chǎn)生神經(jīng)網(wǎng)絡的輸出模式。
較有代表性的多層網(wǎng)絡模型有:前向網(wǎng)絡模型、多層側(cè)抑制神經(jīng)網(wǎng)絡模型和帶有反饋的多層神經(jīng)網(wǎng)絡模型等。
第35頁,共77頁,2023年,2月20日,星期六多層前向神經(jīng)網(wǎng)絡
多層前向神經(jīng)網(wǎng)絡模型如圖5-8所示。輸入模式:由輸入層進入網(wǎng)絡,經(jīng)中間各層的順序變換,最后由輸出層產(chǎn)生一個輸出模式,便完成一次網(wǎng)絡更新。
前向網(wǎng)絡的連接模式不具有側(cè)抑制和反饋的連接方式?!瓐D5-8多層前向神經(jīng)網(wǎng)絡模型第36頁,共77頁,2023年,2月20日,星期六多層側(cè)抑制神經(jīng)網(wǎng) 同一層內(nèi)有相互連接的多層前向網(wǎng)絡,它允許網(wǎng)絡中同一層上的神經(jīng)元之間相互連接,如圖5-9所示。這種連接方式將形成同一層的神經(jīng)元彼此之間的牽制作用,可實現(xiàn)同一層上神經(jīng)元之間的橫向抑制或興奮的機制。這樣可以用來限制同一層內(nèi)能同時激活神經(jīng)元的個數(shù),或者把每一層內(nèi)的神經(jīng)元分成若干組,讓每組作為一個整體來動作?!瓐D5-9多層側(cè)抑制神經(jīng)網(wǎng)絡第37頁,共77頁,2023年,2月20日,星期六帶有反饋的多層神經(jīng)網(wǎng)絡
這是一種允許輸出層-隱層,隱層中各層之間,隱層-輸入層之間具有反饋連接的方式,反饋的結(jié)果將構(gòu)成封閉環(huán)路。x1o1輸出層隱藏層輸入層x2o2omxn…………………第38頁,共77頁,2023年,2月20日,星期六帶有反饋的多層神經(jīng)網(wǎng)絡 這種神經(jīng)網(wǎng)絡和前向多層神經(jīng)網(wǎng)絡不同。多層前向神經(jīng)網(wǎng)絡屬于非循環(huán)連接模式,它的每個神經(jīng)元的輸入都沒有包含該神經(jīng)元先前的輸出,因此可以說是沒有“短期記憶”的。但帶反饋的多層神經(jīng)網(wǎng)絡則不同,它的每個神經(jīng)元的輸入都有可能包含有該神經(jīng)元先前的輸出反饋信息。因此,它的輸出要由當前的輸入和先前的輸出兩者來決定,這有點類似于人類短期記憶的性質(zhì)。第39頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡的運行一般分為學習和工作兩個階段。第40頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡學習
人工神經(jīng)網(wǎng)絡最具有吸引力的特點是它的學習能力。
人工神經(jīng)網(wǎng)絡學習和記憶的心理學基礎
學習和記憶是人類智能的一個重要特征。有一種觀點認為,人類的學習過程實際上是一種經(jīng)過訓練而使個體在行為上產(chǎn)生較為持久改變的過程。按照這種觀點,學習離不開訓練。
第41頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡學習
學習和記憶同樣也應該是人工神經(jīng)網(wǎng)絡的一個重要特征。人工神經(jīng)網(wǎng)絡的學習過程就是它的訓練過程。人工神經(jīng)網(wǎng)絡的功能特性由其連接的拓撲結(jié)構(gòu)和突觸連接強度(即連接權值)來確定。神經(jīng)網(wǎng)絡訓練的實質(zhì)是通過對樣本集的輸入/輸出模式反復作用于網(wǎng)絡,網(wǎng)絡按照一定的學習算法自動調(diào)節(jié)神經(jīng)元之間的連接強度(閾值)或拓撲結(jié)構(gòu),當網(wǎng)絡的實際輸出滿足期望要求,或者趨于穩(wěn)定時,則認為學習圓滿結(jié)束。第42頁,共77頁,2023年,2月20日,星期六現(xiàn)以人工神經(jīng)網(wǎng)絡對手寫“A”、“B”兩個字母的識別為例進行說明,規(guī)定當“A”輸入網(wǎng)絡時,應該輸出“1”,而當輸入為“B”時,輸出為“0”。網(wǎng)絡學習的準則應該是:如果網(wǎng)絡作出錯誤的的判決,則通過網(wǎng)絡的學習,應使得網(wǎng)絡減少下次犯同樣錯誤的可能性。首先,給網(wǎng)絡的各連接權值賦予(0,1)區(qū)間內(nèi)的隨機值,將“A”所對應的圖象模式輸入給網(wǎng)絡,網(wǎng)絡將輸入模式加權求和、與門限比較、再進行非線性運算,得到網(wǎng)絡的輸出。在此情況下,網(wǎng)絡輸出為“1”和“0”的概率各為50%,也就是說是完全隨機的。這時如果輸出為“1”(結(jié)果正確),則使連接權值增大,以便使網(wǎng)絡再次遇到“A”模式輸入時,仍然能作出正確的判斷。如果輸出為“0”(即結(jié)果錯誤),則把網(wǎng)絡連接權值朝著減小綜合輸入加權值的方向調(diào)整,其目的在于使網(wǎng)絡下次再遇到“A”模式輸入時,減小犯同樣錯誤的可能性。如此操作調(diào)整,當給網(wǎng)絡輪番輸入若干個手寫字母“A”、“B”后,經(jīng)過網(wǎng)絡按以上學習方法進行若干次學習后,網(wǎng)絡判斷的正確率將大大提高。這說明網(wǎng)絡對這兩個模式的學習已經(jīng)獲得了成功,它已將這兩個模式分布地記憶在網(wǎng)絡的各個連接權值上。當網(wǎng)絡再次遇到其中任何一個模式時,能夠作出迅速、準確的判斷和識別。一般說來,網(wǎng)絡中所含的神經(jīng)元個數(shù)越多,則它能記憶、識別的模式也就越多。第43頁,共77頁,2023年,2月20日,星期六人工神經(jīng)網(wǎng)絡的學習算法
學習算法是人工神經(jīng)網(wǎng)絡研究中的核心問題
神經(jīng)網(wǎng)絡學習算法有很多,大體可分為有導師學習(SupervisedLearning)、和無導師學習(UnsupervisedLearning)兩大類,另外還有一類死記式學習。第44頁,共77頁,2023年,2月20日,星期六有導師學習一般需要事先收集樣本數(shù)據(jù)。將數(shù)據(jù)分為訓練集和檢驗集兩部分,以保證所訓練出的神經(jīng)網(wǎng)絡同時具有擬合精度和泛化能力。第45頁,共77頁,2023年,2月20日,星期六第46頁,共77頁,2023年,2月20日,星期六第47頁,共77頁,2023年,2月20日,星期六神經(jīng)網(wǎng)絡的學習規(guī)則
日本著名神經(jīng)網(wǎng)絡學者Amari于1990年提出一種神經(jīng)網(wǎng)絡權值訓練的通用學習規(guī)則。η是一正的常量,其值決定了學習的速率,也稱為學習率或?qū)W習因子;
t時刻權值的調(diào)整量與t時刻的輸入量和學習信號r的乘積成正比。第48頁,共77頁,2023年,2月20日,星期六Hebb型學習
Hebb型學習(HebbianLearning)的出發(fā)點是Hebb學習規(guī)則如果神經(jīng)網(wǎng)絡中某一神經(jīng)元同另一直接與它連接的神經(jīng)元同時處于興奮狀態(tài),那么這兩個神經(jīng)元之間的連接強度將得到加強。第49頁,共77頁,2023年,2月20日,星期六Hebb型學習
Hebb學習方式可用如下公式表示:
ωij(t+1)=ωij(t)+η[xi(t)xj(t)]
其中,ωij(t+1)表示對時刻t的權值修正一次后的新的權值;xi(t)、xj(t)分別表示t時刻神經(jīng)元i(輸入)和神經(jīng)元j(輸出)的狀態(tài)。上式表明,權值的調(diào)整量與輸入輸出的乘積成正比。此時的學習信號即輸出信號。這是一種純前饋、無導師學習。該規(guī)則至今仍在各種神經(jīng)網(wǎng)絡模型中起著重要作用。
第50頁,共77頁,2023年,2月20日,星期六誤差修正學習規(guī)則(也稱感知器學習規(guī)則)
誤差修正學習(Error-CorrectionLearning)是一種有導師的學習過程,其基本思想是利用神經(jīng)網(wǎng)絡的期望輸出與實際之間的偏差作為連接權值調(diào)整的參考,并最終減少這種偏差。
最基本的誤差修正規(guī)則規(guī)定:連接權值的變化與神經(jīng)元希望輸出和實際輸出之差成正比。
第51頁,共77頁,2023年,2月20日,星期六誤差修正學習規(guī)則(也稱感知器學習規(guī)則)
該規(guī)則的連接權的計算公式為:
ωij(t+1)=ωij(t)+η[dj(t)-yj(t)]xi(t)
其中,ωij(t)表示時刻t的權值;ωij(t+1)表示對時刻t的權值修正一次后的新的權值;dj(t)為時刻t神經(jīng)元j的希望輸出,yj(t)為與i直接連接的另一神經(jīng)元j在時刻t的實際輸出;dj(t)-yj(t)表示時刻t神經(jīng)元j的輸出誤差。
第52頁,共77頁,2023年,2月20日,星期六δ(Delta)學習規(guī)則
δ學習規(guī)則很容易從輸出值與希望值的最小平方誤差導出來。第53頁,共77頁,2023年,2月20日,星期六感知器模型及其學習(自學習模型)
感知器是美國心理學家羅森勃拉特于1958年為研究大腦的存儲、學習和認知過程而提出的一類具有自學習能力的神經(jīng)網(wǎng)絡模型。最初的感知器只有一個神經(jīng)元,實際上仍然是M-P模型的結(jié)構(gòu),但是它與M-P模型的區(qū)別在于神經(jīng)元之間連接權的變化。通過采用監(jiān)督學習來逐步增強模式劃分的能力,達到所謂學習的目的。感知器研究中首次提出了自組織、自學習的概念,對神經(jīng)網(wǎng)絡的研究起到重要的推動作用,是研究其他網(wǎng)絡的基礎。
第54頁,共77頁,2023年,2月20日,星期六感知器模型及其學習(自學習模型)
感知器模型
感知器是一種具有分層結(jié)構(gòu)的前向網(wǎng)絡模型,它可分為單層、兩層及多層結(jié)構(gòu)。 感知器中的神經(jīng)網(wǎng)絡是線性閾值單元。當輸入信息的加權和大于或等于閾值時,輸出為1,否則輸出為0或-1。神經(jīng)元之間的連接權ωi是可變的,這種可變性就保證了感知器具有學習的能力。第55頁,共77頁,2023年,2月20日,星期六B-P網(wǎng)絡及其學習誤差反向傳播(ErrorBackPropagation):美國加州大學的魯梅爾哈特(Rumelhart)和麥克萊蘭(Meclelland)等學者繼續(xù)深入研究了感知器模型,他們抓住信息處理中的并行性和分布性這兩個本質(zhì)概念,1985年提出了一個神經(jīng)網(wǎng)絡反向傳播模型,簡稱為B-P模型,這個模型既實現(xiàn)了明斯基(Minsky)所提出的多層網(wǎng)絡的設想,又突破了感知器的一些局限性。第56頁,共77頁,2023年,2月20日,星期六B-P網(wǎng)絡及其學習
BP模型利用輸出后的誤差來估計輸出層的直接前導層的誤差,再利用這個誤差估計更前一層的誤差。如此下去,獲得所有其他各層的誤差估計。形成將輸出表現(xiàn)出來的誤差沿著與輸入信號傳送相反的方向逐級向網(wǎng)絡的輸入端傳遞的過程,因此稱為后向傳播(B-P)算法。第57頁,共77頁,2023年,2月20日,星期六B-P網(wǎng)絡及其學習BP模型不僅有輸人層節(jié)點、輸出層節(jié)點,而且有一層或多層隱含節(jié)點。層與層之間多采用全互連方式,但同一層的節(jié)點之間不存在相互連接。………………………第58頁,共77頁,2023年,2月20日,星期六B-P網(wǎng)絡的學習過程是由正向傳播和誤差反向傳播組成的。當給定網(wǎng)絡一組輸入模式時,B-P網(wǎng)絡將依次對這組輸入模式中的每個輸入模式按如下方式進行學習:把輸入模式從輸入層傳到隱含層單元,經(jīng)隱含層單元逐層處理后,產(chǎn)生一個輸出模式傳至輸出層,這一過程稱為正向傳播。第59頁,共77頁,2023年,2月20日,星期六如果經(jīng)正向傳播在輸出層沒有得到所期望的輸出模式,則轉(zhuǎn)為誤差反向傳播過程,即把誤差信號沿原連接路徑返回,并通過修改各層神經(jīng)元的連接權值,使誤差信號為最小。重復正向傳播和反向傳播過程,直至得到所期望的輸出模式為止。第60頁,共77頁,2023年,2月20日,星期六BP網(wǎng)絡除了在多層網(wǎng)絡上與單層感知器不同外,其主要差別也表現(xiàn)在激活函數(shù)上。BP網(wǎng)絡的激活函數(shù)必須是處處可微的,因此它不能采用二值型的閥值函數(shù){0,1}或符號函數(shù){-1,1}BP網(wǎng)絡經(jīng)常使用的是S型的對數(shù)或正切激活函數(shù)和線性函數(shù)第61頁,共77頁,2023年,2月20日,星期六B-P網(wǎng)絡的學習算法: (1)初始化網(wǎng)絡及學習參數(shù),即將隱含層和輸出層各節(jié)點的連接權值、神經(jīng)元閾值賦予[-1,1]區(qū)間的一個隨機數(shù)。
(2)提供訓練樣本,即從訓練樣本集合中選出一個訓練樣本,將其輸入和期望輸出送入網(wǎng)絡。
(3)正向傳播過程,即對給定的輸入,從第一隱含層開始,計算網(wǎng)絡的輸出,并把得到的輸出與期望輸出比較,若有誤差,則執(zhí)行第(4)步;否則,返回第(2)步,提供下一個訓練模式;
(4)反向傳播過程,即從輸出層反向計算到第一隱含層,逐層修正各單元的連接權值。
(5)返回第(2)步,對訓練樣本集中的每一個訓練樣本重復第(2)到第(3)步,直到訓練樣本集中的每一個樣本都滿足期望輸出為止。第62頁,共77頁,2023年,2月20日,星期六函數(shù)名功能newff()生成一個前饋BP網(wǎng)絡tansig()雙曲正切S型(Tan-Sigmoid)傳輸函數(shù)logsig()對數(shù)S型(Log-Sigmoid)傳輸函數(shù)traingd()梯度下降BP訓練函數(shù)MATLAB中BP神經(jīng)網(wǎng)絡的重要函數(shù)和基本功能第63頁,共77頁,2023年,2月20日,星期六MATLAB中BP神經(jīng)網(wǎng)絡的重要函數(shù)和基本功能newff()功能建立一個前向BP網(wǎng)絡格式
net=newff(PR,[S1S2...SN1],{TF1TF2...TFN1},BTF,BLF,PF)說明net為創(chuàng)建的新BP神經(jīng)網(wǎng)絡;PR為網(wǎng)絡輸入取向量取值范圍的矩陣;[S1S2…SNl]表示網(wǎng)絡隱含層和輸出層神經(jīng)元的個數(shù);{TFlTF2…TFN1}表示網(wǎng)絡隱含層和輸出層的傳輸函數(shù),默認為‘tansig’;BTF表示網(wǎng)絡的訓練函數(shù),默認為‘trainlm’;BLF表示網(wǎng)絡的權值學習函數(shù),默認為‘learngdm’;PF表示性能數(shù),默認為‘mse’。第64頁,共77頁,2023年,2月20日,星期六MATLAB中BP神經(jīng)網(wǎng)絡的重要函數(shù)和基本功能tansig()功能正切sigmoid激活函數(shù)格式a=tansig(n)說明雙曲正切Sigmoid函數(shù)把神經(jīng)元的輸入范圍從(-∞,+∞)映射到(-1,1)。它是可導函數(shù),適用于BP訓練的神經(jīng)元。logsig()功能對數(shù)Sigmoid激活函數(shù)格式a=logsig(N)說明
對數(shù)Sigmoid函數(shù)把神經(jīng)元的輸入范圍從(-∞,+∞)映射到(0,1)。它是可導函數(shù),適用于BP訓練的神經(jīng)元。第65頁,共77頁,2023年,2月20日,星期六net.trainParam.epochs:最大訓練步數(shù)。不過當誤差準則滿足時,即使沒達到此步數(shù)也停止訓練。缺省為100。net.trainParam.goad:網(wǎng)絡誤差準則,當誤差小于此準則時停止訓練,缺省為0。net.trainFcn:訓練算法。缺省為’trainlm’,即Levenberg-Marquardt算法。還可使用‘traingdx’,即帶動量的梯度下降算法;’traincgf’,即共軛梯度法。其它可看matlab幫助:help->contents->NeuralNetworkToobox->NetworkObjectReference;help(net.trainFcn)(1)MATLAB中BP神經(jīng)網(wǎng)絡的重要函數(shù)和基本功能第66頁,共77頁,2023年,2月20日,星期六第67頁,共77頁,2023年,2月20日,星期六
例下表為某藥品的銷售情況,月份123456銷量205623952930229816341600月份789101112銷量187314781900150020461556現(xiàn)構(gòu)建一個如下的三層BP神經(jīng)網(wǎng)絡對藥品的銷售進行預測:輸入層有三個結(jié)點,隱含層結(jié)點數(shù)為5,隱含層的激活函數(shù)為tansig;輸出層結(jié)點數(shù)為1個,輸出層的激活函數(shù)為logsig,并利用此網(wǎng)絡對藥品的銷售量進行預測,預測方法采用滾動預測方式,即用前三個月的銷售量來預測第四個月的銷售量,如用1、2、3月的銷售量為輸入預測第4個月的銷售量,用2、3、4月的銷售量為輸入預測第5個月的銷售量.如此反復直至滿足預測精度要求為止。BP神經(jīng)網(wǎng)絡在分類與預測中的應用第68頁,共77頁,2023年,2月20日,星期六BP神經(jīng)網(wǎng)絡在分類與預測中的應用%以每三個月的銷售量經(jīng)歸一化處理后作為輸入P=[0.5152 0.8173 1.0000;0.8173 1.0000 0.7308;1.0000 0.7308 0.1390;0.7308 0.1390 0.1087;0.1390 0.1087 0.3520;0.1087 0.3520 0.1065;]';%以第四個月的銷售量歸一化處理后作為目標向量T=[0.73080.13900.10870.35200.10650.3761];%創(chuàng)建一個BP神經(jīng)網(wǎng)絡,每一個輸入向量的取值范圍為[0,1],隱含層有5個神經(jīng)%元,輸出層有一個神經(jīng)元,隱含層的激活函數(shù)為tansig,輸出層的激活函數(shù)為%
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026安徽省選調(diào)生招錄考試參考題庫及答案解析
- 2026湖南長沙市開福區(qū)教育局北辰第一幼兒園招聘筆試模擬試題及答案解析
- 2026福建漳龍集團有限公司招聘1人考試參考題庫及答案解析
- 2026云南昆明市尋甸回族彝族自治縣檔案館城鎮(zhèn)公益性崗位招聘2人考試參考題庫及答案解析
- 2026陜西西安市高陵區(qū)殘疾人專職委員選聘3人考試備考題庫及答案解析
- 2026四川德陽市廣漢市廣電文化傳媒有限責任公司招聘6人考試備考試題及答案解析
- 河南洛陽格力2026屆大學生校園招聘考試備考試題及答案解析
- 2026年溫州外國語高級中學(溫州中學國際部)招聘教師備考題庫及答案詳解一套
- 2026年柳州市航鷹中學招聘道德與法治教師備考題庫及參考答案詳解
- 2026年紹興市婦幼保健院公開招聘編外工作人員備考題庫有答案詳解
- 協(xié)調(diào)控制系統(tǒng) CCS介紹
- 黑布林英語閱讀初一年級16《柳林風聲》譯文和答案
- 杰青優(yōu)青學術項目申報答辯PPT模板
- 宿舍入住申請書
- 深圳中核海得威生物科技有限公司桐城分公司碳13-尿素原料藥項目環(huán)境影響報告書
- qdslrdashboard應用軟件使用說明
- 2023年全國高考體育單招文化考試數(shù)學試卷真題及答案
- GB/T 28733-2012固體生物質(zhì)燃料全水分測定方法
- GB/T 18591-2001焊接預熱溫度、道間溫度及預熱維持溫度的測量指南
- GB/T 14404-2011剪板機精度
- 《中小學教育懲戒規(guī)則(試行)》全文
評論
0/150
提交評論