基礎知識+續(xù)人工神經(jīng)網(wǎng)絡常用學習規(guī)則.ppt_第1頁
基礎知識+續(xù)人工神經(jīng)網(wǎng)絡常用學習規(guī)則.ppt_第2頁
基礎知識+續(xù)人工神經(jīng)網(wǎng)絡常用學習規(guī)則.ppt_第3頁
基礎知識+續(xù)人工神經(jīng)網(wǎng)絡常用學習規(guī)則.ppt_第4頁
基礎知識+續(xù)人工神經(jīng)網(wǎng)絡常用學習規(guī)則.ppt_第5頁
已閱讀5頁,還剩39頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、人工神經(jīng)網(wǎng)絡常用的學習規(guī)則,MP模型是于1943年由美國心理學家McCulloch和數(shù)學家Pitts建立的第一個神經(jīng)元模型,也可以稱為處理單元(Processing Element),它是一個多輸入多輸出的非線性信息處理單元。如圖5-6所示,圖5-7為MP模型的作用函數(shù)。MP神經(jīng)元是人工神經(jīng)元模型的基礎,也是人工神經(jīng)網(wǎng)絡模型的基礎。,圖5-6 MP神經(jīng)元模型,人類具有學習能力,人類的知識和智慧是在不斷的學習與實踐中逐漸形成和發(fā)展起來的。關于人工神經(jīng)網(wǎng)絡的學習機制,涉及到神經(jīng)元如何分布、處理和存儲信息。常用的人工神經(jīng)網(wǎng)絡學習規(guī)則如下,圖5-8是權值調(diào)整的一般情況,其中:Wj為聯(lián)接到神經(jīng)元j的權值

2、向量,X為輸入向量,r為學習信號,d為導師信號。權向量的調(diào)整準則為,式中 為學習速率。權值調(diào)整的迭代格式為,權值調(diào)整的一般情況,1)Hebbian學習規(guī)則,1949年,心理學家D.O.Hebb最早提出了關于神經(jīng)網(wǎng)絡學習機理的“突觸修正”的假設。該假設指出,當神經(jīng)元的突觸前膜電位與后膜電位同時為正時,突觸傳導增強,當前膜電位與后膜電位正負相反時,突觸傳導減弱,也就是說,當神經(jīng)元i與神經(jīng)元j同時處于興奮狀態(tài)時,兩者之間的連接強度應增強。根據(jù)該假設定義的權值調(diào)整方法,稱為Hebbian學習規(guī)則。在Hebbian學習規(guī)則中,學習信號簡單地等于神經(jīng)元的輸出,式中 W為權向量,X為輸入向量。權向量的調(diào)整公

3、式為,權向量中,每個分量的調(diào)整由下式確定,上式表明,權值調(diào)整量與輸入輸出的乘積成正比。顯然,經(jīng)常出現(xiàn)的輸入模式將對權向量有最大的影響。在這種情況下,Hebbian學習規(guī)則需預先設置權飽和值,以防止輸入和輸出正負始終一致時出現(xiàn)權值無約束增長。此外,要求權值初始化,即在學習開始前 (t=0),先對Wj(0)賦予零附近的小隨機數(shù)。Hebbian學習規(guī)則代表一種純前饋、無導師學習。該規(guī)則至今仍在各種神經(jīng)網(wǎng)絡模型中起著重要作用。,2)Perceptron(感知器)學習規(guī)則,1958年,美國學者Frank Rosenblatt首次定義了一個具有單層計算單元的神經(jīng)網(wǎng)絡結構,稱為感知器(Perceptron)

4、。感知器的學習規(guī)則規(guī)定,學習信號等于神經(jīng)元期望輸出(教師信號)與實際輸出之差,式中 為期望的輸出 ,。 感知器采用了與閾值轉移函數(shù)類似的符號轉移函數(shù),其表達為,因此,權值調(diào)整公式應為,式中,當實際輸出與期望值相同時,權值不需要調(diào)整;在有誤差存在情況下,由于 、 , 權值調(diào)整公式簡化為 感器學習規(guī)則只適用于二進制神經(jīng)元,初始權值可取任意值。 感知器學習規(guī)則代表一種有導師學習。由于感知器理論是研究其他神經(jīng)網(wǎng)絡的基礎,該規(guī)則對于神經(jīng)網(wǎng)絡的有導師學習具有極為重要的意義。,3)(Delta)學習規(guī)則 1986年,認知心理學家McClelland和Rumelhart在神經(jīng)網(wǎng)絡訓練中引入了規(guī)則,該規(guī)則亦可稱

5、為連續(xù)感知器學習規(guī)則,與上述離散感知器學習規(guī)則并行。規(guī)則的學習信號規(guī)定為,上式定義的學習信號稱為。式中是轉移函數(shù)的導數(shù)。顯然,規(guī)則要求轉移函數(shù)可導,因此只適用于有導師學習中定義的連續(xù)轉移函數(shù),如Sigmoid函數(shù)。 事實上,規(guī)則很容易由輸出值與期望值的最小平方誤差條件推導出來。定義神經(jīng)元輸出與期望輸出之間的平方誤差為,式中,誤差E是權向量Wj的函數(shù)。欲使誤差E最小,Wj應與誤差的負梯度成正比,即 式中,比例系數(shù)是一個正常數(shù)。由式(5-12),誤差梯度為,可以看出,上式中與X之間的部分正是式(5-11)中定義的學習信號。Wj中每個分量的調(diào)整由下式計算 學習規(guī)則可推廣到多層前饋網(wǎng)絡中,權值可初始化

6、為任意值。,4)Widrow-Hoff學習規(guī)則 1962年,Bernard Widrow和Marcian Hoff提出了Widrow-Hoff學習規(guī)則,又稱為最小均方規(guī)則(LMS)。Widrow-Hoff學習規(guī)則的學習信號為,權向量調(diào)整量為. 的各分量為 實際上,如果在學習規(guī)則中假定社會元轉移函數(shù)為 ,則有, 此時式(5-11)與式(5-17)相同。,因此,Widrow-Hoff學習規(guī)則可以看成是學習規(guī)則的一個特殊情況。該學習規(guī)則與神經(jīng)元采用的轉移函數(shù)無關,因而不需要對轉移函數(shù)求導數(shù),不僅學習速度較快,而且具有較高的精度。權值可初始化為任意值。,5) Correlation(相關)學習規(guī)則 相

7、關學習規(guī)則學習信號為 易得出分別為,該規(guī)則表明,當dj是xi的期望輸出時,相應的權值增量ij與兩者的乘積djxi成正比。 如果Hebbian學習規(guī)則中的轉移函數(shù)為二進制函數(shù),且有oj=dj,則相關學習規(guī)則可看作Hebbian規(guī)則的一種特殊情況。應當注意的是,Hebbian學習規(guī)則是無導師學習,而相關學習規(guī)則是有導師學習。這種學習規(guī)則要求將權值初始化為零。,6) Winner-Take-all(勝者為王)學習規(guī)則 Winner-Take-all學習規(guī)則是一種競爭學習規(guī)則,用于無導師學習。一般將網(wǎng)絡的某一層確定為競爭層,對于一個特定的輸入X,競爭層的所有p個神經(jīng)元均有輸出響應,其中響應值最大的神經(jīng)

8、元為在競爭中獲勝的神經(jīng)元,即,只有獲勝神經(jīng)元才有權調(diào)整其權向量,調(diào)整量為,式中,是學習常數(shù),一般其值隨著學習的進展而減小。由于兩個向量的點積越大,表明兩者越近似,所以調(diào)整獲勝神經(jīng)元權值的結果是使Wm進一步接近當前輸入X。顯然,當下次出現(xiàn)與X相像的輸入模式時,上次獲勝的神經(jīng)元更容易獲勝。在反復的競爭學習過程中,競爭層的各神經(jīng)元所對應的權向量被逐漸調(diào)整為輸入樣本空間的聚類中心。在有些應用中,以獲勝神經(jīng)元為中心定義一個獲勝領域,除獲勝神經(jīng)元調(diào)整權值外,領域內(nèi)的其他神經(jīng)元也不同程度地調(diào)整權值。權值一般被初始化為任意值并進行歸一化處理。,7)Outstar(外星)學習規(guī)則 神經(jīng)網(wǎng)絡中有兩類常見節(jié)點,分別

9、稱為內(nèi)星節(jié)點和外星節(jié)點,其特點見圖5-8和5-9。圖5-8中的內(nèi)星節(jié)點總是接受來自四面八方的輸入加權信號,因此是信號的匯聚點,對應的權值向量稱為內(nèi)星權向量;圖5-9中的外星節(jié)點總是向四面八方發(fā)出輸出加權信號,因此是信號的發(fā)散點,對應的權值向量稱為外星權向量。內(nèi)星學習規(guī)則定內(nèi)星節(jié)點的輸出響應是輸入向量X和內(nèi)星權向量Wj的點積。該點積反映了X與Wj的相似程度,其權值按式(5-23)調(diào)整。因此Winner-Take-All學習規(guī)則與內(nèi)星規(guī)則一致。,下面介紹外星學習規(guī)則。外星學習規(guī)則屬于有導師學習,其目的是為了生成一個期望的維輸出向量,設對應的外星權向量用Wj表示,學習規(guī)則如下,式中,的規(guī)定與作用與式

10、(5-23)中的相同,給出的外星學習規(guī)則使節(jié)點j對應的外星權向量向期望輸出向量d靠近。,2.4神經(jīng)網(wǎng)絡學習,人工神經(jīng)網(wǎng)絡是由人工神經(jīng)元(簡稱神經(jīng)元)互聯(lián)組成的網(wǎng)絡,它是從微觀結構和功能上對人腦的抽象、簡化,是模擬人類智能的一條重要途徑,反映了人腦功能的若干基本特征,如并行信息處理、學習、聯(lián)想、模式分類、記憶等。目前,已發(fā)展了幾十種神經(jīng)網(wǎng)絡,例如Hopfield模型,F(xiàn)eldmann等的連接型網(wǎng)絡模型,Hinton等的玻爾茨曼機模型,以及Rumelhart等的多層感知機模型和Kohonen的自組織網(wǎng)絡模型等等。,在這眾多神經(jīng)網(wǎng)絡模型中,應用最廣泛的是多層感知機神經(jīng)網(wǎng)絡。多層感知機神經(jīng)網(wǎng)絡的研究始

11、于20世紀50年代,但一直進展不大。直到1985年,Rumelhart等人提出了誤差反向傳遞學習算法(即BP算法),實現(xiàn)了Minsky的多層網(wǎng)絡設想。,神經(jīng)網(wǎng)絡對控制領域和反問題研究有吸引力的特征表現(xiàn)在:(1)能逼近任意L2上的非線性函數(shù);(2)信息的并行分布式處理與存儲;(3)可以多輸入、多輸出;(4)便于用超大規(guī)模集成電路(VLSI)或光學集成電路系統(tǒng)實現(xiàn),或用現(xiàn)有的計算機技術實現(xiàn);(5)能進行學習,以適應環(huán)境的變化。,決定網(wǎng)絡整體性能的三大要素包括:(1)神經(jīng)元(信息處理單元)的特性;(2)神經(jīng)元間相互聯(lián)接的形式拓撲結構;(3)為適應環(huán)境而改善性能的學習規(guī)則。表5-1為對神經(jīng)網(wǎng)絡發(fā)展有重

12、要影響的神經(jīng)網(wǎng)絡,神經(jīng)網(wǎng)絡通過相繼給網(wǎng)絡輸入一些樣本模式,并按照一定的規(guī)則(或學習算法)不斷改變網(wǎng)絡各層的連接權值,使網(wǎng)絡的輸出不斷地接近期望的輸出值,這一個過程稱為神經(jīng)網(wǎng)絡的學習或訓練。學習的實質(zhì)是可變權值的動態(tài)調(diào)整的自適應過程。改變權值的規(guī)則稱為學習規(guī)則或學習算法(相應也稱訓練規(guī)則或訓練算法)。單個處理單元,無論采用哪一種學習規(guī)則進行調(diào)整,其算法都十分簡單。大量處理單元集體進行權值調(diào)整時,網(wǎng)絡就呈現(xiàn)出“智能”的特性。,神經(jīng)網(wǎng)絡結構和功能不同,學習方法也各不相同。在人工神經(jīng)網(wǎng)絡的結構和轉移函數(shù)決定以后,如何設計權使網(wǎng)絡達到一定的要求,就成為決定神經(jīng)網(wǎng)絡信息處理性能的第三大要素。學習問題歸根結

13、底就是網(wǎng)絡連接權的調(diào)整問題,其方法有以下幾種:,圖5-1 有導師學習神經(jīng)網(wǎng)絡模型圖 5-2 無導師學習神經(jīng)網(wǎng)絡模型,1)有導師學習(Supervised Learning,SL),在學習過程中,網(wǎng)絡根據(jù)實際輸出與期望輸出的比較,進行聯(lián)接權值的調(diào)整,將期望輸出稱為導師信號,它是評價學習的標準。這種學習模式采用糾錯的規(guī)則,學習方法要在給出輸入模式X的同時在輸出側還要給出與之相應的目標模式,又稱教師信號或期望輸出模式,兩者一起稱為訓練對。,一般訓練一個網(wǎng)絡需要許多個訓練對,稱為訓練集。學習時,使用訓練集中的某個輸入模式,得到一個網(wǎng)絡的實際輸出模式y(tǒng),再與期望輸出模式J相比較,不相符時求出誤差,按誤差

14、的大小和方向調(diào)整權值,以使誤差向著減小方向變化。然后逐個用訓練集中的每個訓練對,不斷地修改網(wǎng)絡的權值,整個訓練集反復地作用于網(wǎng)絡許多次,直到訓練集作用下的誤差小于事前規(guī)定的容許值為止,即認為網(wǎng)絡在有導師的訓練下已學會了訓練數(shù)據(jù)中包含的知識和規(guī)則,學習過程便告結束,并存儲于網(wǎng)絡中,提供給運行階段使用。,2)無導師學習(Non Supervised Learning,NSL),無導師信號提供給網(wǎng)絡,網(wǎng)絡能夠根據(jù)特有的結構和學習規(guī)則,進行聯(lián)接權值的調(diào)整,此時,網(wǎng)絡的學習評價標準隱含其內(nèi)部。在學習時,訓練集僅由各輸入模式組成,而不提供相應的輸出模式。網(wǎng)絡能恨據(jù)特有的內(nèi)部結構和學習規(guī)則,響應輸入的激勵反復調(diào)整權值,這個過程稱為網(wǎng)絡的自組織。,自組織學習是靠神經(jīng)元本身對輸入模式的不斷適應,抽取輸入信號的規(guī)律(如統(tǒng)計規(guī)律), 從而將輸入模式按其相似程度自動劃分若干類,將其輸入特征記憶下來,當它再次出

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論