人工神經(jīng)網(wǎng)絡(講稿)_第1頁
人工神經(jīng)網(wǎng)絡(講稿)_第2頁
人工神經(jīng)網(wǎng)絡(講稿)_第3頁
人工神經(jīng)網(wǎng)絡(講稿)_第4頁
人工神經(jīng)網(wǎng)絡(講稿)_第5頁
已閱讀5頁,還剩35頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、信號分析與信息處理 人工神經(jīng)網(wǎng)絡 Artificial Neural Network,神經(jīng)網(wǎng)絡模式識別,引例:水果分類的問題(識別不同的水果),說明:1. 對水果的分類,是一個模式的識別問題。而對機械運行狀態(tài)的判 斷,也是一個模式識別,因此可以使用神經(jīng)網(wǎng)絡進行判斷。 2. 為神經(jīng)網(wǎng)絡提供數(shù)值參量(形狀、大小、成分等),就可以得 到對應的種類屬性(蘋果、桔子)。因此,使用各種信號數(shù)據(jù)參 數(shù)作為輸入,也可以獲得機械運行狀態(tài)的屬性參量。 3. 權值相量、判斷標準、誤差輸入可以不斷的修正。,一. 概論,人工神經(jīng)網(wǎng)絡的定義和研究發(fā)展的根源 神經(jīng)細胞與生物神經(jīng)網(wǎng)絡 人工神經(jīng)網(wǎng)絡的特點 人工神經(jīng)網(wǎng)絡的發(fā)展簡

2、史,(1)定義:人工神經(jīng)網(wǎng)絡是以大量的具有相同結(jié)構的簡單單元的 連接,來模擬人類大腦的結(jié)構和思維方式的一種可實 現(xiàn)的物理系統(tǒng),可通過計算機進行模擬實現(xiàn)。,1.1 人工神經(jīng)網(wǎng)絡的定義和研究發(fā)展根源,1.1 人工神經(jīng)網(wǎng)絡的定義和研究發(fā)展根源,(2)研究和發(fā)展的根源 (1) 現(xiàn)代計算機在解決信息初級加工如視覺、聽覺、嗅覺的感知識別上十分遲鈍,且研究進展緩慢。但人腦在這些方面遠遠超過了計算機。因需要向大腦學習; (2) 現(xiàn)代計算機中每個電子元件的計算速度已達納秒(ns)級,而人腦中神經(jīng)細胞的反映時間只是毫秒(ms)級,為何大腦處理信息的功能遠高于計算機,這表現(xiàn)出大腦結(jié)構上和信息處理方式上的優(yōu)越性。,舉

3、例:2-3歲的小孩可以從人群中認出父母、3-4歲能夠順利地穿過十字路口,但最先進的機器人也難以完成這項任務。 因而模仿人類的思維方式可以提高機器人的能力,1.2 神經(jīng)細胞與生物神經(jīng)網(wǎng)絡,1. 神經(jīng)網(wǎng)絡 組織形式 大腦中大約有100億個神經(jīng)元,它們相互連接,形成一個復雜龐大的網(wǎng)絡系統(tǒng)。因此大腦的結(jié)構是一個神經(jīng)(元)網(wǎng)絡。 根據(jù)估計,每個神經(jīng)元大約與上千個神經(jīng)元相互連接。 大腦所形成的神經(jīng)網(wǎng)絡是由一些小的網(wǎng)絡連接而成。根據(jù)估計,所有神經(jīng)元被安排到約1000個主要的功能模塊,每個功能模塊大約有上百個神經(jīng)網(wǎng)絡,每個網(wǎng)絡約有10萬個神經(jīng)元。 信息的傳遞 從一個神經(jīng)元到另一個神經(jīng)元; 從一個網(wǎng)絡到另一個網(wǎng)

4、絡; 從一個模塊到另一個模塊。,1.2 神經(jīng)細胞與生物神經(jīng)網(wǎng)絡,2. 生物神經(jīng)元(細胞)結(jié)構模型,1.2 神經(jīng)細胞與生物神經(jīng)網(wǎng)絡 3. 神經(jīng)元的電脈沖 (1) 電脈沖: 神經(jīng)元在被激活后產(chǎn)生電脈沖,由軸突傳出。 相對幅值約為100mv,寬度約為1ms,稱為神經(jīng)元的動作電位。 (2)電脈沖的傳遞:,(3) 神經(jīng)元的特性: (1) 突觸的特性 興奮性突觸:后突觸膜電位隨遞質(zhì)與受體的結(jié)合數(shù)量的增加而增加。 抑制性突觸:后突觸膜電位隨遞質(zhì)與受體的結(jié)合數(shù)量的增加而減小。 (2) 時空整和性 空間累加:將來自不同樹突的興奮性和抑制性信號進行累加。 時間累加:由于輸入信號對神經(jīng)元膜電位的影響要持續(xù)一段時間

5、(幾ms),因此,從時間上進行著累加。,1.2 神經(jīng)細胞與生物神經(jīng)網(wǎng)絡 4.神經(jīng)網(wǎng)絡信息處理的特點 分布式存儲與容錯性: :信息在神經(jīng)網(wǎng)絡內(nèi)的儲存是按內(nèi)容分布于大量的神經(jīng)細胞中,而且每個神經(jīng)細胞實際上儲存著多種不同信息的部分內(nèi)容。局部的或部分神經(jīng)元出現(xiàn)差錯,不會影響全局結(jié)果。網(wǎng)絡能夠自動糾正錯誤。 并行性性:在神經(jīng)網(wǎng)絡中,巨量的神經(jīng)元同時進行大規(guī)模的并行處理。盡管神經(jīng)元的響應速度很慢,每次約1ms左右,比一般電子元件慢幾個數(shù)量級,卻可以在幾毫秒內(nèi)對一個復雜的過程作出判斷和決策。計算機卻無能為力。 信息的處理與存儲的合二而一性:每個神經(jīng)元都兼有處理與存儲的功能,神經(jīng)元之間連接強度的變化,反映了對

6、信息的記憶,同時又與神經(jīng)元對激勵的響應一起反映了對信息的處理。 自學習和自組織性:對外界事物的反映,通過神經(jīng)元之間的連接強度不斷增加,進行自學習,自組織。 層次性和系統(tǒng)性:神經(jīng)生理學的研究表明,大腦對信息的處理是分層次進行加工處理的。從初級皮層 顱頂皮層腦前額葉的處理過程。,1.3 人工神經(jīng)網(wǎng)絡的特點和優(yōu)點,特點: 1. 人工神經(jīng)網(wǎng)絡是采用物理上可實現(xiàn)的器件或計算機來模擬大 腦中神經(jīng)網(wǎng)絡的結(jié)構與功能,并將其應用于工程和其它科學領域。 2. 模擬并非完全一樣的復制生物神經(jīng)網(wǎng)絡,而是采納有利的部分來克服目前計算機或其它系統(tǒng)不能解決的問題,如學習 、識別、控制等方面 的問題。 3. 人工神經(jīng)網(wǎng)絡功能

7、的提高依賴于以下兩點: 物理器件或軟件系統(tǒng)的水平; 對大腦中網(wǎng)絡結(jié)構和機制認識的水平。,1.3 人工神經(jīng)網(wǎng)絡的特點和優(yōu)點,優(yōu)點: 并行性:簡單單元并行連接,在時鐘控制下集體操作,處理速 度快。 容錯性:局部的或部分神經(jīng)元出現(xiàn)差錯,不會影響全局結(jié)果。 網(wǎng)絡能夠自動糾正錯誤。 分布式存儲:信息儲存在網(wǎng)絡的連接權上,是分散的,而不在 儲存器中。 可學習性:人工神經(jīng)網(wǎng)絡的連接權、閾值可通過學習得到,并 可根據(jù)外部環(huán)境進行自適應,自組織。,1.4 人工神經(jīng)網(wǎng)絡的發(fā)展簡史,1.初始發(fā)展期(1890-1968) (1)1890,James(美國生理學家)在其著作生理學中首次較系統(tǒng)地闡明了大腦的結(jié)構和功能、神

8、經(jīng)元的功能與連接、信息的傳遞等,并將大腦看作一個神經(jīng)網(wǎng)絡。為進一步認識大腦的功能奠定了基礎。 (2)1943年,McCulloch 和Pitts(美國心理學家和數(shù)學家)提出了神經(jīng)元的數(shù)學模型,現(xiàn)稱為M-P模型。 (3)1949年,Hebb在其著作行為自組織中提出了改變神經(jīng)元連接強度的學習規(guī)則(現(xiàn)稱Hebb規(guī)則):連接權的學習律是正比于兩個被連接神經(jīng)元的活動狀態(tài)之乘積。 (4)1958, Rosenblatt 發(fā)展了M-P模型,提出了感知機(Perceptron)及其學習算法,它是歷史上第一個人工神經(jīng)網(wǎng)絡和學習算法。它的出現(xiàn)掀起了神經(jīng)網(wǎng)絡研究的第一高潮。,2. 低潮時期(1969-1982) 1

9、969,Minsky和Papert在論著感知機中指出了感知機的局限性, 即只能作線性分類,對于非線性分類,感知機無法解決。大批學者便離開 這一領域,出現(xiàn)人工神經(jīng)網(wǎng)絡的研究的低潮(六、七十年代)。,3. 復興時期(1982-1986) (1)1982-1984,Hopfield提出一種互連反饋網(wǎng)絡,現(xiàn)稱之為 Hopfield 網(wǎng)絡。引入了一種能量函數(shù),證明了網(wǎng)絡的穩(wěn)定性,即網(wǎng)絡的狀態(tài)向能量低的方向進行演化,最終必然達到一個極小點而穩(wěn)定。Hopfield網(wǎng)絡在優(yōu)化和語音識別方面有著重要的應用。 (2)1986,Rumelhart和Hinton等提出了多層前向網(wǎng)絡的誤差反向傳播(BP)算法,使得網(wǎng)絡

10、可以任意逼近一個連續(xù)系統(tǒng),并得到廣泛的應用。 Hopfield網(wǎng)絡和BP算法的出現(xiàn),使得人工神經(jīng)的研究出現(xiàn)了復興。由于人工神經(jīng)網(wǎng)絡在信息處理方面的優(yōu)點,使得大批學者加入到了這一研究領域,掀起了神經(jīng)網(wǎng)絡研究的新高潮。,4. 全面發(fā)展時期(1987-現(xiàn)在) 1987年在美國召開了第一屆國際神經(jīng)網(wǎng)絡學術大會,并宣告成立了國際神經(jīng)網(wǎng)絡學會,與會代表1600多人。這次大會也宣告了神經(jīng)網(wǎng)絡學科的誕生。神經(jīng)網(wǎng)絡的研究進入了一個轉(zhuǎn)折點,其范圍不斷擴大,領域幾乎包括各個方面。神經(jīng)網(wǎng)絡的應用使工業(yè)技術發(fā)生了很大變化,特別是在自動控制領域有了新的突破。,通過二十多年的發(fā)展,神經(jīng)網(wǎng)絡的理論和技術呈現(xiàn)出以下特點: (1

11、) 應用領域越來越廣,幾乎無所不包。如工程,金融,醫(yī)學,社科,甚至包括戰(zhàn)爭的分析與決策(原海灣戰(zhàn)爭)。 (2)理論上的研究不斷深入,多種網(wǎng)絡模型的建立、網(wǎng)絡性能的數(shù)學理論分析、學習算法的分析與研究、特別是與統(tǒng)計學的結(jié)合形成了“統(tǒng)計學習理論” 的研究方向。 (3) 人工神經(jīng)網(wǎng)絡與各種分析技術(如專家系統(tǒng)、小波分析、模糊系統(tǒng)、遺傳算法、數(shù)理統(tǒng)計等)相結(jié)合,新的神經(jīng)網(wǎng)絡軟件包、加速板、芯片和實現(xiàn)技術不斷涌現(xiàn),使得神經(jīng)網(wǎng)絡的應用能力和速度不斷提高。,二. ANN基本原理,2.1 ANN的基本構造 人工神經(jīng)網(wǎng)絡是許多神經(jīng)元經(jīng)聯(lián)接而成的網(wǎng)絡結(jié)構。 ANN的構造有兩層含義:1. 神經(jīng)元的結(jié)構; 2. 網(wǎng)絡互

12、聯(lián)結(jié)構(拓撲結(jié)構)。,(1)神經(jīng)元的結(jié)構模型 根據(jù)前面對生物神經(jīng)元的分析,應具有以下特點: (a)神經(jīng)元是一個多輸入、單輸出的元件。,二. ANN基本原理,2.1 ANN的基本構造 (1)神經(jīng)元的結(jié)構模型 (b)神經(jīng)元是一個具有非線性輸入 / 輸出特性的元件。表現(xiàn)在只有當來自各神經(jīng)突觸的活動電位達到一定強度后,該神經(jīng)才能被激活,釋放出神經(jīng)傳遞化學物質(zhì),發(fā)出本身的活動電位脈沖。,二. ANN基本原理,2.1 ANN的基本構造 (1)神經(jīng)元的結(jié)構模型 (c)神經(jīng)元的連接具有可塑性,表現(xiàn)在其活動電位脈沖的傳遞強度依靠神經(jīng)傳遞化學物質(zhì)的釋放量及突觸間隙的變化量,可以進行調(diào)節(jié)。,二. ANN基本原理,2

13、.1 ANN的基本構造 (1)神經(jīng)元的結(jié)構模型 (d)神經(jīng)元的輸出響應,是各個輸入的綜合結(jié)果。 為神經(jīng)元的I / O 特性。 在人工神經(jīng)網(wǎng)絡中,經(jīng)常把 值視 為神經(jīng)元的第 0 個輸入, 且 則有:,*,*,即為神經(jīng)元的I /O 特性,常用的神經(jīng)元 I /O 特性有以下三種:,2.1 ANN的基本構造 (2)網(wǎng)絡拓撲結(jié)構 網(wǎng)絡拓撲結(jié)構即神經(jīng)元的聯(lián)接形式,從大的方面來看,ANN網(wǎng)絡拓撲結(jié)構可分為層次結(jié)構、模塊結(jié)構和層次模塊結(jié)構等幾種。 層次結(jié)構:神經(jīng)元的聯(lián)接按層次排列。 模塊結(jié)構:主要特點是將整個網(wǎng)絡按功能劃分為不同的模塊,每個模塊內(nèi)部的神經(jīng)元緊密互聯(lián),并完成各自特定的功能,模塊之間再互聯(lián)以完成整

14、體功能; 層次模塊結(jié)構:將模塊結(jié)構和層次結(jié)構結(jié)合起來,使之更接近人腦神經(jīng)系統(tǒng)的結(jié)構,這也是目前為人們廣泛注意的一種新型網(wǎng)絡互聯(lián)模式。 根據(jù)網(wǎng)絡中神經(jīng)元的層數(shù)不同,可將神經(jīng)網(wǎng)絡分為單層網(wǎng)絡和多層網(wǎng)絡; 根據(jù)同層網(wǎng)絡神經(jīng)元之間有無相互聯(lián)接以及后層神經(jīng)元與前層神經(jīng)元有無反饋作用的不同,可將神經(jīng)網(wǎng)絡分為以下多種。,(a)前向網(wǎng)絡: 網(wǎng)絡中的神經(jīng)元分層排列,每個神經(jīng)元只與前一層神經(jīng)元相連,層間神經(jīng)元無連接。最上一層為輸出層,最下一層為輸入層,中間層稱為隱層。 (b)從輸出到輸入有反饋的前向網(wǎng)絡: 從輸出到輸入有反饋環(huán)節(jié)的前向網(wǎng)絡。 (c)層內(nèi)互連前向網(wǎng)絡: 通過層內(nèi)神經(jīng)元的相互連接,可以實現(xiàn)同一層神經(jīng)元

15、間的相互制約,從而可以將層內(nèi)神經(jīng)元分為幾組,讓每組作為一個整體來動作。 (d)互連網(wǎng)絡:分為局部互連和全互連兩種。全互連網(wǎng)絡中每個神經(jīng)元的輸出都與其他神經(jīng)元相連;而局部互連網(wǎng)絡中,有些神經(jīng)元間沒有連接關系。,2.2學習規(guī)則,神經(jīng)網(wǎng)絡要能工作必須首先進行學習,學習規(guī)則多種多樣,一般可以歸結(jié)為以下兩類: (1)有指導學習:不但需要學習用的輸入事例(訓練樣本,通常為一矢量),同時還要求與之對應的表示所需期望輸出的目標矢量。進行學習時,首先計算一個輸入矢量的網(wǎng)絡輸出,然后同相應的目標輸出比較,比較結(jié)果的誤差用來按規(guī)定的算法改變加權。 (2)無指導學習:不要求有目標矢量,網(wǎng)絡通過自身的“經(jīng)歷”來學會某種

16、功能,在學習時,關鍵不在于網(wǎng)絡實際輸出是否與外部的期望輸出相一致,而在于調(diào)整權重以反映學習樣本的分布,因此整個訓練過程實質(zhì)是抽取訓練樣本集的統(tǒng)計特性。特別適用于對未知事物的研究。 工程實踐中,有指導學習和無指導學習并不是相互沖突的,目前已經(jīng)出現(xiàn)了一些融合有指導學習和無指導學習的訓練算法。如在應用有指導學習訓練一個網(wǎng)絡后,再利用一些后期的無指導學習來使得網(wǎng)絡自適應于環(huán)境的變化。,2.3 學習算法 學習算法是人工神經(jīng)網(wǎng)絡研究的主要內(nèi)容和中心環(huán)節(jié),許多性能各異的神經(jīng)網(wǎng)絡的差異也主要體現(xiàn)在學習算法的不同上,同時,對于神經(jīng)網(wǎng)絡學習算法也是至今人們研究得最多的一個方面。 截止目前,人們已先后提出了誤差反向

17、傳播算法(BP算法)、Hopfield算法、自適應共振理論算法(ART算法)、自組織特征映射算法(Kohonen算法)等。,僅對誤差反向傳播算法(Back Propagation)進行簡要論述 誤差反向傳播算法簡稱BP算法,它是Werbos等人提出的一個有監(jiān)督訓練的多層神經(jīng)網(wǎng)絡算法。在網(wǎng)絡學習階段,其每一個訓練范例在網(wǎng)絡中經(jīng)過兩個方向的傳遞計算。一遍向前傳播計算,從輸入層開始傳遞至各層,經(jīng)過處理后產(chǎn)生一個輸出,由此可得到一個該實際輸出與其理想輸出之差的誤差矢量;此后,再進行反向傳播計算,即從輸出層開始至輸入層結(jié)束,根據(jù)誤差矢量并以一定的速度對各權值依次進行修正。 BP算法有很強的數(shù)學基礎,擴展

18、了神經(jīng)網(wǎng)絡的應用范圍,已有許多成功的應用實例,對神經(jīng)網(wǎng)絡研究的再次興起起過很大作用。,2.3 學習算法 1. BP網(wǎng)絡模型 以圖所示的多層非循環(huán)前饋網(wǎng)絡為例說明BP算法的工作原理。該BP網(wǎng)絡的各層次神經(jīng)元之間形成全互聯(lián)連接,同層內(nèi)的各神經(jīng)元之間沒有連接,即該網(wǎng)絡為純前饋網(wǎng)絡互聯(lián)結(jié)構。,2.3 學習算法 1. BP網(wǎng)絡模型 各層神經(jīng)元的行為特性如下:,2.3 學習算法 2. BP算法 BP算法的訓練樣本集由輸入樣本與理想輸出對組成。對網(wǎng)絡進行訓練目的和訓練結(jié)束的標志是使網(wǎng)絡各輸入樣本下的實際輸出與其理想輸出一致(目標函數(shù)值最小)。 開始學習時,各連接權值和節(jié)點閾值賦予(-1,+1)間的隨機數(shù)。,

19、BP算法學習過程由正向傳播和反向傳播兩部分組成。 網(wǎng)絡一旦訓練結(jié)束,其連接權值和節(jié)點閾值便不再變化,此時如給網(wǎng)絡新的輸入,網(wǎng)絡只需經(jīng)前向計算即能得到相應的輸出。,2. BP算法 BP算法的訓練樣本集由輸入樣本與理想輸出對組成。對網(wǎng)絡進行訓練目的和訓練結(jié)束的標志是使網(wǎng)絡各輸入樣本下的實際輸出與其理想輸出一致(目標函數(shù)值最小)。,BP算法學習過程由正向傳播和反向傳播兩部分組成。 在正向傳播過程中,輸入模式從輸人層經(jīng)過隱層神經(jīng)元的處理后,傳向輸出層,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元狀態(tài)。如果在輸出層得不到期望的輸出,則轉(zhuǎn)入反向傳播,此時誤差信號從輸出層向輸入層傳播并沿途調(diào)整各層間連接權值和閾值,

20、以使誤差不斷減小,直到達到精度要求。該算法實際上是求誤差函數(shù)的極小值,它通過多個樣本的反復訓練,并采用最快下降法使得權值沿著誤差函數(shù)負梯度方向改變,并收斂干最小點。 網(wǎng)絡一旦訓練結(jié)束,其連接權值和節(jié)點閾值便不再變化,此時如給網(wǎng)絡新的輸入,網(wǎng)絡只需經(jīng)前向計算即能得到相應的輸出。,2. BP算法步驟 (1)確定輸入模式向量和理想輸出向量。 (2)確定隱含層的層數(shù)和每層的單元(神經(jīng)元、節(jié)點)數(shù)。 (3)給各單元的連接權值和閾值賦予(-1,+1)間的隨機數(shù)。 (4)選擇某個訓練樣本向量作為輸入,進行學習,計算輸出。 (5)根據(jù)實際輸出與理想輸出的偏差,修正各單元的連接權值和閾值。 (6)選擇下一個訓練

21、樣本向量作為輸入,再進行學習,計算輸出。 (7)重復(5)、(6)步驟,通過多個樣本的反復訓練,不斷修正各單元的連接權值和閾值,直至網(wǎng)絡全局誤差函數(shù)小于預先設定的極小值,學習結(jié)束。 (8)應用測試樣本檢查模式識別的準確性。,三.具體實例,通過該例,說明網(wǎng)絡建立、訓練、識別的過程,問題的提出 齒輪傳動在運行過程中經(jīng)常會出現(xiàn)各種類型的故障,如齒面擦傷、膠合、點蝕、裂紋、局部斷齒等,均會引起振動烈度增加。如何根據(jù)所測振動信號自動識別故障的類型,是目前齒輪故障診斷研究的一個重點內(nèi)容,屬于模式識別問題。 本節(jié)介紹以小波分析為基礎,采用神經(jīng)網(wǎng)絡識別點蝕故障的方法。,三. 具體實例,齒輪點蝕故障的小波神經(jīng)網(wǎng)

22、絡識別,三. 具體實例,齒輪點蝕故障的小波神經(jīng)網(wǎng)絡識別,齒輪點蝕故障的小波神經(jīng)網(wǎng)絡識別,判據(jù):齒輪的點蝕是一種較難于識別的故障,我們的研究結(jié)果表明:齒輪點蝕故障會在齒輪嚙合過程中產(chǎn)生沖擊,激發(fā)輪齒按其固有頻率振動,致使在包含輪齒固有頻率的頻帶內(nèi)能量大幅度提高??梢源俗鳛槭欠癯霈F(xiàn)點蝕的判據(jù)。 方法:對齒輪振動信號進行小波包分解,以各頻帶的能量變化情況作為齒輪點蝕故障的識別的定量的依據(jù)。使用神經(jīng)網(wǎng)絡識別技術,以各頻帶能量歸一化值作為神經(jīng)網(wǎng)絡的輸入,齒輪不存在點蝕故障和存在點蝕故障兩種情況作為神經(jīng)網(wǎng)絡的輸出。 實例:以臺權礦主井提升機大齒輪點蝕故障為例進行說明。該齒輪的固有頻率在2300Hz左右。對

23、信號作小波包分解到3層,得到8個分解頻段及相應的振動相對能量。,三.具體實例,點蝕發(fā)生前后齒輪振動信號各頻段相對能量及其比值 注:相對能量值各分解頻帶信號能量占信號總能量的百分比,四. 具體實例,神經(jīng)網(wǎng)絡的輸入向量為各頻帶的相對能量,個數(shù)為8個。隱層節(jié)點數(shù)量選擇為6個。網(wǎng)絡的目標輸出向量為2種狀態(tài):齒輪不存在點蝕故障(1 0),齒輪存在點蝕故障(0 1)。 對兩種齒輪情況分別采集測試信號50組,組成網(wǎng)絡訓練樣本100組,另外各取 5 組作為網(wǎng)絡測試樣本。各連接權值和節(jié)點閾值的初始值可賦予 (-1,+1)間的隨機數(shù)。設置網(wǎng)絡最大訓練步數(shù)1000,訓練目標誤差為0.001。,下圖給出了某次訓練結(jié)果

24、的誤差變化曲線,設置網(wǎng)絡最大訓練步數(shù)1000,訓練目標誤差為0.001??梢?,當網(wǎng)絡訓練到702步時,網(wǎng)絡性能達標。,BP網(wǎng)絡誤差變化曲線,將網(wǎng)絡測試樣本(齒輪點蝕故障樣本5組、齒輪正常樣本5組,共10組)送入該網(wǎng)絡進行故障識別。,從表中可以看到,該BP網(wǎng)絡對齒輪點蝕故障的識別具有較高準確性。,說明: 隱層節(jié)點數(shù)量的選擇,沒有很好的理論依據(jù)。使用較多的隱層節(jié)點,一定程度上減少局部最小發(fā)生,改善網(wǎng)絡與訓練樣本匹配的精確度,但也增加了訓練網(wǎng)絡的難度和訓練時間,甚至出現(xiàn)過擬合現(xiàn)象。隱層節(jié)點數(shù)量的選擇要通過不斷的嘗試決定。 對于三層網(wǎng)絡隱節(jié)點的選取,以下方法可供參考: 1. 根據(jù)經(jīng)驗選擇隱層神經(jīng)元的數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論