神經(jīng)網(wǎng)絡(luò)控制_第1頁(yè)
神經(jīng)網(wǎng)絡(luò)控制_第2頁(yè)
神經(jīng)網(wǎng)絡(luò)控制_第3頁(yè)
神經(jīng)網(wǎng)絡(luò)控制_第4頁(yè)
神經(jīng)網(wǎng)絡(luò)控制_第5頁(yè)
已閱讀5頁(yè),還剩34頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

神經(jīng)網(wǎng)絡(luò)控制第一頁(yè),共三十九頁(yè),2022年,8月28日6.1概述生物神經(jīng)元模型

6.1.2人工神經(jīng)元模型6.1.3人工神經(jīng)網(wǎng)絡(luò)模型6.1.4神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法第二頁(yè),共三十九頁(yè),2022年,8月28日6.1.2人工神經(jīng)元模型人工神經(jīng)元是對(duì)生物神經(jīng)元的一種模擬與簡(jiǎn)化。它是神經(jīng)網(wǎng)絡(luò)的基本處理單元。如圖所示為一種簡(jiǎn)化的人工神經(jīng)元結(jié)構(gòu)。它是一個(gè)多輸入、單輸出的非線性元件。第三頁(yè),共三十九頁(yè),2022年,8月28日第四頁(yè),共三十九頁(yè),2022年,8月28日其輸入、輸出關(guān)系可描述為其中,是從其他神經(jīng)元傳來(lái)的輸入信號(hào);表示從神經(jīng)元j到神經(jīng)元i的連接權(quán)值;為閾值;稱(chēng)為激發(fā)函數(shù)或作用函數(shù)。第五頁(yè),共三十九頁(yè),2022年,8月28日輸出激發(fā)函數(shù)又稱(chēng)為變換函數(shù),它決定神經(jīng)元(節(jié)點(diǎn))的輸出。該輸出為1或0,取決于其輸入之和大于或小于內(nèi)部閾值。函數(shù)一般具有非線性特性。下圖表示了幾種常見(jiàn)的激發(fā)函數(shù)。

1.閾值型函數(shù)(見(jiàn)圖(a),(b))

2.飽和型函數(shù)(見(jiàn)圖(c))

3.雙曲函數(shù)(見(jiàn)圖(d))

4.S型函數(shù)(見(jiàn)(e))

5.高斯函數(shù)(見(jiàn)圖(f))第六頁(yè),共三十九頁(yè),2022年,8月28日第七頁(yè),共三十九頁(yè),2022年,8月28日6.1.3人工神經(jīng)網(wǎng)絡(luò)模型人工神經(jīng)網(wǎng)絡(luò)是以工程技術(shù)手段來(lái)模擬人腦神經(jīng)元網(wǎng)絡(luò)的結(jié)構(gòu)與特征的系統(tǒng)。利用人工神經(jīng)元可以構(gòu)成各種不同拓?fù)浣Y(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它是生物神經(jīng)網(wǎng)絡(luò)的一種模擬和近似。就神經(jīng)網(wǎng)絡(luò)的主要連接型式而言,目前已有數(shù)十種不同的神經(jīng)網(wǎng)絡(luò)模型,其中前饋型網(wǎng)絡(luò)和反饋型網(wǎng)絡(luò)是兩種典型的結(jié)構(gòu)模型。第八頁(yè),共三十九頁(yè),2022年,8月28日1.前饋型神經(jīng)網(wǎng)絡(luò)前饋型神經(jīng)網(wǎng)絡(luò),又稱(chēng)前向網(wǎng)絡(luò)(FeedforwardNN)。如圖所示,神經(jīng)元分層排列,有輸入層、隱層(亦稱(chēng)中間層,可有若干層)和輸出層,每一層的神經(jīng)元只接受前一層神經(jīng)元的輸入。從學(xué)習(xí)的觀點(diǎn)來(lái)看,前饋網(wǎng)絡(luò)是一種強(qiáng)有力的學(xué)習(xí)系統(tǒng),其結(jié)構(gòu)簡(jiǎn)單而易于編程;從系統(tǒng)的觀點(diǎn)看,前饋網(wǎng)絡(luò)是一靜態(tài)非線性映射,通過(guò)簡(jiǎn)單非線性處理單元的復(fù)合映射,可獲得復(fù)雜的非線性處理能力。但從計(jì)算的觀點(diǎn)看,缺乏豐富的動(dòng)力學(xué)行為。大部分前饋網(wǎng)絡(luò)都是學(xué)習(xí)網(wǎng)絡(luò),它們的分類(lèi)能力和模式識(shí)別能力一般都強(qiáng)于反饋網(wǎng)絡(luò),典型的前饋網(wǎng)絡(luò)有感知器網(wǎng)絡(luò)、BP網(wǎng)絡(luò)等。第九頁(yè),共三十九頁(yè),2022年,8月28日第十頁(yè),共三十九頁(yè),2022年,8月28日6.1.4神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法學(xué)習(xí)方法是體現(xiàn)人工神經(jīng)網(wǎng)絡(luò)智能特性的主要標(biāo)志,離開(kāi)了學(xué)習(xí)算法,人工神經(jīng)網(wǎng)絡(luò)就失去了自適應(yīng)、自組織和自學(xué)習(xí)的能力。目前神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法有多種,按有無(wú)導(dǎo)師來(lái)分類(lèi),可分為有教師學(xué)習(xí)(SupervisedLearning)、無(wú)教師學(xué)習(xí)(UnsupervisedLearning)和再勵(lì)學(xué)習(xí)(ReinforcementLearning)等幾大類(lèi)。在有教師的學(xué)習(xí)方式中,網(wǎng)絡(luò)的輸出和期望的輸出(即教師信號(hào))進(jìn)行比較,然后根據(jù)兩者之間的差異調(diào)整網(wǎng)絡(luò)的權(quán)值,最終使差異變小。在無(wú)教師的學(xué)習(xí)方式中,輸入模式進(jìn)人網(wǎng)絡(luò)后,網(wǎng)絡(luò)按照一預(yù)先設(shè)定的規(guī)則(如競(jìng)爭(zhēng)規(guī)則)自動(dòng)調(diào)整權(quán)值,使網(wǎng)絡(luò)最終具有模式分類(lèi)等功能。再勵(lì)學(xué)習(xí)是介于上述兩者之間的一種學(xué)習(xí)方式。第十一頁(yè),共三十九頁(yè),2022年,8月28日神經(jīng)網(wǎng)絡(luò)中常用的幾種最基本的學(xué)習(xí)方法

1.Hebb學(xué)習(xí)規(guī)則兩個(gè)神經(jīng)元同時(shí)處于激發(fā)狀態(tài)時(shí),它們之間的連接強(qiáng)度將得到加強(qiáng),這一論述的數(shù)學(xué)描述被稱(chēng)為Hebb學(xué)習(xí)規(guī)則Hebb學(xué)習(xí)規(guī)則是一種無(wú)教師的學(xué)習(xí)方法,它只根據(jù)神經(jīng)元連接間的激活水平改變權(quán)值,因此這種方法又稱(chēng)為相關(guān)學(xué)習(xí)或并聯(lián)學(xué)習(xí)。第十二頁(yè),共三十九頁(yè),2022年,8月28日2.Delta(δ)學(xué)習(xí)規(guī)則δ規(guī)則實(shí)現(xiàn)了E中的梯度下降,因此使誤差函數(shù)達(dá)到最小值。但δ學(xué)習(xí)規(guī)則只適用于線性可分函數(shù),無(wú)法用于多層網(wǎng)絡(luò)。BP網(wǎng)絡(luò)的學(xué)習(xí)算法稱(chēng)為BP算法,是在δ規(guī)則基礎(chǔ)上發(fā)展起來(lái)的,可在多網(wǎng)絡(luò)上有效地學(xué)習(xí)。第十三頁(yè),共三十九頁(yè),2022年,8月28日3.概率式學(xué)習(xí)從統(tǒng)計(jì)力學(xué)、分子熱力學(xué)和概率論中關(guān)于系統(tǒng)穩(wěn)態(tài)能量的標(biāo)準(zhǔn)出發(fā),進(jìn)行神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的方式稱(chēng)概率式學(xué)習(xí)。神經(jīng)網(wǎng)絡(luò)處于某一狀態(tài)的概率主要取決于在此狀態(tài)下的能量,能量越低,概率越大。同時(shí),此概率還取決于溫度參數(shù)T。T越大,不同狀態(tài)出現(xiàn)概率的差異便越小,較容易跳出能量的局部極小點(diǎn)而到全局的極小點(diǎn);T越小時(shí),情形正相反。概率式學(xué)習(xí)的典型代表是Boltzmann機(jī)學(xué)習(xí)規(guī)則。它是基于模擬退火的統(tǒng)計(jì)優(yōu)化方法,因此又稱(chēng)模擬退火算法。第十四頁(yè),共三十九頁(yè),2022年,8月28日4.競(jìng)爭(zhēng)式學(xué)習(xí)競(jìng)爭(zhēng)式學(xué)習(xí)屬于無(wú)教師學(xué)習(xí)方式。此種學(xué)習(xí)方式利用不同層間的神經(jīng)元發(fā)生興奮性聯(lián)接,以及同一層內(nèi)距離很近的神經(jīng)元間發(fā)生同樣的興奮性聯(lián)接,而距離較遠(yuǎn)的神經(jīng)元產(chǎn)生抑制性聯(lián)接。在這種聯(lián)接機(jī)制中引人竟?fàn)帣C(jī)制的學(xué)習(xí)方式稱(chēng)為竟?fàn)幨綄W(xué)習(xí)。它的本質(zhì)在于神經(jīng)網(wǎng)絡(luò)中高層次的神經(jīng)元對(duì)低層次神經(jīng)元的輸入模式進(jìn)行競(jìng)爭(zhēng)識(shí)別。第十五頁(yè),共三十九頁(yè),2022年,8月28日6.2前向神經(jīng)網(wǎng)絡(luò)6.2.1感知器網(wǎng)絡(luò)感知器(perceptrvon)是一個(gè)具有單層神經(jīng)元的神經(jīng)網(wǎng)絡(luò),并由線性閾值元件組成,是最簡(jiǎn)單的前向網(wǎng)絡(luò)。它主要用于模式分類(lèi),單層的感知器網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。第十六頁(yè),共三十九頁(yè),2022年,8月28日第十七頁(yè),共三十九頁(yè),2022年,8月28日感知器的一種學(xué)習(xí)算法:

隨機(jī)地給定一組連接權(quán)輸入一組樣本和期望的輸出(亦稱(chēng)之為教師信號(hào))計(jì)算感知器實(shí)際輸出修正權(quán)值選取另外一組樣本,重復(fù)上述2)~4)的過(guò)程,直到權(quán)值對(duì)一切樣本均穩(wěn)定不變?yōu)橹?,學(xué)習(xí)過(guò)程結(jié)束。第十八頁(yè),共三十九頁(yè),2022年,8月28日6.2.2BP網(wǎng)絡(luò)誤差反向傳播神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)BP網(wǎng)絡(luò)(BackPropagation),是一種單向傳播的多層前向網(wǎng)絡(luò)。在模式識(shí)別、圖像處理、系統(tǒng)辨識(shí)、函數(shù)擬合、優(yōu)化計(jì)算、最優(yōu)預(yù)測(cè)和自適應(yīng)控制等領(lǐng)域有著較為廣泛的應(yīng)用。如圖是BP網(wǎng)絡(luò)的示意圖。第十九頁(yè),共三十九頁(yè),2022年,8月28日第二十頁(yè),共三十九頁(yè),2022年,8月28日誤差反向傳播的BP算法簡(jiǎn)稱(chēng)BP算法,其基本思想是最小二乘算法。它采用梯度搜索技術(shù),以期使網(wǎng)絡(luò)的實(shí)際輸出值與期望輸出值的誤差均方值為最小。BP算法的學(xué)習(xí)過(guò)程由正向傳播和反向傳播組成。在正向傳播過(guò)程中,輸入信息從輸入層經(jīng)隱含層逐層處理,并傳向輸出層,每層神經(jīng)元(節(jié)點(diǎn))的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。如果在輸出層不能得到期望的輸出,則轉(zhuǎn)人反向傳播,將誤差信號(hào)沿原來(lái)的連接通路返回,通過(guò)修改各層神經(jīng)元的權(quán)值,使誤差信號(hào)最小。第二十一頁(yè),共三十九頁(yè),2022年,8月28日1.BP網(wǎng)絡(luò)的前饋計(jì)算2.BP網(wǎng)絡(luò)權(quán)值的調(diào)整規(guī)則

1).輸出層權(quán)系數(shù)的調(diào)整

2).隱含層節(jié)點(diǎn)權(quán)系數(shù)的調(diào)整3.BP學(xué)習(xí)算法的計(jì)算步驟

第二十二頁(yè),共三十九頁(yè),2022年,8月28日

3.BP學(xué)習(xí)算法的計(jì)算步驟

1).初始化置所有權(quán)值為較小的隨機(jī)數(shù)

2).提供訓(xùn)練集

3).計(jì)算實(shí)際輸出,計(jì)算隱含層、輸出層各神經(jīng)元輸出

4).計(jì)算目標(biāo)值與實(shí)際輸出的偏差E5).計(jì)算

6).計(jì)算

7).返回“2)”重復(fù)計(jì)算,直到誤差滿(mǎn)足要求為止第二十三頁(yè),共三十九頁(yè),2022年,8月28日第二十四頁(yè),共三十九頁(yè),2022年,8月28日在使用BP算法時(shí),應(yīng)注意的幾個(gè)問(wèn)題是:1).學(xué)習(xí)開(kāi)始時(shí),各隱含層連接權(quán)系數(shù)的初值應(yīng)以設(shè)置較小的隨機(jī)數(shù)較為適宜。2).采用S型激發(fā)函數(shù)時(shí),由于輸出層各神經(jīng)元的輸出只能趨于1或0,不能達(dá)到1或0。在設(shè)置各訓(xùn)練樣本時(shí),期望的輸出分量dpk不能設(shè)置為1或0,以設(shè)置為或0,1較為適宜。3).學(xué)習(xí)速率η的選擇,在學(xué)習(xí)開(kāi)始階段,η選較大的值可以加快學(xué)習(xí)速度。學(xué)習(xí)接近優(yōu)化區(qū)時(shí),η值必須相當(dāng)小,否則權(quán)系數(shù)將產(chǎn)生振蕩而不收斂。平滑因子α的選值在左右。第二十五頁(yè),共三十九頁(yè),2022年,8月28日6.2.3BP網(wǎng)絡(luò)學(xué)習(xí)算法的改進(jìn)1.多層前向BP網(wǎng)絡(luò)的優(yōu)點(diǎn):1).網(wǎng)絡(luò)實(shí)質(zhì)上實(shí)現(xiàn)了一個(gè)從輸入到輸出的映射功能,而數(shù)學(xué)理論已證明它具有實(shí)現(xiàn)任何復(fù)雜非線性映射的功能。這使得它特別適合于求解內(nèi)部機(jī)制復(fù)雜的問(wèn)題;2).網(wǎng)絡(luò)能通過(guò)學(xué)習(xí)帶正確答案的實(shí)例集自動(dòng)提取“合理的”求解規(guī)則,即具有自學(xué)習(xí)能力;第二十六頁(yè),共三十九頁(yè),2022年,8月28日2.多層前向BP網(wǎng)絡(luò)的問(wèn)題:

1).BP算法的學(xué)習(xí)速度很慢

2).網(wǎng)絡(luò)訓(xùn)練失敗的可能性較大

3).難以解決應(yīng)用問(wèn)題的實(shí)例規(guī)模和網(wǎng)絡(luò)規(guī)模間的矛盾

4).網(wǎng)絡(luò)結(jié)構(gòu)的選擇尚無(wú)一種統(tǒng)一而完整的理論指導(dǎo),一般只能由經(jīng)驗(yàn)選定

5).新加入的樣本要影響已學(xué)習(xí)成功的網(wǎng)絡(luò),而且刻畫(huà)每個(gè)輸入樣本的特征的數(shù)目也必須相同

6).網(wǎng)絡(luò)的預(yù)測(cè)能力(也稱(chēng)泛化能力、推廣能力)與訓(xùn)練能力(也稱(chēng)逼近能力、學(xué)習(xí)能力)的矛盾第二十七頁(yè),共三十九頁(yè),2022年,8月28日3.BP網(wǎng)絡(luò)學(xué)習(xí)算法的改進(jìn)

1).增加“慣性項(xiàng)2).采用動(dòng)態(tài)步長(zhǎng)3).與其他全局搜索算法相結(jié)合4).模擬退火算法目前在神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)中,基于梯度的算法都不能從理論上保證收斂結(jié)果是全局最優(yōu)的。第二十八頁(yè),共三十九頁(yè),2022年,8月28日6.2.4神經(jīng)網(wǎng)絡(luò)的訓(xùn)練可以任意逼近一個(gè)緊集上的任意函數(shù)這一特點(diǎn)是神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用的理論基礎(chǔ)。但是,在實(shí)際應(yīng)用中,目前尚未找到較好的網(wǎng)絡(luò)構(gòu)造方法,確定網(wǎng)絡(luò)的結(jié)構(gòu)和權(quán)值參數(shù),來(lái)描述給定的映射或逼近一個(gè)未知的映射,只能通過(guò)學(xué)習(xí)來(lái)得到滿(mǎn)足要求的網(wǎng)絡(luò)模型。第二十九頁(yè),共三十九頁(yè),2022年,8月28日神經(jīng)網(wǎng)絡(luò)訓(xùn)練的具體步驟如下

1.獲取訓(xùn)練樣本集

獲取訓(xùn)練樣本集合是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的第一步,也是十分重要和關(guān)鍵的一步。它包括訓(xùn)練數(shù)據(jù)的收集、分析、選擇和預(yù)處理等

2.選擇網(wǎng)絡(luò)類(lèi)型與結(jié)構(gòu)

神經(jīng)網(wǎng)絡(luò)的類(lèi)型很多,需要根據(jù)任務(wù)的性質(zhì)和要求來(lái)選擇合適的網(wǎng)絡(luò)類(lèi)型。

3.訓(xùn)練與測(cè)試

最后一步是利用獲取的訓(xùn)練樣本對(duì)網(wǎng)絡(luò)進(jìn)行反復(fù)訓(xùn)練,直至得到合適的映射結(jié)果。第三十頁(yè),共三十九頁(yè),2022年,8月28日6.4神經(jīng)網(wǎng)絡(luò)PID控制盡管神經(jīng)網(wǎng)絡(luò)控制技術(shù)有許多潛在的優(yōu)勢(shì),但單純使用神經(jīng)網(wǎng)絡(luò)的控制方法的研究仍有待進(jìn)一步發(fā)展。通常將人工神經(jīng)網(wǎng)絡(luò)技術(shù)與傳統(tǒng)的控制理論或智能技術(shù)綜合使用。神經(jīng)網(wǎng)絡(luò)在控制中的作用有以下幾種:1.在傳統(tǒng)的控制系統(tǒng)中用以動(dòng)態(tài)系統(tǒng)建模,充當(dāng)對(duì)象模型;2.在反饋控制系統(tǒng)中直接充當(dāng)控制器的作用;3.在傳統(tǒng)控制系統(tǒng)中起優(yōu)化計(jì)算作用;4.與其他智能控制方法如模糊邏輯、遺傳算法、專(zhuān)家控制等相融合。第三十一頁(yè),共三十九頁(yè),2022年,8月28日6.4.1基于BP神經(jīng)網(wǎng)絡(luò)控制參數(shù)自學(xué)習(xí)PID控制

BP神經(jīng)網(wǎng)絡(luò)具有逼近任意非線性函數(shù)的能力,而且結(jié)構(gòu)和學(xué)習(xí)算法簡(jiǎn)單明確。通過(guò)神經(jīng)網(wǎng)絡(luò)自身的學(xué)習(xí),可以找到某一最優(yōu)控制律下的P,I,D參數(shù)?;贐P神經(jīng)網(wǎng)絡(luò)的PD控制系統(tǒng)結(jié)構(gòu)如圖所示,控制器由兩個(gè)部分組成:①經(jīng)典的PID控制器:直接對(duì)被控對(duì)象進(jìn)行閉環(huán)控制,并且KP,KI,KD三個(gè)參數(shù)為在線整定;②神經(jīng)網(wǎng)絡(luò)NN:根據(jù)系統(tǒng)的運(yùn)行狀態(tài),調(diào)節(jié)PID控制器的參數(shù),以期達(dá)到某種性能指標(biāo)的最優(yōu)化。即使輸出層神經(jīng)元的輸出狀態(tài)對(duì)應(yīng)于PID控制器的三個(gè)可調(diào)參數(shù)KP,KI,KD,通過(guò)神經(jīng)網(wǎng)絡(luò)的自學(xué)習(xí)、調(diào)整權(quán)系數(shù),從而使其穩(wěn)定狀態(tài)對(duì)應(yīng)于某種最優(yōu)控制律下的PID控制器參數(shù)。第三十二頁(yè),共三十九頁(yè),2022年,8月28日第三十三頁(yè),共三十九頁(yè),2022年,8月28日

基于BP神經(jīng)網(wǎng)絡(luò)的PID控制算法可歸納如下:

1).事先選定BP神經(jīng)網(wǎng)絡(luò)NN的結(jié)構(gòu),即選定輸入層節(jié)點(diǎn)數(shù)M和隱含層節(jié)點(diǎn)數(shù)Q,并給出權(quán)系數(shù)的初值w(2)ij(0),w(3)li(0),選定學(xué)習(xí)速率η和平滑因子α,k=1;

2).采樣得到r(k)和y(k),計(jì)算e(k)=z(k)=r(k)-y(k);

3).對(duì)r(i),y(i),u(i-1),e(i)進(jìn)行歸一化處理,作為NN的輸入;

4).前向計(jì)算NN的各層神經(jīng)元的輸入和輸出,NN輸出層的輸出即為PID控制器的三個(gè)可調(diào)參數(shù)KP(k),KI(k),KD(k);

5).計(jì)算PID控制器的控制輸出u(k),參與控制和計(jì)算;

6).計(jì)算修正輸出層的權(quán)系數(shù)w(3)li(k);

7).計(jì)算修正隱含層的權(quán)系數(shù)w(2)ij(k);

8).置k=k+1,返回到“2)”。第三十四頁(yè),共三十九頁(yè),2022年,8月28日6.4.2改進(jìn)型BP神經(jīng)網(wǎng)絡(luò)控制參數(shù)自學(xué)習(xí)PID控制將神經(jīng)網(wǎng)絡(luò)用于控制器的設(shè)計(jì)或直接學(xué)習(xí)計(jì)算控制器的輸出(控制量),一般都要用到系統(tǒng)的預(yù)測(cè)輸出值或其變化量來(lái)計(jì)算權(quán)系數(shù)的修正量。但實(shí)際上,系統(tǒng)的預(yù)測(cè)輸出值是不易直接測(cè)得的,通常的做法是建立被控對(duì)象的預(yù)測(cè)數(shù)學(xué)模型,用該模型所計(jì)算的預(yù)測(cè)輸出來(lái)取代預(yù)測(cè)處的實(shí)測(cè)值,以提高控制效果。第三十五頁(yè),共三十九頁(yè),2022年,8月28日1.采用線性預(yù)測(cè)模型的BP神經(jīng)網(wǎng)絡(luò)PID控制器

第三十六頁(yè),共三十九頁(yè),2022年,8月28日采用線性預(yù)測(cè)模型的BP神經(jīng)網(wǎng)絡(luò)PID控制系統(tǒng)算法歸納如下:

1).事先選定BP神經(jīng)網(wǎng)絡(luò)NN的結(jié)構(gòu),即選定輸入層節(jié)點(diǎn)數(shù)M和隱含層節(jié)點(diǎn)數(shù)Q,并給出權(quán)系數(shù)的初值w(2)ij(0),w(3)li(0),選定學(xué)習(xí)速率η和平滑因子α,k=1;

2).用線性系統(tǒng)辨識(shí)法估計(jì)出參數(shù)矢量θ(k),從而形成一步預(yù)報(bào)模型式;

3).采樣得到r(k)和y(k),計(jì)算e(k)=z(k)=r(k)-y(k);

4).對(duì)r(i),y(i),u(i-1),e(i)進(jìn)行歸一化處理,作為NN的輸入;

5).前向計(jì)算NN的各層神經(jīng)元的輸入和輸出,NN輸出層的輸出即為PID控制器的三個(gè)可調(diào)參數(shù)KP(k),KI(k),KD(k);

6).計(jì)算PID控制器的控制輸出u(k),參與控制和計(jì)算;

7).計(jì)算和;

8).計(jì)算修正輸出層的權(quán)系數(shù)w(3)li(k);

9).計(jì)算修正隱含層的權(quán)系數(shù)w(2)ij(k);

10).置k=k+1

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論