版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
神經(jīng)網(wǎng)絡(luò)控制系統(tǒng)NeuralNetworkControlSystem第二章神經(jīng)網(wǎng)絡(luò)控制系統(tǒng)Ch22.1人工神經(jīng)網(wǎng)絡(luò)概述2.2典型神經(jīng)網(wǎng)絡(luò)及非線性建模2.3神經(jīng)網(wǎng)絡(luò)建模2.4神經(jīng)網(wǎng)絡(luò)控制2.5基于動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)多模型自適應(yīng)控制器設(shè)計(jì)與實(shí)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)概述BasicConceptofNeuralNetwork2.1人工神經(jīng)網(wǎng)絡(luò)概述2.1一
生物神經(jīng)網(wǎng)絡(luò)二
人工神經(jīng)元模型三
神經(jīng)網(wǎng)絡(luò)模型四
神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)生物神經(jīng)網(wǎng)絡(luò)一神經(jīng)元主要由三部分組成:樹突、細(xì)胞體和軸突。樹突:神經(jīng)元的輸入,將電信號(hào)傳送到細(xì)胞體。細(xì)胞體:對(duì)這些輸入信號(hào)進(jìn)行整合并進(jìn)行閾值處理。軸突:神經(jīng)元的輸出,將細(xì)胞體信號(hào)導(dǎo)向其他神經(jīng)元。突觸:一個(gè)神經(jīng)細(xì)胞的軸突和另一個(gè)神經(jīng)細(xì)胞樹突的結(jié)合點(diǎn)。生物神經(jīng)網(wǎng)絡(luò)一人腦(生物神經(jīng)網(wǎng)絡(luò))約由101l~1012個(gè)神經(jīng)元組成,每個(gè)神經(jīng)元約與104~105個(gè)神經(jīng)元聯(lián)接,形成錯(cuò)縱復(fù)雜而又靈活多變的神經(jīng)網(wǎng)絡(luò)。雖然每個(gè)神經(jīng)元都比較簡(jiǎn)單,但是如此多的神經(jīng)元經(jīng)過復(fù)雜的聯(lián)接卻可以演化出豐富多彩的行為方式。人工神經(jīng)元模型二人工神經(jīng)網(wǎng)絡(luò)(簡(jiǎn)稱神經(jīng)網(wǎng)絡(luò))是由人工神經(jīng)元組成的網(wǎng)絡(luò),它是從微觀結(jié)構(gòu)和功能上對(duì)人腦的抽象、簡(jiǎn)化,反映了人腦功能的若干基本特征,如并行信息處理、學(xué)習(xí)、聯(lián)想、模式分類、記憶等是模擬人類智能的一條重要途徑。人工神經(jīng)網(wǎng)絡(luò)可以通過電子電路實(shí)現(xiàn)。人工神經(jīng)元(簡(jiǎn)稱神經(jīng)元)是人工神經(jīng)網(wǎng)絡(luò)的處理單元。分別是指與第i個(gè)神經(jīng)元連接的其它神經(jīng)元的輸出;是非線性函數(shù),稱為作用函數(shù)(激活函數(shù))。是第i
個(gè)神經(jīng)元的輸出,它可與其它多個(gè)神經(jīng)元連接;分別是指其它神經(jīng)元與第i個(gè)神經(jīng)元連接權(quán)值;是第i
個(gè)神經(jīng)元的閾值;是第i個(gè)神經(jīng)元的凈輸入;1激活函數(shù)第i
個(gè)神經(jīng)元的輸出設(shè)則輸入加權(quán)和超過閾值時(shí),輸出為“1”,即“興奮”狀態(tài);反之,輸出為“0”,是“抑制”狀態(tài)。若把閾值也作為一個(gè)權(quán)值,則式中,。1激活函數(shù)2非對(duì)稱型Sigmoid函數(shù)2對(duì)稱型Sigmoid函數(shù)3對(duì)稱型階躍函數(shù)采用階躍作用函數(shù)的神經(jīng)元,稱為閾值邏輯單元。4線性函數(shù)
輸出等于輸入飽和線性作用函數(shù)對(duì)稱飽和線性作用函數(shù)線性飽和線性對(duì)稱飽和線性5高斯函數(shù)人工神經(jīng)網(wǎng)絡(luò)模型三連接權(quán)值并非固定不變,而是按照一定的規(guī)則和學(xué)習(xí)算法進(jìn)行自動(dòng)修改。體現(xiàn)出神經(jīng)網(wǎng)絡(luò)的“進(jìn)化”行為。神經(jīng)元模型、數(shù)量及互連模式確定了神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和學(xué)習(xí)算法決定了神經(jīng)網(wǎng)絡(luò)的性能。神經(jīng)元的連接并不只是一個(gè)單純的傳送信號(hào)的通道,而是有一個(gè)加權(quán)系數(shù)
(權(quán)值),相當(dāng)于生物神經(jīng)系統(tǒng)中神經(jīng)元的突觸強(qiáng)度,它可以加強(qiáng)或減弱上一個(gè)神經(jīng)元的輸出對(duì)下一個(gè)神經(jīng)元的刺激。若干個(gè)神經(jīng)元通過相互連接就形成一個(gè)神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)稱為神經(jīng)網(wǎng)絡(luò)的互連模式。1層次型神經(jīng)網(wǎng)絡(luò)1神經(jīng)元分層排列,順序連接。由輸入層施加輸入信息,通過中間各層,加權(quán)后傳遞到輸出層后輸出。每層的神經(jīng)元只接受前一層神經(jīng)元的輸入,各神經(jīng)元之間不存在反饋和相互連接??捎糜诤瘮?shù)逼近、模式識(shí)別。感知器網(wǎng)絡(luò)BP網(wǎng)絡(luò)徑向基函數(shù)網(wǎng)絡(luò)1層次型神經(jīng)網(wǎng)絡(luò)2在前向神經(jīng)網(wǎng)絡(luò)中有的在同一層中的各神經(jīng)元相互有連接,通過層內(nèi)神經(jīng)元的相互結(jié)合,可以實(shí)現(xiàn)同一層內(nèi)神經(jīng)元之間的橫向抑制或興奮機(jī)制,這樣可以限制每層內(nèi)能同時(shí)動(dòng)作的神經(jīng)元數(shù),或者把每層內(nèi)的神經(jīng)元分為若干組,讓每組作為一個(gè)整體來動(dòng)作。1層次型神經(jīng)網(wǎng)絡(luò)3在層次網(wǎng)絡(luò)結(jié)構(gòu)中,只在輸出層到輸入層存在反饋,即每一個(gè)輸入節(jié)點(diǎn)都有可能接受來自外部的輸入和來自輸出神經(jīng)元的反饋。這種模式可用來存儲(chǔ)某種模式序列,也可以用于動(dòng)態(tài)時(shí)間序列過程的神經(jīng)網(wǎng)絡(luò)建模。Elman網(wǎng)絡(luò)2互連型神經(jīng)網(wǎng)絡(luò)任意兩個(gè)神經(jīng)元之間都可能有相互連接的關(guān)系。有的神經(jīng)元之間是雙向的,有的是單向的。神經(jīng)網(wǎng)絡(luò)處在一種不斷改變狀態(tài)的動(dòng)態(tài)過程中。它將從某個(gè)初始狀態(tài)開始,經(jīng)過若干次的變化,才會(huì)到達(dá)某種平衡狀態(tài),根據(jù)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和神經(jīng)元的特性,還有可能進(jìn)入周期振蕩或其它如渾沌等狀態(tài)。主要用作各種聯(lián)想存儲(chǔ)器或用于求解最優(yōu)化問題。Hopfield網(wǎng)絡(luò)Boltzman機(jī)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)四學(xué)習(xí):神經(jīng)元之間的連接權(quán)值按照一定的學(xué)習(xí)規(guī)則進(jìn)行自動(dòng)調(diào)整,調(diào)整的目標(biāo)是使性能函數(shù)達(dá)到最小。學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)中最重要的特征之一。它使神經(jīng)網(wǎng)絡(luò)具有自適應(yīng)和自組織能力。學(xué)習(xí)算法對(duì)網(wǎng)絡(luò)的學(xué)習(xí)速度、收斂特性、泛化能力等有很大的影響。按學(xué)習(xí)方式分:無監(jiān)督學(xué)習(xí)、有監(jiān)督學(xué)習(xí)。按學(xué)習(xí)規(guī)則分:Hebb學(xué)習(xí)規(guī)則、Delta學(xué)習(xí)規(guī)則。1無監(jiān)督的學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)根據(jù)預(yù)先設(shè)定的規(guī)則自動(dòng)調(diào)整權(quán)值。聚類操作Hebb規(guī)則2有監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)根據(jù)實(shí)際輸出與期望輸出的偏差,按照一定的準(zhǔn)則調(diào)整各神經(jīng)元連接的權(quán)系數(shù)。期望輸出稱為導(dǎo)師信號(hào)Delta學(xué)習(xí)規(guī)則3Hebb學(xué)習(xí)規(guī)則Hebb規(guī)則認(rèn)為兩個(gè)神經(jīng)元同時(shí)處于激發(fā)狀態(tài)時(shí),它們之間的連接強(qiáng)度將得到加強(qiáng)。它是無監(jiān)督學(xué)習(xí)方法,只根據(jù)神經(jīng)元連接間的激活水平改變權(quán)值,又稱為相關(guān)學(xué)習(xí)或并聯(lián)學(xué)習(xí)。4Delta學(xué)習(xí)規(guī)則神經(jīng)元的期望輸出(教師信號(hào));神經(jīng)元的實(shí)際輸出;神經(jīng)元的作用函數(shù);神經(jīng)元的輸入權(quán)值向量,即為輸入向量,即誤差目的:誤差準(zhǔn)則函數(shù)達(dá)到最小,實(shí)際輸出逼近于期望輸出。誤差準(zhǔn)則函數(shù)實(shí)質(zhì):函數(shù)最優(yōu)化過程?;A(chǔ):最優(yōu)化算法中的梯度下降法。思想:沿著E的負(fù)梯度方向不斷修正w,直到E達(dá)到最小。4Delta學(xué)習(xí)規(guī)則典型神經(jīng)網(wǎng)絡(luò)TypicalNeuralNetworks2.2前饋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法2.2一
梯度下降算法二BP神經(jīng)網(wǎng)絡(luò)及其學(xué)習(xí)算法三RBF神經(jīng)網(wǎng)絡(luò)及其學(xué)習(xí)算法梯度下降算法一Delta學(xué)習(xí)規(guī)則目的:誤差準(zhǔn)則函數(shù)達(dá)到最小,實(shí)際輸出逼近于期望輸出。誤差準(zhǔn)則函數(shù)實(shí)質(zhì):函數(shù)最優(yōu)化過程?;A(chǔ):最優(yōu)化算法中的梯度下降法。思想:沿著E的負(fù)梯度方向不斷修正w,直到E達(dá)到最小。梯度下降算法一梯度
給定一個(gè)元多變量函數(shù),在向量空間內(nèi)具有一階連續(xù)偏導(dǎo)數(shù),則對(duì)于內(nèi)的任一點(diǎn)都可以定義出一個(gè)向量這個(gè)向量稱為多變量函數(shù)在點(diǎn)上的梯度。給定n
維多變量函數(shù),該函數(shù)在點(diǎn)上的Taylor級(jí)數(shù)展開為:Taylor級(jí)數(shù)展開利用梯度,有其中:梯度下降算法一梯度下降算法一極值設(shè)有多變量函數(shù)在點(diǎn)的某個(gè)鄰域(
)內(nèi)有定義,使得當(dāng)時(shí),對(duì)于所有都有()成立,則稱為的極小(大)點(diǎn),為函數(shù)的極小(大)值。當(dāng)時(shí),若對(duì)于所有都有()成立,則稱為的強(qiáng)極小(大)點(diǎn),為函數(shù)的強(qiáng)極小(大)值。若對(duì)所有都有()成立,則稱為的全局極小(大)點(diǎn),為函數(shù)的全局極小(大)值。若很小,近似為假設(shè)其中,很小的正數(shù)。極值存在的一階必要條件證明:令,取若是極小點(diǎn),且在點(diǎn)可微,則。有從而有所有滿足上式的點(diǎn)都稱為駐點(diǎn)。這與是極小點(diǎn)矛盾。所以梯度下降算法一1梯度下降算法思想為了實(shí)現(xiàn)在線尋優(yōu),算法一般以迭代的方式求極值。即:令其中為學(xué)習(xí)步長(zhǎng)(
),向量代表一個(gè)搜索方向。算法任務(wù):確定和,使。2梯度下降算法推導(dǎo)函數(shù)在點(diǎn)的一階Taylor級(jí)數(shù)展開為欲使,上式右邊的第二項(xiàng)必須為負(fù),即由于,意味著當(dāng)為最大負(fù)數(shù)時(shí),函數(shù)的遞減速度最快。梯度下降方向的向量為梯度下降學(xué)習(xí)算法常取固定常數(shù),稱為學(xué)習(xí)步長(zhǎng),它影響算法的收斂速度。例
給定函數(shù),試用梯度下降法求其極值點(diǎn)。解:首先求函數(shù)的梯度若給定迭代初始值,那么在處的梯度為:3例題假設(shè)采用固定的學(xué)習(xí)步長(zhǎng),則梯度下降法的第一次迭代結(jié)果為:第二次迭代結(jié)果為:3例題注意:對(duì)于較小的學(xué)習(xí)步長(zhǎng)梯度下降軌跡的路徑總是與輪廓線正交,這是因?yàn)樘荻扰c輪廓線總是正交的。4思考為了提高算法的學(xué)習(xí)速度,一般要增大學(xué)習(xí)步長(zhǎng)。如果學(xué)習(xí)步長(zhǎng)太大,算法會(huì)變得不穩(wěn)定,振蕩不會(huì)衰減,反而會(huì)增大。如何確定學(xué)習(xí)步長(zhǎng),使得算法既有較高的收斂速度,又保證學(xué)習(xí)算法穩(wěn)定?4思考Delta學(xué)習(xí)規(guī)則又稱誤差修正規(guī)則。Delta學(xué)習(xí)規(guī)則數(shù)學(xué)表達(dá)式又4思考BP神經(jīng)網(wǎng)絡(luò)及其學(xué)習(xí)算法二BP神經(jīng)網(wǎng)絡(luò):基于誤差反向傳播學(xué)習(xí)算法的多層前饋神經(jīng)網(wǎng)絡(luò)。它能夠逼近任意非線性函數(shù),可用于非線性系統(tǒng)建模和控制。輸入層:隱含層:輸出層:作用函數(shù):1BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法輸入層:隱含層:輸出層:設(shè)有Q
組數(shù)據(jù),輸入輸出作用函數(shù):誤差準(zhǔn)則函數(shù)瞬時(shí)誤差采用梯度下降算法
并且用代替,向量標(biāo)量1BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法(i)輸出層神經(jīng)元權(quán)系數(shù)的調(diào)整權(quán)系數(shù)的迭代公式為表達(dá)簡(jiǎn)潔略去u1BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法(ii)隱含層神經(jīng)元權(quán)系數(shù)的調(diào)整權(quán)系數(shù)的迭代公式為表達(dá)簡(jiǎn)潔略去u2BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法3算法流程①初始化,設(shè)置初始權(quán)系數(shù)w(0)為較小的隨機(jī)數(shù)。②提供訓(xùn)練樣本數(shù)據(jù)③
k=0隨機(jī)完成按照P18,計(jì)算按照P20,計(jì)算④
判斷是否滿足終止條件若滿足,則學(xué)習(xí)結(jié)束;否則,k=k+1
,回到③或3學(xué)習(xí)算法的改進(jìn)收斂速度慢的原因連接權(quán)值過大,工作在Sigmoid飽和區(qū),調(diào)節(jié)停止;采用較小的學(xué)習(xí)速率,增加了訓(xùn)練時(shí)間。
收斂速度慢的解決辦法選取較小的初始權(quán)值;變化的學(xué)習(xí)速率或自適應(yīng)學(xué)習(xí)速率:收斂速度慢RBF神經(jīng)網(wǎng)絡(luò):徑向基函數(shù)(RBF)網(wǎng)絡(luò)是三層前饋網(wǎng)絡(luò)。它能夠逼近任意非線性函數(shù),可用于非線性系統(tǒng)建模和控制。輸入層:隱含層:輸出層:RBF神經(jīng)網(wǎng)絡(luò)及其學(xué)習(xí)算法三設(shè)有Q
組數(shù)據(jù),輸入輸出輸入層:隱含層:輸出層:1RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法1誤差準(zhǔn)則函數(shù)(i)輸出層神經(jīng)元權(quán)系數(shù)的調(diào)整迭代公式誤差準(zhǔn)則函數(shù)(ii)隱層神經(jīng)元中心的調(diào)整迭代公式誤差準(zhǔn)則函數(shù)(iii)隱層神經(jīng)元寬度的調(diào)整迭代公式2RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法2誤差準(zhǔn)則函數(shù)權(quán)系數(shù)的調(diào)整(中心和寬度已確定)由于中心和寬度已定,上式可看成是的函數(shù)求以上函數(shù)的極小值點(diǎn)相當(dāng)于分別求下面函數(shù)的極小值點(diǎn)RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的一種重要方法:首先,通過經(jīng)驗(yàn)法或者聚類法確定中心和寬度;然后,采取最小二乘法求最優(yōu)權(quán)值。最小二乘法2RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法2神經(jīng)網(wǎng)絡(luò)建模Neuralnetworkmodelling2.3神經(jīng)網(wǎng)絡(luò)建模
思想和方法:借助神經(jīng)網(wǎng)絡(luò)的逼近能力,通過學(xué)習(xí)獲知系統(tǒng)差分方程中的未知非線性函數(shù)。神經(jīng)網(wǎng)絡(luò)與待辨識(shí)系統(tǒng)具有相同的輸入,兩者的輸出誤差被用作網(wǎng)絡(luò)的訓(xùn)練信號(hào)。假設(shè)待辨識(shí)對(duì)象為非線性離散時(shí)間系統(tǒng)u(k)和y(k)分別為系統(tǒng)k時(shí)刻的輸入和輸出,m和n分別是輸入時(shí)間序列和輸出時(shí)間序列的階次,m≤n。用靜態(tài)前饋神經(jīng)網(wǎng)絡(luò)辨識(shí)非線性系統(tǒng)的步驟:1.獲得系統(tǒng)輸入輸出數(shù)據(jù),2.獲得樣本數(shù)據(jù)3.選擇合適的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),采用第6章介紹的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)建模
采用RBF神經(jīng)網(wǎng)絡(luò)對(duì)離散模型進(jìn)行逼近u(k)在[-2,2]上變化,系統(tǒng)BIBO穩(wěn)定,y(k)在[-10,10]上變化。神經(jīng)網(wǎng)絡(luò)隱單元的個(gè)數(shù)為60個(gè),中心在[-2,2]×[-10,10]上均勻選擇,寬度為2。網(wǎng)絡(luò)結(jié)構(gòu)為2-60-1。采用最小二乘法確定網(wǎng)絡(luò)的輸出權(quán)值。訓(xùn)練樣本數(shù)為3000。u(k)=sin(2πk/25),k∈(3000,3100]u(k)=sin(2πk/25)+sin(2πk/10),k∈[3100,3200]1神經(jīng)網(wǎng)絡(luò)建模實(shí)例1(i)石灰窯爐的生產(chǎn)過程含有約30%水分的CaCO3泥槳由左端輸入,燃料油和空氣由右端噴入燃燒,形成氣流由右向左流動(dòng),以使泥槳干燥、加熱并發(fā)生分解反應(yīng)。最終生成的CaO(石灰)由右端輸出,而廢氣由左端排出。主要控制量有兩個(gè),燃料流速u1和風(fēng)量流速u2。被控量為爐窯熱端的溫度y1和爐窯冷端的溫度y2,二者決定了爐內(nèi)的溫度分布曲線,它是影響產(chǎn)品質(zhì)量和能耗的最關(guān)鍵的因素。2神經(jīng)網(wǎng)絡(luò)建模實(shí)例22神經(jīng)網(wǎng)絡(luò)建模實(shí)例2(ii)石灰窯爐的神經(jīng)網(wǎng)絡(luò)模型石灰窯NARMA方程是
神經(jīng)網(wǎng)絡(luò)方程樣本數(shù)據(jù)結(jié)構(gòu)8-20-10-2u1和u2:在(u1=1,u2=1)上迭加幅值為±0.2的PRBS信號(hào)2神經(jīng)網(wǎng)絡(luò)建模實(shí)例2神經(jīng)網(wǎng)絡(luò)控制NeuralNetworkControl2.4神經(jīng)網(wǎng)絡(luò)控制2.41神經(jīng)網(wǎng)絡(luò)監(jiān)督控制2神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制3模型參考控制4神經(jīng)網(wǎng)絡(luò)內(nèi)??刂?神經(jīng)網(wǎng)絡(luò)直接逆控制6神經(jīng)網(wǎng)絡(luò)控制實(shí)例神經(jīng)網(wǎng)絡(luò)監(jiān)督控制:對(duì)人工或傳統(tǒng)控制器進(jìn)行學(xué)習(xí),用神經(jīng)網(wǎng)絡(luò)控制器取代或逐漸取代原控制器。缺點(diǎn):系統(tǒng)為開環(huán),穩(wěn)定性和魯棒性不能保證。(i)神經(jīng)網(wǎng)絡(luò)監(jiān)督控制11神經(jīng)網(wǎng)絡(luò)監(jiān)督控制神經(jīng)網(wǎng)絡(luò)控制器通過學(xué)習(xí),使e(t)或u1(t)趨近于零,從而使它取代常規(guī)控制器。一但出現(xiàn)干擾等,常規(guī)控制器重新起作用。優(yōu)點(diǎn):精度高,穩(wěn)定性、魯棒性和自適應(yīng)性強(qiáng)。(ii)神經(jīng)網(wǎng)絡(luò)監(jiān)督控制21神經(jīng)網(wǎng)絡(luò)監(jiān)督控制自校正控制:根據(jù)系統(tǒng)辨識(shí)結(jié)果,調(diào)節(jié)控制器參數(shù),使系統(tǒng)滿足性能指標(biāo)。直接自校正控制(直接逆控制)神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制包括自校正控制和模型參考控制。間接自校正控制2神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制模型參考控制:閉環(huán)系統(tǒng)的期望性能由參考模型描述,控制的目的是使被控對(duì)象的輸出一致漸近地趨近于參考模型的輸出。直接模型參考控制間接模型參考控制3模型參考控制4神經(jīng)網(wǎng)絡(luò)內(nèi)??刂粕窠?jīng)網(wǎng)絡(luò)內(nèi)??刂疲河蒙窠?jīng)網(wǎng)絡(luò)建立被控對(duì)象的正向模型和控制器。該方案有很好的魯棒性。若模型精確且干擾為0,反饋信號(hào)為0,系統(tǒng)成為
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 幼兒園教師培訓(xùn)簽到制度
- 汽車4s店安全環(huán)保培訓(xùn)制度
- 怎樣制定公司培訓(xùn)班制度
- 污水處理人員培訓(xùn)制度
- 電力安全培訓(xùn)管理制度
- 藝術(shù)培訓(xùn)積分卡制度
- 食堂管理員安全培訓(xùn)制度
- 公司導(dǎo)師培訓(xùn)制度及流程
- 幼少兒培訓(xùn)班管理制度
- 酒店培訓(xùn)室規(guī)章制度
- 司機(jī)入職心理測(cè)試題及答案
- 退休支部換屆工作報(bào)告
- T/CMES 37002-2022景區(qū)玻璃類游樂和觀景設(shè)施建造單位能力條件要求
- T/CATCM 029-2024中藥材產(chǎn)地加工(趁鮮切制)生產(chǎn)技術(shù)規(guī)范
- 2025至2030中國(guó)氯蟲苯甲酰胺行業(yè)應(yīng)用狀況及未來前景展望報(bào)告
- 網(wǎng)絡(luò)游戲代練團(tuán)隊(duì)服務(wù)合作協(xié)議
- 活牛轉(zhuǎn)讓協(xié)議書
- 高血壓病人的手術(shù)中護(hù)理
- 乙肝患者透析管理規(guī)范
- 老人臨終前的正確護(hù)理
- 防性侵家長(zhǎng)會(huì)課件教學(xué)
評(píng)論
0/150
提交評(píng)論