智能控制理論與技術(shù)試題_第1頁(yè)
智能控制理論與技術(shù)試題_第2頁(yè)
智能控制理論與技術(shù)試題_第3頁(yè)
智能控制理論與技術(shù)試題_第4頁(yè)
智能控制理論與技術(shù)試題_第5頁(yè)
已閱讀5頁(yè),還剩12頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

武漢理工大學(xué)課程名稱:智能控制理論與技術(shù)簡(jiǎn)答題(40分,每小題10分)智能控制由哪幾部分組成?各自的作用是什么?答:智能控制系統(tǒng)一般由五部分組成:廣義對(duì)象、感知信息處理、認(rèn)知部分、規(guī)劃和控制部分、常規(guī)控制器及執(zhí)行器。其作用如下:廣義對(duì)象:通常意義下的控制對(duì)象和所處的環(huán)境。感知信息處理:將傳感器得到的原始信息加以處理,并與內(nèi)部環(huán)境模型產(chǎn)生的期望信息進(jìn)行比較,完成信息的獲取、辨識(shí)、整理及更新的功能。認(rèn)知部分:主要用來(lái)接收和存儲(chǔ)信息、知識(shí)、經(jīng)驗(yàn)和數(shù)據(jù),并對(duì)他們進(jìn)行分析、推理做出行動(dòng)的決策,送至規(guī)劃和控制部分。規(guī)劃和控制部分:是整個(gè)系統(tǒng)的核心,它根據(jù)給定的任務(wù)要求,反饋信息以及經(jīng)驗(yàn)知識(shí),進(jìn)行信息自動(dòng)搜索、推理決策、動(dòng)作規(guī)劃,最終產(chǎn)生具體的控制作用。常規(guī)控制器及執(zhí)行器:作用于控制對(duì)象。智能控制和傳統(tǒng)控制差異是什么?答:在應(yīng)用領(lǐng)域方面,傳統(tǒng)控制著重解決不太復(fù)雜的過(guò)程控制和大系統(tǒng)的控制問(wèn)題;而智能控制主要解決高度非線性、不確定性和復(fù)雜系統(tǒng)控制問(wèn)題。在理論方法上,傳統(tǒng)控制理論通常采用定量方法進(jìn)行處理,而智能控制系統(tǒng)大多采用符號(hào)加工的方法;傳統(tǒng)控制通常捕獲精確知識(shí)來(lái)滿足控制指標(biāo),而智能控制通常是學(xué)習(xí)積累非精確知識(shí);傳統(tǒng)控制通常是用數(shù)學(xué)模型來(lái)描述系統(tǒng),而智能控制系統(tǒng)則是通過(guò)經(jīng)驗(yàn)、規(guī)則用符號(hào)來(lái)描述系統(tǒng)。在性能指標(biāo)方面,傳統(tǒng)控制有著嚴(yán)格的性能指標(biāo)要求,智能控制沒(méi)有統(tǒng)一的性能指標(biāo),而主要關(guān)注其目的和行為是否達(dá)到。但是,智能控制與傳統(tǒng)的或常規(guī)的控制有密切的關(guān)系,互相取長(zhǎng)補(bǔ)短,而并非互相排斥?;谥悄芸刂婆c傳統(tǒng)控制在應(yīng)用領(lǐng)域方面、理論方法上和性能指標(biāo)等方面的差異,往往將常規(guī)控制包含在智能控制之中,智能控制也利用常規(guī)控制的方法來(lái)解決“低級(jí)”的控制問(wèn)題,力圖擴(kuò)充常規(guī)控制方法并建立一系列新的理論與方法來(lái)解決更具有挑戰(zhàn)性的復(fù)雜控制問(wèn)題??刂品桨?jìng)鹘y(tǒng)控制智能控制控制過(guò)程較精確的模型,固定的控制算法仿人智能控制決策控制模型模型框架控制理論的方法和人工智能的靈活框架結(jié)合起來(lái)控制性能缺乏靈活性和應(yīng)變能力改變控制策略去適應(yīng)對(duì)象的復(fù)雜性和不確定性控制對(duì)象線性、時(shí)不變,簡(jiǎn)單系統(tǒng)復(fù)雜,包括不確定性的控制過(guò)程人工神經(jīng)元網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)主要有哪幾種?答:人工神經(jīng)網(wǎng)絡(luò)從拓?fù)浣Y(jié)構(gòu)上來(lái)說(shuō),主要分為層狀和網(wǎng)狀結(jié)構(gòu)。層狀結(jié)構(gòu)。網(wǎng)絡(luò)由若干層組成,每層中有一定數(shù)量的神經(jīng)元,相鄰層中神經(jīng)元單向聯(lián)接,一般同層內(nèi)神經(jīng)元不能聯(lián)接。前向網(wǎng)絡(luò):只有前后相鄰兩層之間神經(jīng)元相互聯(lián)接,各神經(jīng)元之間沒(méi)有反饋。每個(gè)神經(jīng)元從前一層接收輸入,發(fā)送輸出給下一層。網(wǎng)狀結(jié)構(gòu):網(wǎng)絡(luò)中任何兩個(gè)神經(jīng)元之間都可能雙向聯(lián)接。反饋網(wǎng)絡(luò):從輸出層到輸入層有反饋,每一個(gè)神經(jīng)元同時(shí)接收外來(lái)輸入和來(lái)自其它神經(jīng)元的反饋輸入,其中包括神經(jīng)元輸出信號(hào)引回自身輸入的自環(huán)反饋。混合型網(wǎng)絡(luò):前向網(wǎng)絡(luò)的同一層神經(jīng)元之間有互聯(lián)的網(wǎng)絡(luò)。設(shè)計(jì)智能控制系統(tǒng)的主要步驟有哪些;答:1.建立被控系統(tǒng)的模型;2.如果需要,可以簡(jiǎn)化模型;3.分析模型,確定其性質(zhì);4.確定性能指標(biāo);5.確定所采用的控制器類(lèi)型;6.如果可能,設(shè)計(jì)控制器滿足性能指標(biāo);不能的話,修改性能指標(biāo)或者拓寬控制器的類(lèi)型。計(jì)算題(10分)設(shè)論域,且試求(補(bǔ)集),(補(bǔ)集)答:A?B=A?B=AB作圖題(10分)1.畫(huà)出以下應(yīng)用場(chǎng)合下適當(dāng)?shù)碾`屬函數(shù):(a)我們絕對(duì)相信附近的e(t)是“正小”,只有當(dāng)e(t)足夠遠(yuǎn)離時(shí),我們才失去e(t)是“正小”的信心;(b)我們相信附近的e(t)是“正大”,而對(duì)于遠(yuǎn)離的e(t)我們很快失去信心;(c)隨著e(t)從向左移動(dòng),我們很快失去信心,而隨著e(t)從向右移動(dòng),我們較慢失去信心。答:(a)假設(shè)偏離π4±π4算足夠遠(yuǎn)離,選擇鐘形隸屬度函數(shù),參數(shù)設(shè)為:圖3.1鐘形隸屬度函數(shù)曲線(b)假設(shè)“很快失去信心”表示偏離π2±π4處隸屬度降為零,選擇三角形隸屬度函數(shù),參數(shù)設(shè)為圖3.2三角形隸屬度函數(shù)曲線(C)假設(shè)“很快失去信心”表示偏離π4±π4處隸屬度降為零,“較慢失去信心”表示偏離π4圖3.3三角形隸屬度函數(shù)曲線2.畫(huà)出以下兩種情況的隸屬函數(shù):(a)精確集合的隸屬函數(shù);(b)寫(xiě)出單一模糊(singletonfuzzification)隸屬函數(shù)的數(shù)學(xué)表達(dá)形式,并畫(huà)出隸屬函數(shù)圖。答:(a)選取梯形隸屬度函數(shù),參數(shù)設(shè)置為trapmf(x,[pi/8,pi/8,pi/2,pi/2]),曲線如圖3.4所示。圖3.4梯形隸屬度函數(shù)曲線(b)單一模糊的數(shù)學(xué)表達(dá)式如下:μ隸屬度函數(shù)圖像如圖3.5所示:圖3.5單一模糊隸屬度函數(shù)曲線四、利用靜態(tài)多層前向人工神經(jīng)網(wǎng)絡(luò)(BP網(wǎng)絡(luò))(40分)實(shí)現(xiàn)結(jié)合1研究變學(xué)習(xí)因子算法對(duì)網(wǎng)絡(luò)收斂性能的影響函數(shù)逼近此時(shí)BP神經(jīng)網(wǎng)絡(luò)用作逼近器,可以取圖4.1所示的結(jié)構(gòu)。圖中k為網(wǎng)絡(luò)的迭代次數(shù),u(k)為逼近器的輸入,y(k)為實(shí)際輸出,yn(k圖4.1BP神經(jīng)網(wǎng)絡(luò)逼近BP網(wǎng)絡(luò)的學(xué)習(xí)算法BP算法的學(xué)習(xí)過(guò)程由前向傳播和反向傳播組成。前向傳播:計(jì)算網(wǎng)絡(luò)的輸出隱層神經(jīng)元的輸入為:x采用S形激發(fā)函數(shù),隱層神經(jīng)元的輸出為:x則?輸出層神經(jīng)元的輸出為(輸出層采用線性激發(fā)函數(shù))y誤差信號(hào)為:e誤差性能指標(biāo)函數(shù)為:E反向傳播:采用δ學(xué)習(xí)算法,并引入動(dòng)量項(xiàng),調(diào)整各層權(quán)系數(shù)輸出層及隱層的連接權(quán)系數(shù)wjk學(xué)習(xí)算法為Δw式中η為學(xué)習(xí)速率,η>0k+1時(shí)刻網(wǎng)絡(luò)的權(quán)值為w式中α為動(dòng)量因子,α∈[0,1]隱層及輸入層連接權(quán)值學(xué)習(xí)算法為:Δw式中?k+1時(shí)刻網(wǎng)絡(luò)的權(quán)值為wBP神經(jīng)網(wǎng)絡(luò)算法的計(jì)算流程如圖4.2所示,MATLAB代碼參見(jiàn)附錄。圖4.2BP神經(jīng)網(wǎng)絡(luò)計(jì)算流程選擇的BP網(wǎng)絡(luò)逼近器結(jié)構(gòu)為1-10-1,如圖4.3所示,含有一個(gè)隱層,其中有10個(gè)神經(jīng)元。圖4.3用于逼近的BP網(wǎng)絡(luò)(1-10-1)程序中各參數(shù)設(shè)置如下:學(xué)習(xí)速率net.lr=0.1;動(dòng)量因子net.mc=0.8;隱層神經(jīng)元個(gè)數(shù)net.nHidden=10;訓(xùn)練樣本數(shù)trainNum=1e4;最大訓(xùn)練代數(shù)net.epochs=1e2;期望訓(xùn)練誤差net.goal=1e-4;程序運(yùn)行結(jié)果如圖4.4和4.5所示。圖4.4神經(jīng)網(wǎng)絡(luò)訓(xùn)練結(jié)果圖4.5神經(jīng)網(wǎng)絡(luò)訓(xùn)練誤差變化曲線從上圖中可以看出,BP網(wǎng)絡(luò)的輸出曲線和理想輸出曲線基本重合,訓(xùn)練誤差在第二代就已經(jīng)達(dá)到目標(biāo)要求。但是對(duì)網(wǎng)絡(luò)進(jìn)行測(cè)試的結(jié)果卻非常不盡人意,測(cè)試數(shù)據(jù)仍然選用訓(xùn)練網(wǎng)絡(luò)時(shí)的輸入數(shù)據(jù),結(jié)果如圖4.6所示。圖4.6網(wǎng)絡(luò)測(cè)試結(jié)果從上圖可以看出,網(wǎng)絡(luò)輸出特性十分糟糕。BP網(wǎng)絡(luò)實(shí)現(xiàn)非線性函數(shù)逼近要達(dá)到的效果我想是這樣的:對(duì)于已訓(xùn)練好的網(wǎng)絡(luò),各連接關(guān)系的權(quán)值已經(jīng)調(diào)整到最優(yōu),對(duì)給定的輸入便會(huì)產(chǎn)生期望的輸出,而不需要再去調(diào)整權(quán)值了。按這樣的理解,上述輸出結(jié)果很差的原因可能有:1.網(wǎng)絡(luò)結(jié)構(gòu)不合適。只要有足夠多的隱層和隱層節(jié)點(diǎn),BP網(wǎng)絡(luò)可以逼近任意的非線性映射關(guān)系[1]。此處網(wǎng)絡(luò)結(jié)構(gòu)為1-10-1,較為簡(jiǎn)單,而要逼近的函數(shù)非線性程度較為嚴(yán)重,選擇更為復(fù)雜的網(wǎng)絡(luò)也許可以改善測(cè)試結(jié)果。經(jīng)測(cè)試如果要逼近的是正弦函數(shù)的話,能得到一個(gè)比較好的測(cè)試結(jié)果,如圖4.7所示。圖4.7正弦函數(shù)的測(cè)試結(jié)果(前3秒為測(cè)試數(shù)據(jù))2.學(xué)習(xí)算法還有待改進(jìn),BP網(wǎng)絡(luò)的學(xué)習(xí)算法為最速梯度下降法,這里引入了動(dòng)量項(xiàng)加以改進(jìn)??梢愿倪M(jìn)的措施還有:1)變尺度法,它采用的是二階梯度法,相較于一階梯度法收斂要快,因而可以選擇更小的誤差進(jìn)行訓(xùn)練;2)變步長(zhǎng)法,這種方法的學(xué)習(xí)速率在訓(xùn)練過(guò)程中可以自適應(yīng)地調(diào)整,以比較合適的學(xué)習(xí)速率逼近目標(biāo),也可以加快算法收斂速度。使用MATLAB的神經(jīng)網(wǎng)絡(luò)工具箱如果使用MATLAB神經(jīng)網(wǎng)絡(luò)工具箱逼近所需的非線性函數(shù),可以輸入以下代碼:clear;rng('default');rng(0);%%%%%%%%%%%%%%%%%%Datatobetrained%%%%%%%%%%%%%%%%%%%%%%%%%%%%trainNum=1e4;input=linspace(0,0.04,trainNum);targets=1.5*cos(314*input+0.5*sin(2*pi*1e6*input));%%%%%%%%%%%%%%%%%%Setnetparameters%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%hiddenLayers=10;net=fitnet(hiddenLayers);[net,tr]=train(net,input,targets); figure;plotperform(tr);%%%%%%%%%%%%%%%%%%%%%%%%Testnetwork%%%%%%%%%%%%%%%%%%%%%%%%%%%%%testIn=linspace(0,0.08,trainNum);testTargets=1.5*cos(314*testIn+0.5*sin(2*pi*1e6*testIn));testOut=sim(net,testIn);figure;plot(testIn,testTargets,testIn,testOut);所采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖4.8所示。圖4.8MATLAB默認(rèn)的網(wǎng)絡(luò)結(jié)構(gòu)網(wǎng)絡(luò)結(jié)構(gòu)為1-10-1,每個(gè)神經(jīng)元還有一個(gè)基權(quán)值b,學(xué)習(xí)算法為L(zhǎng)evenberg-Marquardt算法,可以得到如下結(jié)果:圖4.9網(wǎng)絡(luò)訓(xùn)練誤差變化曲線圖4.10網(wǎng)絡(luò)測(cè)試結(jié)果(前0.04秒為訓(xùn)練數(shù)據(jù))可以看出在第15代算法收斂,對(duì)于訓(xùn)練過(guò)的數(shù)據(jù),網(wǎng)絡(luò)能給出很好的輸出結(jié)果。4.2學(xué)習(xí)率對(duì)網(wǎng)絡(luò)收斂性能的影響學(xué)習(xí)速率對(duì)網(wǎng)絡(luò)收斂性能的影響體現(xiàn)為:學(xué)習(xí)率越小,收斂越慢;學(xué)習(xí)率越大,收斂越快,但是有可能導(dǎo)致振蕩甚至發(fā)散[1]。對(duì)于手寫(xiě)代碼,選擇學(xué)習(xí)速率為0.1,精度為1e-4時(shí),網(wǎng)絡(luò)在第2代收斂。表4.1是學(xué)習(xí)率從0.1遞增到1訓(xùn)練的結(jié)果。表4.1學(xué)習(xí)率

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論