模式識別期末試題_第1頁
模式識別期末試題_第2頁
模式識別期末試題_第3頁
模式識別期末試題_第4頁
模式識別期末試題_第5頁
免費預(yù)覽已結(jié)束,剩余4頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、一、填空與選擇填空(本題答案寫在此試卷上,30分)1、模式識別系統(tǒng)的基本構(gòu)成單元包括:模式采集、特征提取與選擇和模式分類。2、統(tǒng)計模式識別中描述模式的方法一般使用特真矢量;句法模式識別中模式描述方法一般有樹_、網(wǎng)。3、聚類分析算法屬于(1);判別域代數(shù)界面方程法屬于(3)。(1)無監(jiān)督分類(2)有監(jiān)督分類(3)統(tǒng)計模式識別方法(4)句法模式識別方法4、若描述模式的特征量為0-1二值特征量,則一般采用(4)進行相似性度量。(1)距離測度(2)模糊測度(3)相似測度(4)匹配測度5、下列函數(shù)可以作為聚類分析中的準則函數(shù)的有(1)(3)(4)j-1l-l(1)人耶泮J二%sjJ=2網(wǎng)-河網(wǎng)-如(4)

2、 二6、Fisher線性判別函數(shù)的求解過程是將N維特征矢量投影在(2)中進行。(1)二維空間(2)一維空間(3)N-1維空間7、下列判別域界面方程法中只適用于線性可分情況的算法有(1);線性可分、不可分都適用的有(3)(1)感知器算法(2)H-K算法(3)積累位勢函數(shù)法8、下列四元組中滿足文法定義的有(1)(2)(4)。(1) (AB,0,1,-01,At0A1,At1A0,BtBA,Bt0,A)(A,0,1,A0,A0A,A)(3)(S,ab,S:00S,S-;11S,S:00,S.11,S(4) (丹,0,1,A01,A0A1,A1A0,A)9、影響層次聚類算法結(jié)果的主要因素有(計算模式距

3、離的測度、(聚類準則、類間距離門限、預(yù)定的類別數(shù)目)。10、歐式距離具有(1、2);馬式距離具有(1、2、3、4)。(1)平移不變性(2)旋轉(zhuǎn)不變性(3)尺度縮放不變性(4)不受量綱影響的特性11、線性判別函數(shù)的正負和數(shù)值大小的幾何意義是(正(負)表示樣本點位于判別界面法向量指向的正(負)半空間中;絕對值正比于樣本點到判別界面的距離。)。12、感知器算法工。(1)只適用于線性可分的情況;(2)線性可分、不可分都適用。13、積累勢函數(shù)法較之于H-K算法的優(yōu)點是(該方法可用于非線性可分情況(也可用于線性可分情況);K(x)=kK(x,Xk)一位勢函數(shù)K(x,xk)與積累位勢函數(shù)K(x)的關(guān)系為(X

4、kX)。14、在統(tǒng)計模式分類問題中,聶曼-皮爾遜判決準則主要用于(某一種判決錯誤較另一種判決錯誤更為重要)情況;最小最大判決準則主要用于(先驗概率未知的)情況。15、“特征個數(shù)越多越有利于分類”這種說法正確嗎?(錯誤)。特征選擇的主要目的是(從n個特征中選出最有利于分類的的m個特征(mn)的條件下,可以使用分支定界法以減少計算量。16、散度Jij越大,說明母類模式與切類模式的分布(差別越大);當類模式與類模式的分布相同時,Jij=(0)。17、已知有限狀態(tài)自動機Af=(Z,Q,0q0,F),=0,1;Q=q0,q1;&q0,0)=q1,6(q0,1)=q1,如1,0)=q0,gq1,1)=q0

5、;q0=q0;F=q0?,F(xiàn)有輸入字符串:(a)00011101011,(b)1100110011,(c)101100111000,(d)0010011,試問,用Af對上述字符串進行分類的結(jié)果為(1:a,d;32:b,c)o18、影響聚類算法結(jié)果的主要因素有(_)。已知類別的樣本質(zhì)量;分類準則;特征選??;模式相似性測度。19、模式識別中,馬式距離較之于歐式距離的優(yōu)點是()。平移不變性;旋轉(zhuǎn)不變性;尺度不變性;考慮了模式的分布。20、基于二次準則函數(shù)的H-K算法較之于感知器算法的優(yōu)點是(_)??梢耘袆e問題是否線性可分;其解完全適用于非線性可分的情況;其解的適應(yīng)性更好;計算量小。21、影響基本C均值

6、算法的主要因素有()。樣本輸入順序;模式相似性測度;聚類準則;初始類心的選取。22、位勢函數(shù)法的積累勢函數(shù)K(x)的作用相當于Bayes判決中的(_)。先驗概率;后驗概率;類概率密度;類概率密度與先驗概率的乘積。23、在統(tǒng)計模式分類問題中,當先驗概率未知時,可以使用(_)。最小損失準則;最小最大損失準則;最小誤判概率準則;N-P判決。24、在()情況下,用分支定界法做特征選擇計算量相對較少。Gdn,(n為原特征個數(shù),d為要選出的特征個數(shù));樣本較多;選用的可分性判據(jù)J對特征數(shù)目單調(diào)不減;選用的可分性判據(jù)J具有可加性。25、散度Jd是根據(jù)()構(gòu)造的可分性判據(jù)。先驗概率;后驗概率;類概率密度;信息

7、嫡;幾何距離。26、似然函數(shù)的概型已知且為單峰,則可用(_)估計該似然函數(shù)。矩估計;最大似然估計;Bayes估計;Bayes學習;Parzen窗法。27、Kn近鄰元法較之Parzen窗法的優(yōu)點是(_)。所需樣本數(shù)較少;穩(wěn)定性較好;分辨率較高;連續(xù)性較好。28、從分類的角度講,用DKLT做特征提取主要利用了DKLT的性質(zhì):(一_)。變換產(chǎn)生的新分量正交或不相關(guān);以部分新的分量表示原矢量均方誤差最??;使變換后的矢量能量更趨集中;29、一般,剪輯k-NN最近鄰方法在(_)的情況下效果較好。樣本數(shù)較大;樣本數(shù)較??;樣本呈團狀分布;樣本呈鏈狀分布。30、如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,則影響

8、聚類算法結(jié)果的主要因素有(_)。已知類別樣本質(zhì)量;分類準則;特征選??;量綱。二、(15分)簡答及證明題(1)影響聚類結(jié)果的主要因素有那些?(2)證明馬氏距離是平移不變的、非奇異線性變換不變的。答:(1)分類準則,模式相似性測度,特征量的選擇,量綱。(2)證明:(2分)(2分)(1分)戶(片用)二)-幻丁1國-即JJ儲1椎1*二一尺冊a三、(8分)說明線性判別函數(shù)的正負和數(shù)值大小在分類中的意義并證明之。答:(1)(4分)d的絕對值口同正比于?到超平面d二。的距離4式(1-1)的分子為判別函數(shù)絕對值,上式表明,的值口正比于7到超平面4=。的距離4,一個特征矢量代入判別函數(shù)后所得值的絕對值越大表明該

9、特征點距判別界面越遠。(2)(4分)判別函數(shù)值的正負表示出特征點位于哪個半空間中,或者換句話說,表示特征點位于界面的哪一側(cè)。四、(12分,每問4分)在目標識別中,假定有農(nóng)田和裝甲車兩種類型,類型和類型如分別代表農(nóng)田和裝甲車,它們的先驗概率分別為0.8和0.2,損失函數(shù)如表1所示?,F(xiàn)在做了三次試驗,獲得三個樣本的類概率密度如下:?(田?。?.3,0.1,0.6眄):0.7,0.8,0.3(1) 試用貝葉斯最小誤判概率準則判決三個樣本各屬于哪一個類型;(2) 假定只考慮前兩種判決,試用貝葉斯最小風險準則判決三個樣本各屬于哪一類;(3) 把拒絕判決考慮在內(nèi),重新考核三次試驗的結(jié)果。表1判決必叫%1

10、4%51%11_33解:由題可知:W=0.W)=0.3而而兩二,戶優(yōu)|可)_1尸每闖2F(馬|叼)8尸(為I的)(1) (4分)根據(jù)貝葉斯最小誤判概率準則知:戶11%)_PF(qI可)P)伉Iq)?二尸(WI?。ゝ),則可以任判;尸國I町)尸,則判為四;叼)尸,則判為Q;尸)()4.3m4(2) (4分)由題可知:?3)4-4)07(4-1)7則尸(XI弓)力,判為蜘;色)J產(chǎn)每1的)7,判為4;F(均J尸(弓I的)7,判為01;(3) (4分)對于兩類問題,對于樣本JT,假設(shè)PQ)已知,有#(勺Iz)=I離)式%I制+為%IIx)=_一|一)尸(彳I電)F(研)+2(%硒)P(x|的)尸(町

11、)=PW則對于第一個樣本,民工)=5x0214x0.21產(chǎn)尸,蛔=2x0.21陽)z-103nRU-x)即決策為她的條件風險小于決策為助的條件且險,因此我們采取決策行動的,即判斷待訊別的細胞工為叫類一異常細胞,招1與2相對比,其分類結(jié)果正好相反,這是因為這里影響決策結(jié)果的因素又多了一個,即損失而且兩類錯誤決策所造成的損失相差很懸殊,因此“損失”就挺了主導作用.十五、有線性判別函數(shù),為什么還要引進非線性判別函數(shù)?分析由“線性判別函數(shù)”向“非線性判別函數(shù)”推廣的思想和方法。答:實際中有很多模式識別問題并不是線性可分的,這時就需要采用非線性分類器,比如當兩類樣本分不具有多峰性質(zhì)并互相交錯時,簡單的線

12、性判別函數(shù)往往會帶來較大的分類錯誤。這時,樹分類器作為一種分段線性分類器,常常能有效地應(yīng)用于這種情況。十六、1.什么是特征選擇?2.什么是Fisher線性判別?答:1.特征選擇就是從一組特征中挑選出一些最有效的特征以達到降低特征空間維數(shù)的目的。2.Fisher線性判別:可以考慮把d維空間的樣本投影到一條直線上,形成一維空間,即把維數(shù)壓縮到一維,這在數(shù)學上容易辦到,然而,即使樣本在d維空間里形成若干緊湊的互相分得開的集群,如果把它們投影到一條任意的直線上,也可能使得幾類樣本混在一起而變得無法識別。但是在一般情況下,總可以找到某個方向,使得在這個方向的直線上,樣本的投影能分開得最好。問題是如何根據(jù)

13、實際情況找到這條最好的、最易于分類的投影線,這就是Fisher算法所要解決的基本問題。十七、寫出兩類和多類情況下最小風險貝葉斯決策判別函數(shù)和決策面方程。兩類別問題:判別函數(shù)gi(x)=A11p(w1|x)+A12p(w2|x)g式X)=A21p(o)1|x)+A22p(co2|x)決策面方程:g1(x)=g2(x)c類別問題,判別函數(shù)cgjG)=2%p(3j|x),i=L,Ci=i決策面方程:gi(x)=g,(x),iji=L,*,cj=L*,c二十、定性說明基于參數(shù)方法和非參數(shù)方法的概率密度估計有什么區(qū)別?答:基于參數(shù)方法:是由已知類別的樣本集對總體分布的某些參數(shù)進行統(tǒng)計推斷非參數(shù)方法:已知樣本所屬類別,但未知總體概率密度函數(shù)形式二十二、簡述支持向量機的基本思想。答:SVM線性可分情況下的最優(yōu)分類面發(fā)展而來。最優(yōu)分類面就是要求分類線不但能將兩類正確分開(訓練錯誤率為0),且使分類間隔最大。SVM慮尋找一個滿足分類要求的超平面,并且使訓練集中的點距離分類面盡可能的遠,也就是尋找一個分類面使它兩側(cè)的空白區(qū)域(margin)最大。過兩類樣本中離分類面最近的點,且平行于最優(yōu)分類面的超平面上Hi,Ha的訓練樣本就叫支持向量。3對兩類問題,若損失函數(shù);九1=加=0,九2制,后0,試求基于最小風險貝葉斯決策分界面處的兩類錯

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論