模式識(shí)別(山東聯(lián)盟)智慧樹知到課后章節(jié)答案2023年下青島大學(xué)_第1頁
模式識(shí)別(山東聯(lián)盟)智慧樹知到課后章節(jié)答案2023年下青島大學(xué)_第2頁
模式識(shí)別(山東聯(lián)盟)智慧樹知到課后章節(jié)答案2023年下青島大學(xué)_第3頁
模式識(shí)別(山東聯(lián)盟)智慧樹知到課后章節(jié)答案2023年下青島大學(xué)_第4頁
模式識(shí)別(山東聯(lián)盟)智慧樹知到課后章節(jié)答案2023年下青島大學(xué)_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

模式識(shí)別(山東聯(lián)盟)智慧樹知到課后章節(jié)答案2023年下青島大學(xué)青島大學(xué)

第一章測試

關(guān)于監(jiān)督模式識(shí)別與非監(jiān)督模式識(shí)別的描述正確的是

A:監(jiān)督模式識(shí)別需要訓(xùn)練樣本B:非監(jiān)督模式識(shí)別對樣本的分類結(jié)果是唯一的C:非監(jiān)督模式識(shí)別是根據(jù)樣本之間的相似性進(jìn)行分類的D:監(jiān)督模式識(shí)別需要設(shè)計(jì)分類器

答案:非監(jiān)督模式識(shí)別對樣本的分類結(jié)果是唯一的

基于數(shù)據(jù)的方法適用于特征和類別關(guān)系不明確的情況

A:錯(cuò)B:對

答案:對

下列關(guān)于模式識(shí)別的說法中,正確的是

A:模式識(shí)別研究的問題就是如何通過機(jī)器實(shí)現(xiàn)樣本的特征提取B:模式可以看作對象的組成成分或影響因素間存在的規(guī)律性關(guān)系C:對外界事物進(jìn)行分類的過程就是特征提取的過程D:人類在兒童時(shí)期的活動(dòng)中幾乎不包含模式識(shí)別的活動(dòng)

答案:模式可以看作對象的組成成分或影響因素間存在的規(guī)律性關(guān)系

在模式識(shí)別中,樣本的特征構(gòu)成特征空間,特征數(shù)量越多越有利于分類

A:錯(cuò)B:對

答案:錯(cuò)

在監(jiān)督模式識(shí)別中,分類器的形式越復(fù)雜,對未知樣本的分類精度就越高

A:錯(cuò)B:對

答案:錯(cuò)

第二章測試

下列關(guān)于最小風(fēng)險(xiǎn)的貝葉斯決策的說法中正確的有

A:條件風(fēng)險(xiǎn)反映了對于一個(gè)樣本x采用某種決策時(shí)所帶來的損失B:最小風(fēng)險(xiǎn)的貝葉斯決策當(dāng)中,決策的數(shù)量和樣本類別的數(shù)量一定是相等的C:最小風(fēng)險(xiǎn)的貝葉斯決策考慮到了不同的錯(cuò)誤率所造成的不同損失D:最小錯(cuò)誤率的貝葉斯決策是最小風(fēng)險(xiǎn)的貝葉斯決策的特例

答案:條件風(fēng)險(xiǎn)反映了對于一個(gè)樣本x采用某種決策時(shí)所帶來的損失;最小風(fēng)險(xiǎn)的貝葉斯決策考慮到了不同的錯(cuò)誤率所造成的不同損失;最小錯(cuò)誤率的貝葉斯決策是最小風(fēng)險(xiǎn)的貝葉斯決策的特例

我們在對某一模式x進(jìn)行分類判別決策時(shí),只需要算出它屬于各類的條件風(fēng)險(xiǎn)就可以進(jìn)行決策了。

A:錯(cuò)B:對

答案:對

下面關(guān)于貝葉斯分類器的說法中錯(cuò)誤的是

A:兩類問題的貝葉斯分類器中可以只用一個(gè)判別函數(shù)。B:多類問題的貝葉斯分類器中包含多個(gè)判別函數(shù)。C:相鄰兩個(gè)決策區(qū)域的決策面上的判別函數(shù)值是相等的。D:貝葉斯分類器中的判別函數(shù)的形式是唯一的

答案:貝葉斯分類器中的判別函數(shù)的形式是唯一的

當(dāng)各類的協(xié)方差矩陣相等時(shí),分類面為超平面,并且與兩類的中心連線垂直。

A:錯(cuò)B:對

答案:錯(cuò)

當(dāng)各類的協(xié)方差矩陣不等時(shí),決策面是超二次曲面。

A:錯(cuò)B:對

答案:對

第三章測試

概率密度函數(shù)的估計(jì)的本質(zhì)是根據(jù)訓(xùn)練數(shù)據(jù)來估計(jì)概率密度函數(shù)的形式和參數(shù)。

A:對B:錯(cuò)

答案:對

參數(shù)估計(jì)是已知概率密度的形式,而參數(shù)未知。

A:錯(cuò)B:對

答案:對

概率密度函數(shù)的參數(shù)估計(jì)需要一定數(shù)量的訓(xùn)練樣本,樣本越多,參數(shù)估計(jì)的結(jié)果越準(zhǔn)確。

A:對B:錯(cuò)

答案:對

下面關(guān)于最大似然估計(jì)的說法中正確的是

A:在最大似然函數(shù)估計(jì)中,要估計(jì)的參數(shù)是一個(gè)確定的量。B:在最大似然函數(shù)估計(jì)中,要估計(jì)的參數(shù)是一個(gè)隨機(jī)量。C:在最大似然估計(jì)中要求各個(gè)樣本必須是獨(dú)立抽取的。D:最大似然估計(jì)是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計(jì)未知參數(shù)。

答案:在最大似然函數(shù)估計(jì)中,要估計(jì)的參數(shù)是一個(gè)確定的量。;在最大似然估計(jì)中要求各個(gè)樣本必須是獨(dú)立抽取的。;最大似然估計(jì)是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來估計(jì)未知參數(shù)。

貝葉斯估計(jì)中是將未知的參數(shù)本身也看作一個(gè)隨機(jī)變量,要做的是根據(jù)觀測數(shù)據(jù)對參數(shù)的分布進(jìn)行估計(jì)。

A:錯(cuò)B:對

答案:對

第四章測試

多類問題的貝葉斯分類器中判別函數(shù)的數(shù)量與類別數(shù)量是有直接關(guān)系的。

A:錯(cuò)B:對

答案:對

在線性判別函數(shù)的表達(dá)式中,一般情況下,權(quán)向量w的維數(shù)和樣本的維數(shù)是一致的。

A:對B:錯(cuò)

答案:對

下面關(guān)于超平面的說法中正確的是

A:權(quán)向量與超平面垂直。B:判別函數(shù)可以度量樣本x到超平面的距離。C:分類面的位置是由判別函數(shù)的閾值決定的。D:超平面的法線方向與判別函數(shù)的權(quán)向量的方向是一致的。

答案:權(quán)向量與超平面垂直。;判別函數(shù)可以度量樣本x到超平面的距離。;分類面的位置是由判別函數(shù)的閾值決定的。;超平面的法線方向與判別函數(shù)的權(quán)向量的方向是一致的。

fisher線性判別方法可以將樣本從多維空間投影到一維空間。

A:錯(cuò)B:對

答案:對

在感知器算法中訓(xùn)練樣本需要經(jīng)過增廣化處理和規(guī)范化處理。

A:對B:錯(cuò)

答案:對

在解空間中的解向量應(yīng)該對所有的樣本都滿足aTyi>0的條件。

A:錯(cuò)B:對

答案:對

第五章測試

單個(gè)感知器可以解決非線性問題的分類。

A:對B:錯(cuò)

答案:錯(cuò)

下面關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中正確的是

A:多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。B:神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。C:多個(gè)感知器可以解決非線性問題的分類。D:單個(gè)感知器可以實(shí)現(xiàn)線性分類。

答案:多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。;神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。;多個(gè)感知器可以解決非線性問題的分類。;單個(gè)感知器可以實(shí)現(xiàn)線性分類。

在模式識(shí)別中,神經(jīng)網(wǎng)絡(luò)的輸入層的神經(jīng)元的個(gè)數(shù)與樣本的特征數(shù)量相關(guān)。

A:錯(cuò)B:對

答案:對

隱含層或輸出層具有激活函數(shù)。

A:錯(cuò)B:對

答案:對

下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說法錯(cuò)誤的是

A:BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個(gè)過程構(gòu)成。B:在BP算法中數(shù)據(jù)的正向傳播和誤差的反向傳播是交替進(jìn)行的。C:BP網(wǎng)絡(luò)是是一種按誤差反向傳播算法訓(xùn)練的多層前饋網(wǎng)絡(luò)。D:BP算法由數(shù)據(jù)流的前向計(jì)算(正向傳播)和誤差信號(hào)的反向傳播兩個(gè)過程構(gòu)成。

答案:BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個(gè)過程構(gòu)成。

神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響。

A:網(wǎng)絡(luò)結(jié)構(gòu)B:傳遞函數(shù)C:樣本的數(shù)量D:連接權(quán)值的學(xué)習(xí)

答案:網(wǎng)絡(luò)結(jié)構(gòu);傳遞函數(shù);連接權(quán)值的學(xué)習(xí)

利用神經(jīng)網(wǎng)絡(luò)對兩類問題進(jìn)行分類時(shí),可以用一個(gè)輸出節(jié)點(diǎn)來實(shí)現(xiàn)。

A:錯(cuò)B:對

答案:對

第六章測試

k-近鄰法中k的選取一般為偶數(shù)。

A:對B:錯(cuò)

答案:錯(cuò)

剪輯近鄰法去除的是遠(yuǎn)離分類邊界,對于最后的決策沒有貢獻(xiàn)的樣本。

A:錯(cuò)B:對

答案:錯(cuò)

壓縮近鄰法去除的是遠(yuǎn)離分類邊界,對于最后的決策沒有貢獻(xiàn)的樣本。

A:對B:錯(cuò)

答案:對

剪輯近鄰法剪除的是靠近分類面邊緣的樣本。

A:對B:錯(cuò)

答案:對

近鄰法是一種有監(jiān)督學(xué)習(xí)

A:對B:錯(cuò)

答案:對

第七章測試

一個(gè)數(shù)據(jù)集能生成多種決策樹

A:對B:錯(cuò)

答案:對

ID3方法的目的是降低系統(tǒng)信息熵

A:對B:錯(cuò)

答案:對

過擬合不會(huì)影響分類模型的泛化能力

A:對B:錯(cuò)

答案:錯(cuò)

先剪枝可以有效解決過擬合問題,但是后剪枝不能

A:錯(cuò)B:對

答案:錯(cuò)

隨機(jī)森林算法是基于自舉思想的一種決策樹改進(jìn)算法

A:錯(cuò)B:對

答案:對

第八章測試

C均值算法是基于相似性度量的

A:錯(cuò)B:對

答案:對

C均值算法需要進(jìn)行迭代計(jì)算

A:錯(cuò)B:對

答案:對

分級聚類可以使用多種不同的類間相似性度量

A:錯(cuò)B:對

答案:對

C均值聚類算法對噪聲和孤立點(diǎn)不敏感

A:對B:錯(cuò)

答案:錯(cuò)

分級聚類又叫層次聚類,需要構(gòu)建聚類樹

A:對B:錯(cuò)

答案:對

第九章測試

特征提取不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性。

A:對B:錯(cuò)

答案:對

理想的判據(jù)應(yīng)該對特征具有單調(diào)性,加入新的特征不會(huì)使判據(jù)減小。

A:對B:錯(cuò)

答案:對

基于類內(nèi)類間距離的可分性判據(jù)和概率密度函數(shù)的可分性判據(jù)都可以有不同的表達(dá)形式。

A:錯(cuò)B:對

答案:對

熵表示不確定性,熵越小不確定性越大。

A:對B:錯(cuò)

答案:錯(cuò)

窮舉法是一種基本的特征選擇最優(yōu)算法。

A:錯(cuò)B:對

答案:對

下面關(guān)于分支定界法的說法中正確的是

A:分枝定界法的計(jì)算量與具體問題和數(shù)據(jù)有關(guān)。B:分枝定界法是一種自頂向下的方法,沒有回溯的過程。C:分枝定界法是一種自頂向下的方法,具有回溯的過程。D:分枝定界法也是一種特征選擇的最優(yōu)算法。

答案:分枝定界法的計(jì)算量與具體問題和數(shù)據(jù)有關(guān)。;分枝定界法是一種自頂向下的方法,具有回溯的過程。;分枝定界法也是一種特征選擇的最優(yōu)算法。

第十章測試

選擇性抽樣是根據(jù)樣本的先驗(yàn)概率來確定檢驗(yàn)集數(shù)量的抽樣方法。

A:錯(cuò)B:對

答案:對

測試集的樣本數(shù)量越多,對分類器錯(cuò)誤率的估計(jì)就越準(zhǔn)確。

A:錯(cuò)B:對

答案:對

在總的樣本集不是很大的情況下,可以采用交叉驗(yàn)證法來較好的估計(jì)分類器性能。

A:對B:錯(cuò)

答案:對

在進(jìn)行交叉驗(yàn)證時(shí),,一般讓臨時(shí)訓(xùn)練集較大,臨時(shí)測試集較小,這樣得到的錯(cuò)誤率估計(jì)就更接近用全部樣本作為訓(xùn)練樣本時(shí)的錯(cuò)誤率。

A:對B:錯(cuò)

答案:對

下面關(guān)于交叉驗(yàn)證法的說法中正確的是

A:n倍交叉驗(yàn)證法和留一法都是交叉驗(yàn)證法的具體形式。B:交叉驗(yàn)證法不僅可以估計(jì)分類器的錯(cuò)誤率,還可以用于分類器參數(shù)的選擇。C:交叉驗(yàn)證法中的測試集過小會(huì)帶來錯(cuò)誤率估計(jì)方差大的問題,這個(gè)問題

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論