學(xué)堂在線 機(jī)器學(xué)習(xí)初步 章節(jié)測試答案_第1頁
學(xué)堂在線 機(jī)器學(xué)習(xí)初步 章節(jié)測試答案_第2頁
學(xué)堂在線 機(jī)器學(xué)習(xí)初步 章節(jié)測試答案_第3頁
學(xué)堂在線 機(jī)器學(xué)習(xí)初步 章節(jié)測試答案_第4頁
學(xué)堂在線 機(jī)器學(xué)習(xí)初步 章節(jié)測試答案_第5頁
已閱讀5頁,還剩89頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第一章1.31、

單選題

機(jī)器學(xué)習(xí)的經(jīng)典定義是:利用()改善系統(tǒng)自身的性能。A經(jīng)驗(yàn)B專家C規(guī)則D實(shí)踐A2、單選題

隨著機(jī)器學(xué)習(xí)領(lǐng)域的發(fā)展,目前主要研究以下哪個領(lǐng)域的理論和方法?A匯編語言B程序設(shè)計C硬件D智能數(shù)據(jù)分析D3、

單選題

機(jī)器學(xué)習(xí)利用經(jīng)驗(yàn),必須對以下哪個選項進(jìn)行分析?A天氣B數(shù)據(jù)C生活D語言B1.41、

單選題

Tufts醫(yī)學(xué)中心引入機(jī)器學(xué)習(xí)技術(shù)后,人類專家閱讀1000篇摘要,得到的系統(tǒng)自動篩選敏感度可以達(dá)到A90%B93%C95%D100%C2、

單選題Cornell等大學(xué)的學(xué)者對82幅梵高真跡和多少幅贗品進(jìn)行自動分析?A6B8C10D30A3、

填空題

在一項關(guān)于嬰兒和兒童殘疾的研究中,美國Tufts醫(yī)學(xué)中心篩選了約

____

篇摘要330001.51、

單選題

課程視頻的西瓜數(shù)據(jù)集中,“好瓜、壞瓜”是一個西瓜樣例的什么?A屬性B類別標(biāo)記C沒有意義D數(shù)據(jù)集名稱B2、

單選題對于要預(yù)測的新的數(shù)據(jù)樣本,它的類別標(biāo)記是?A已知的B未知的C都可以D負(fù)類B3、填空題

機(jī)器學(xué)習(xí)的模型,____(是/不是)從數(shù)據(jù)中產(chǎn)生的。是1.61、

單選題計算學(xué)習(xí)理論中最重要的理論模型是?A計算模型B數(shù)據(jù)模型C機(jī)器學(xué)習(xí)D、PACD2、

單選題以下哪個是對概率近似正確(PAC)的正確解釋?A以很低概率得到不好的模型B以很低概率得到很好的模型C以很高概率得到很好的模型D以很高概率得到不好的模型C3、填空題機(jī)器學(xué)習(xí)____(有/沒有)堅實(shí)的理論基礎(chǔ)。有1.71、

單選題課程視頻中,訓(xùn)練數(shù)據(jù)中的“色澤”是什么?

A屬性B屬性值C類別標(biāo)記D樣本A2、

單選題

以下哪個選項指的是機(jī)器學(xué)習(xí)中的假設(shè)(hypothesis)?A屬性B標(biāo)記C數(shù)據(jù)D學(xué)到的模型D3、填空題

多分類問題____(可以/不可以)分解為若干個二分類問題??梢?.81、

單選題歸納偏好指機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中,對以下哪個選項的偏好?A數(shù)據(jù)B某種類型假設(shè)C標(biāo)記D運(yùn)行速度B2、

單選題以下哪個選項是指“奧卡姆剃刀”原則?A若有多個假設(shè)與觀察一致,則隨機(jī)選一個B若有多個假設(shè)與觀察一致,則選既不簡單又不復(fù)雜的那個C若有多個假設(shè)與觀察一致,則選最簡單的那個D若有多個假設(shè)與觀察一致,則選最復(fù)雜的那個C3、

填空題利用“奧卡姆剃刀”原則時,確定哪個假設(shè)更“簡單”,這個問題____(是/不是)簡單的。不是1.91、單選題

以下哪種說法描述了NFL定理?A一個算法a若在某些問題上比另一個算法b好,必存在另一些問題沒算法b好B機(jī)器學(xué)習(xí)算法需要數(shù)據(jù)C所有機(jī)器學(xué)習(xí)問題問題出現(xiàn)的機(jī)會相同D一個算法a若在某些問題上比另一個算法b好,a一定比b需要更多數(shù)據(jù)A2、單選題

以下哪個選項是NFL定理的重要前提?A所有“問題”難度不同B所有“問題”出現(xiàn)的機(jī)會服從任意分布C所有“問題”出現(xiàn)的機(jī)會不相同D所有“問題”出現(xiàn)的機(jī)會相同D3、填空題脫離具體問題,空泛地談?wù)摗笆裁磳W(xué)習(xí)算法更好”____(有/沒有)意義。沒有章節(jié)1、單選題下列有關(guān)機(jī)器學(xué)習(xí)基本術(shù)語的說法錯誤的是A從數(shù)據(jù)中學(xué)得模型的過程稱為“學(xué)習(xí)”或“訓(xùn)練”B訓(xùn)練過程中使用的數(shù)據(jù)稱為“訓(xùn)練數(shù)據(jù)”,每一個樣本稱為一個“訓(xùn)練樣本”,訓(xùn)練樣本組成的集合稱為“訓(xùn)練集”C學(xué)得模型對應(yīng)了關(guān)于數(shù)據(jù)的某種潛在的規(guī)律,稱為“假設(shè)”D學(xué)習(xí)過程就是為了找出數(shù)據(jù)的某種潛在規(guī)律,這個規(guī)律自身,一般稱為“數(shù)據(jù)特征”D2、

單選題

(1分)以下關(guān)于機(jī)器學(xué)習(xí)預(yù)測任務(wù)的說法錯誤的是()A一般地,預(yù)測任務(wù)是希望通過對訓(xùn)練集進(jìn)行學(xué)習(xí),建立一個從輸入空間到輸出空間的映射B對于二分類任務(wù),一般令或C對于回歸任務(wù),一般D預(yù)測任務(wù)不需要訓(xùn)練樣本的的標(biāo)記信息D3、

填空題聚類算法是機(jī)器學(xué)習(xí)中一種典型的____學(xué)習(xí)算法。(監(jiān)督/無監(jiān)督)無監(jiān)督4、

填空題

學(xué)出來的模型適用于新樣本的能力,稱為

____

能力。該能力越強(qiáng),說明學(xué)得的模型越能很好地適用于整個樣本空間。泛化5、填空題學(xué)得模型后,使用其進(jìn)行預(yù)測的過程稱為____。測試6、

填空題

根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,我們可以將學(xué)習(xí)任務(wù)分為兩大類,監(jiān)督學(xué)習(xí)和____。無監(jiān)督7、

填空題

分類和回歸任務(wù),按照數(shù)據(jù)是否擁有標(biāo)記信息來說,屬于機(jī)器學(xué)習(xí)中的____。監(jiān)督8、

單選題下列不屬于機(jī)器學(xué)習(xí)任務(wù)的是()A人臉識別B網(wǎng)頁編寫C文本分類D銷量預(yù)測B9、單選題下列說法錯誤的是()A模型是通過學(xué)習(xí)算法得到的B機(jī)器學(xué)習(xí)通常解決高度不確定性和復(fù)雜性的問題C分類和回歸是監(jiān)督學(xué)習(xí)的代表D機(jī)器學(xué)習(xí)一定需要類別標(biāo)記D10、

單選題

下列說法錯誤的是()A“色澤”取值為“青綠”,這里的“青綠”是屬性值B輸出是離散值的學(xué)習(xí)任務(wù)為分類任務(wù)C模型找出的規(guī)律一定是正確的D一般假設(shè)正類和反類是可交換的C11、

單選題下列說法錯誤的是()A學(xué)得模型適用于新樣本的能力稱為“泛化”能力B機(jī)器學(xué)習(xí)一般有“獨(dú)立同分布”假設(shè)C機(jī)器學(xué)習(xí)在只要見過的數(shù)據(jù)上做好就行了,未見過樣本上的性能不重要D一般假設(shè)拿到的所有數(shù)據(jù)都來自一個潛在的分布C12、填空題

把見過的汽車分成若干組,這是一個____(分類/回歸/聚類)任務(wù)聚類13、填空題上完機(jī)器學(xué)習(xí)課,小明在50個數(shù)據(jù)集上用不同算法模型進(jìn)行訓(xùn)練和測試,發(fā)現(xiàn)算法a的效果一直比算法b好,他認(rèn)為在所有問題上算法a的效果都會比b好。這個結(jié)論是____(正確/錯誤)的。錯誤14、

填空題

奧卡姆剃刀原則中,兩個假設(shè)哪一個“更簡單”,是____(容易/不容易)判斷的。不容易15、

單選題

下列關(guān)于歸納偏好的說法錯誤的是()A機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中對某種類型假設(shè)的偏好,稱為“歸納偏好”,或簡稱為“偏好”B一般來說,任何一個有效的機(jī)器學(xué)習(xí)算法都有其歸納偏好C“奧卡姆剃刀”原則在某些情況下可以指導(dǎo)我們選擇偏好D在任何情況下,總有一個最優(yōu)的學(xué)習(xí)算法D第二章2.11、單選題

下面哪一項可以作為模型好的標(biāo)準(zhǔn)?A錯誤率低B精度高C召回率高D上述指標(biāo)都可以,但視具體任務(wù)和使用者需求而異D2、單選題我們希望模型在未見樣本上表現(xiàn)好,這一能力通常被稱作模型的什么能力?A泛化能力B建模能力C學(xué)習(xí)能力D擬合能力A3、填空題

在評價模型性能時,我們更希望它____(泛化能力強(qiáng)/訓(xùn)練誤差為0)泛化能力強(qiáng)2.21、單選題

模型在“未來”樣本上的誤差被稱作A泛化誤差B經(jīng)驗(yàn)誤差C學(xué)習(xí)誤差D訓(xùn)練誤差A(yù)2、單選題

有的情況下,模型學(xué)習(xí)到了訓(xùn)練數(shù)據(jù)滿足的特有性質(zhì),但這些性質(zhì)不是一般規(guī)律,這種現(xiàn)象被稱之為A欠擬合B過擬合C欠配D以上三個選項均不是B3、

填空題

在訓(xùn)練模型時,只需要保證模型的訓(xùn)練誤差最小即可。____(是/否)否2.31、

單選題

模型選擇有哪些關(guān)鍵問題?A評估方法B性能度量C比較檢驗(yàn)D以上三個選項都是關(guān)鍵問題D2、

單選題

為了說明模型在統(tǒng)計意義上表現(xiàn)好,我們最需要考慮A評估方法B性能度量C比較檢驗(yàn)D以上三個選項都不需要考慮C3、填空題在沒有“未來數(shù)據(jù)”的情況下,我們____(能/不能)通過現(xiàn)有數(shù)據(jù)對泛化誤差進(jìn)行估計。能2.41、單選題下列什么方法可以用來獲得從原始數(shù)據(jù)集中劃分出“測試集”?A留出法B交叉驗(yàn)證法C自助法D以上三個選項都可以D2、單選題

下面哪一項不是留出法的注意事項?A需要保持訓(xùn)練集和測試集數(shù)據(jù)分布的一致性B只需要進(jìn)行一次劃分C測試集不能太大,不能太小D以上選項都是B3、填空題訓(xùn)練集與測試集____(應(yīng)該互斥/可以不互斥)應(yīng)該互斥2.51、

單選題

調(diào)參以什么集合上的性能作為評價標(biāo)準(zhǔn)?A訓(xùn)練集B測試集C驗(yàn)證集D以上選項都可以C2、單選題

當(dāng)我們使用一個多項式函數(shù)去逼近數(shù)據(jù)集時,下面哪一個說法是正確的?A多項式的次數(shù)是超參數(shù)B多項式的系數(shù)是超參數(shù)C多項式的次數(shù)必須通過數(shù)據(jù)去學(xué)習(xí)D以上說法都是正確的A3、

填空題

超參數(shù)一般由____(人工/學(xué)習(xí))確定。人工2.61、單選題

“好”模型取決于下列哪些因素?A算法B數(shù)據(jù)C任務(wù)需求D以上選項都是D2、

單選題收購西瓜的公司希望把瓜攤的好瓜都盡量收走,請問他的評價標(biāo)準(zhǔn)是?A錯誤率B精度C查準(zhǔn)率D查全率D3、否2.71、單選題

以下什么檢驗(yàn)是基于列聯(lián)表的?A交叉驗(yàn)證t檢驗(yàn)B、McNemar檢驗(yàn)C以上檢驗(yàn)都是基于列聯(lián)表的D以上檢驗(yàn)都不是基于列聯(lián)表的B2、

單選題

下面關(guān)于交叉驗(yàn)證t檢驗(yàn)錯誤的是?A適用于模型采用k折交叉驗(yàn)證的評估方法B基于成對t檢驗(yàn)C無法判斷統(tǒng)計顯著性D需要用到模型評估時k折交叉驗(yàn)證的k個結(jié)果C3、填空題

兩種算法在某種度量下取得評估結(jié)果后,可以直接比較以評價優(yōu)劣。____(是/否)否章節(jié)1、

單選題在訓(xùn)練集上的誤差被稱作A泛化誤差B經(jīng)驗(yàn)誤差C測試誤差D以上三個選項都不對B2、單選題

當(dāng)學(xué)習(xí)任務(wù)對數(shù)據(jù)分布的輕微變化比較魯棒且數(shù)據(jù)量較少時,適合使用什么樣的數(shù)據(jù)集劃分方式?A留出法B交叉驗(yàn)證法C自助法D以上三個選項都可以C3、

單選題

我們通常將數(shù)據(jù)集劃分為訓(xùn)練集,驗(yàn)證集和測試集進(jìn)行模型的訓(xùn)練,參數(shù)的驗(yàn)證需要在__上進(jìn)行,參數(shù)確定后__重新訓(xùn)練模型。A訓(xùn)練集需要B訓(xùn)練集不需要C驗(yàn)證集需要D驗(yàn)證集不需要C4、單選題

當(dāng)西瓜收購公司去瓜攤收購西瓜時既希望把好瓜都收走又保證收到的瓜中壞瓜盡可能的少,請問他應(yīng)該考慮什么評價指標(biāo)?A精度B查全率C查準(zhǔn)率D、F1度量D5、單選題

兩種算法在某種度量下取得評估結(jié)果后不能直接比較以評判優(yōu)劣的原因中,正確的是A測試性能不等于泛化性能B測試性能隨著測試集的變化而變化C很多機(jī)器學(xué)習(xí)算法本身有一定的隨機(jī)性D以上均正確D6、填空題訓(xùn)練模型時,選擇經(jīng)驗(yàn)誤差最小的模型會存在什么風(fēng)險。____(過擬合/欠擬合)過擬合7、

填空題對于從數(shù)據(jù)(0,1),(1,0),(1,2),(2,1)通過最小二乘擬合的不帶偏置項的線性模型y=x,其訓(xùn)練誤差(均方誤差)為____

(保留三位小數(shù))1.0008、填空題使用留出法對數(shù)據(jù)集進(jìn)行劃分時,為了保持?jǐn)?shù)據(jù)分布的一致性,可以考慮什么采樣。____(分層采樣/隨機(jī)采樣/有放回采樣)分層采樣9、填空題

當(dāng)我們使用留出法對數(shù)據(jù)集進(jìn)行劃分后,在訓(xùn)練集上通過兩個不同的算法訓(xùn)練出2個模型,并通過測試集上的性能評估得到表現(xiàn)最好的模型,這一模型可以直接推薦給用戶。

____(是/否)否10、

填空題考慮一個三分類數(shù)據(jù)集,其由30個西瓜,30個蘋果,30個香蕉構(gòu)成。先有一個學(xué)習(xí)策略為預(yù)測新樣本為訓(xùn)練集中樣本數(shù)目最多類別的分類器(存在多個類別樣本數(shù)量一樣多時則隨機(jī)選擇一個類別預(yù)測),請問通過什么評估方式會導(dǎo)致其平均準(zhǔn)確率為0。____(留出法/交叉驗(yàn)證,每一折樣本數(shù)大于1/留一法)留一法11、填空題

當(dāng)我們使用留一法進(jìn)行評估時會出現(xiàn)什么問題。____(訓(xùn)練模型與使用整個數(shù)據(jù)集訓(xùn)練的模型差異大/經(jīng)驗(yàn)誤差與泛化誤差偏差大)經(jīng)驗(yàn)誤差與泛化誤差偏差大12、填空題

考慮如下分類結(jié)果混淆矩陣,其F1度量為____(保留3位小數(shù))0.36413、

填空題

McNemar檢驗(yàn)基于____(成對t檢驗(yàn)/卡方檢驗(yàn))卡方檢驗(yàn)14、

單選題

假設(shè)我們已經(jīng)建立好了一個二分類模型,輸出是0或1,初始閾值設(shè)置為0.5,超過0.5概率估計就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個大于0.5的閾值,一般來說,下列說法正確的是A查準(zhǔn)率會上升或不變,查全率會下降或不變B查準(zhǔn)率會下降或不變,查全率會下降或不變C查準(zhǔn)率會上升或不變,查全率會上升或不變D查準(zhǔn)率會下降或不變,查全率會上升或不變A15、

單選題

對于留出法,下列說法正確的是A測試集小的時候,評估結(jié)果的方差較大B訓(xùn)練集小的時候,評估結(jié)果的偏差較大C留出法需要對數(shù)據(jù)集進(jìn)行多次切分并將結(jié)果取平均值D以上說法均正確D第三章3.11、單選題

以下哪個不是線性模型的優(yōu)勢?A簡單B復(fù)雜C基本D可理解性好B2、單選題

示例的屬性可以屬于下列哪個類別?A無序的離散屬性B連續(xù)屬性C有序的離散屬性D以上都對D3、填空題一賣傘商家想利用天氣來預(yù)測銷售額,已知他只考慮溫度、濕度、降雨量三種天氣特征。若商家使用線性回歸模型預(yù)測,則模型的輸入是____

(填寫阿拉伯?dāng)?shù)字)維度的。33.21、

單選題

最小二乘參數(shù)估計得到的線性回歸模型滿足什么性質(zhì)?A均方誤差為0B均方誤差最大C均方誤差最小D均方誤差為1C2、

單選題最小二乘法的求解步驟是什么?

(1)均方誤差對w與b求偏導(dǎo);(2)令偏導(dǎo)為0;(3)求解線性方程組。A(1)(2)(3)B(1)(3)(2)C(2)(1)(3)D(3)(1)(2)A3、

填空題基于均方誤差最小化來進(jìn)行模型求解的方法稱為____(5個字)。最小二乘法3.31、單選題

為了書寫的簡化,多元線性回歸會使用下列哪種記號?將w與b合并為一個向量,在x的最后增加一列12、

單選題

當(dāng)下列哪個條件滿足時,多元線性回歸的最小二乘解唯一?XTX滿秩3、填空題當(dāng)?XTX不滿秩時,多元線性回歸需要引入____(regularization)。正則化3.41、

單選題

被稱為什么模型?A線性指數(shù)回歸B線性對數(shù)回歸C指數(shù)線性回歸D對數(shù)線性回歸D2、

單選題

對數(shù)線性回歸是令廣義線性模型中的聯(lián)系函數(shù)為什么函數(shù)的特例?A指數(shù)函數(shù)B對數(shù)函數(shù)C二次函數(shù)D絕對值函數(shù)B3、

填空題廣義線性模型的一般形式為,其中g(shù)被稱為____(linkfunction)。聯(lián)系函數(shù)3.51、

單選題單位階躍函數(shù)的缺點(diǎn)是什么?A不連續(xù)且不可微B單調(diào)增C非負(fù)D最大值為1A2、

單選題

對數(shù)幾率函數(shù)作為單位階躍函數(shù)的替代函數(shù)的優(yōu)點(diǎn)是什么?A具有中心對稱性B嚴(yán)格大于0C單調(diào)且任意階可導(dǎo)D不需要寫成分段形式C3、填空題

反映了x作為正例的相對可能性,這個量在統(tǒng)計學(xué)中被稱為____。幾率3.61、

單選題

“一對一”相較于“一對其余”,存儲開銷(),測試時間開銷A降低;降低B降低;增加C增加;降低D增加;增加D2、

填空題試判斷以下說法是否正確:在同等長度的糾錯輸出碼中,如果任意兩個類別之間的編碼距離越遠(yuǎn),那么其糾錯能力理論上越強(qiáng)。____(是/否)是章節(jié)1、單選題

下列關(guān)于對數(shù)幾率回歸的描述中錯誤的是?A無需事先假設(shè)數(shù)據(jù)分布B使用對數(shù)函數(shù)作為聯(lián)系函數(shù)C可得到類別的近似概率預(yù)測D可直接應(yīng)用現(xiàn)有數(shù)值優(yōu)化算法求取最優(yōu)解B2、

單選題孫悟空想請你幫他預(yù)測下一次妖精會在多久后出現(xiàn),你會使用下列哪種方法?A使用歷史上妖精出現(xiàn)的時間以及八戒每日食量數(shù)據(jù),并使用對率回歸模型B使用歷史上妖精出現(xiàn)的時間以及師父念緊箍咒的時間數(shù)據(jù),并使用指數(shù)線性回歸模型C使用歷史上妖精出現(xiàn)的時間以及師徒四人的前進(jìn)速度數(shù)據(jù),并使用多元線性回歸模型D使用歷史上妖精出現(xiàn)的時間以及沙和尚每日體重數(shù)據(jù),并使用對數(shù)線性回歸模型C3、單選題處理類別不平衡問題時,復(fù)制小類樣本不是一種好的過采樣方法,下列哪個不是其原因?A復(fù)制樣本效率低下B容易過擬合C受噪聲影響大D有過擬合噪聲的風(fēng)險A4、單選題

Jerry想通過西瓜的重量、西瓜的顏色、西瓜根蒂的長短來判斷一個西瓜是否是好瓜,Jerry記錄了一些購買西瓜的記錄如下:(5500g,烏黑,長,否),(6000g,青綠,很長,是),(5800g,翠綠,短,是)。如果Jerry想收集更多西瓜數(shù)據(jù)并利用線性模型判斷西瓜好壞,下列哪個選項是上述三個記錄的合理表示?A(5500,1,2),(6000,2,4),(5800,3,1)B(5.5,1,0,0,3),(6,0,0,1,5),(5.8,0,1,0,1)C(5500,1,0,0,5),(6000,0,1,0,3),(5800,0,0,1,1)D(5.5,1,0,0,3),(6,0,1,0,2),(5.8,0,0,1,1)B5、單選題

小明想利用心率數(shù)據(jù)、運(yùn)動與用餐時間間隔這兩項數(shù)據(jù)來預(yù)測是否會發(fā)生低血糖,他利用平時鍛煉數(shù)據(jù)收集了100個未發(fā)生低血糖的數(shù)據(jù)與3個發(fā)生低血糖的數(shù)據(jù),3個發(fā)生低血糖的數(shù)據(jù)為:(180,比較久),(170,久),(165,非常久)。小明想請你幫他過采樣一些低血糖數(shù)據(jù),你認(rèn)為下列哪個數(shù)據(jù)是合理的過采樣數(shù)據(jù)?A(175,比較久)B(200,久)C(150,非常久)D(175,不久)A6、單選題下列哪個模型不是廣義線性模型?Y2=wx+b7、單選題下列哪個選項不是多元線性回歸使用正則化的原因?A計算機(jī)數(shù)值精度有限B樣例維度大于樣例數(shù)C樣例的采樣過程存在偏差D存在大量線性相關(guān)的樣例C8、

單選題在求解對率回歸時,下列哪個選項不是極大似然法的優(yōu)勢?A優(yōu)化目標(biāo)是凸函數(shù)B具有閉式解C可以使用梯度下降法求解D優(yōu)化目標(biāo)連續(xù)可微B9、

單選題

下列有關(guān)線性判別分析和主成分分析的說法錯誤的是A兩者都是通過線性變換將數(shù)據(jù)轉(zhuǎn)換到新的坐標(biāo)系中B兩者都是數(shù)據(jù)降維方法C主成分分析主要用于有監(jiān)督學(xué)習(xí),線性判別分析主要用于無監(jiān)督學(xué)習(xí)D主成分分析主要用于提取數(shù)據(jù)中的主要成分,線性判別分析主要用于分類C10、

填空題

給定數(shù)據(jù)集,最小二乘法學(xué)得的線性模型的斜率為____

(保留3位小數(shù))。0.50011、0.53512、

填空題

比較上述兩題求得的斜率值,最小二乘法求得的斜率____(大于/等于/小于)最小化數(shù)據(jù)集到線性模型歐式距離的平方和求得的斜率。這一結(jié)論對一般問題也成立,可嘗試證明之。小于13、填空題

OvR是一種常用的多分類方法,該方法每次將一個類的樣例作為正例、所有其他類的樣例作為反例。對于類別均衡的10分類問題,若使用OvR以及閾值移動法來訓(xùn)練,則閾值應(yīng)設(shè)為____

(保留3位小數(shù))。0.10014、填空題

對率回歸可以得到樣例是正類的概率的____(精確值/近似估計)。近似估計15、填空題

對率回歸____(需要/不需要)事先假設(shè)數(shù)據(jù)分布。不需要16、

填空題多元線性回歸不滿秩的情況下____(是/否)可以通過加入歸納偏好來選取較好的解。是17、

單選題

全局散度矩陣St與類內(nèi)散度矩陣Sw與類間散度矩陣Sb的關(guān)系是ASw=St+SbBSb=St+SwCSt=Sw+SbD以上選項均不符C18、填空題

多分類LDA問題中,投影矩陣W的閉式解是S_w^(-1)S_b的d’個____[全部/最小非零/最大非零]廣義特征值對應(yīng)的特征向量組成的矩陣。最大非零第四章4.11、單選題

下列選項哪個是決策樹的預(yù)測過程?A將測試示例從一個中間節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測試序列”下行,直到葉節(jié)點(diǎn)B將測試示例從一個中間節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測試序列”上行,直到根節(jié)點(diǎn)C將測試示例從葉節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測試序列”上行,直到根節(jié)點(diǎn)D將測試示例從根節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測試序列”下行,直到葉節(jié)點(diǎn)D2、

單選題

決策樹學(xué)習(xí)的策略是什么?A分而治之B集成C聚類D排序A3、填空題

決策樹訓(xùn)練時,若當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,則____(需要/無需)劃分無需4.21、單選題

信息熵是度量樣本集合

[填空1]

最常用的一種指標(biāo)A純度B對稱差C大小D重要性A2、單選題

以下哪個選項是信息增益的定義?A劃分前的信息熵-劃分后的信息熵B劃分后的信息熵-劃分前的信息熵C劃分前的信息熵/劃分后的信息熵D劃分后的信息熵+劃分前的信息熵A3、填空題

在二分類任務(wù)中,若當(dāng)前樣本集合的正類和負(fù)類的數(shù)量剛好各一半,此時信息熵為____(保留一位小數(shù))1.04.31、

單選題

下列說法錯誤的是()A、CART算法在候選屬性集合中選取使劃分后基尼指數(shù)最大的屬性B劃分選擇的各種準(zhǔn)擇對泛化性能的影響有限C劃分選擇的各種準(zhǔn)擇對決策樹尺寸有較大影響D相比劃分準(zhǔn)則,剪枝方法和程度對決策樹泛化性能的影響更為顯著A2、單選題增益率的表達(dá)式是Gain_ratio(D,a)=()A、Gain(D,a)+IV(a)B、Gain(D,a)-IV(a)C、Gain(D,a)*IV(a)D、Gain(D,a)/IV(a)D3、

填空題

對視頻中出現(xiàn)的西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁),劃分前的信息熵為0.998,若使用編號屬性進(jìn)行劃分,則信息增益為____(保留3位小數(shù))0.9984.41、單選題

剪枝是決策樹學(xué)習(xí)算法對付什么現(xiàn)象的主要手段?A標(biāo)記噪聲B數(shù)據(jù)少C過擬合D欠擬合C2、

單選題

提前終止某些分支的生長,這個策略的名稱是什么?A預(yù)剪枝B后剪枝C不剪枝D隨機(jī)剪枝A3、

填空題

決策樹剪枝的基本策略有“____”和“后剪枝”預(yù)剪枝4.51、

單選題

后剪枝的測試時間開銷(),訓(xùn)練時間開銷()。A降低;降低

B降低;增加C增加;降低D增加;增加B2、

單選題

后剪枝過程在生成完全決策樹后,()對樹中所有非葉結(jié)點(diǎn)進(jìn)行考察。A自頂向下B自底向上C隨機(jī)順序D以上答案都不對B3、填空題

剪枝的主要目的是通過去掉一些分支來降低____(欠擬合/過擬合)風(fēng)險。過擬合4.61、單選題第一篇關(guān)于決策樹的工作在哪一年發(fā)表的?A1956B1966C1979D1993B2、單選題機(jī)器學(xué)習(xí)在什么時候成為一個獨(dú)立的領(lǐng)域?A20世紀(jì)50年代中期B20世紀(jì)60年代末期C20世紀(jì)80年代中期D20世紀(jì)90年代末期C3、填空題____是可以用于回歸的決策樹算法。CART章節(jié)1、單選題決策樹劃分時,若當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,則應(yīng)該怎么做?A將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中樣本最多的類B將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中樣本最少的類C將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中任意一個類D從其他結(jié)點(diǎn)獲得樣本,繼續(xù)進(jìn)行劃分A2、

單選題

決策樹劃分時,當(dāng)遇到以下哪種情形時,將結(jié)點(diǎn)標(biāo)記為葉節(jié)點(diǎn),其類別標(biāo)記為當(dāng)前樣本集中樣本數(shù)最多的類A當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同B當(dāng)前屬性集不為空,或所有樣本在所有屬性上取值相同C當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,或當(dāng)前屬性集為空D當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,或所有樣本在所有屬性上取值相同A3、

填空題

ID3決策樹劃分時,選擇信息增益最____(大/?。┑膶傩宰鳛閯澐謱傩源?、填空題

若數(shù)據(jù)集的屬性全為離散值,決策樹學(xué)習(xí)時,____(可以/不可以)把用過的屬性再作為劃分屬性。不可以5、

單選題下列說法錯誤的是()A信息增益準(zhǔn)則對可取值較少的屬性有所偏好B、C4.5算法并不是直接選擇增益率最大的候選劃分屬性C、基尼指數(shù)反映了從數(shù)據(jù)集中隨機(jī)抽取兩個樣本,其類別標(biāo)記不一致的概率D基尼指數(shù)越小,數(shù)據(jù)集的純度越高A6、

填空題對視頻中出現(xiàn)的西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁),屬性“觸感”和“色澤”,____(觸感/色澤)的增益率更大色澤7、填空題

對視頻中出現(xiàn)的西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁),屬性“色澤”的基尼指數(shù)為____(保留2位有效數(shù)字)0.438、

單選題

隨著決策樹學(xué)習(xí)時的深度增加,會發(fā)生什么現(xiàn)象?A位于葉結(jié)點(diǎn)的樣本越來越少B不會把數(shù)據(jù)中不該學(xué)到的特性學(xué)出來C決策樹不會過擬合D葉結(jié)點(diǎn)一定學(xué)到一般規(guī)律A9、填空題

只學(xué)習(xí)一顆決策樹作為模型時,一般____(要/不要)選擇剪枝要10、填空題考慮如圖的訓(xùn)練集和驗(yàn)證集,其中“性別”、“喜歡ML作業(yè)”是屬性,“ML成績高”是標(biāo)記。假設(shè)已生成如圖的決策樹,用精度(accuracy)衡量決策樹的優(yōu)劣,預(yù)剪枝的結(jié)果____(是/不是)原本的決策樹。不是11、填空題

考慮如圖的訓(xùn)練集和驗(yàn)證集,其中“性別”、“喜歡ML作業(yè)”是屬性,“ML成績高”是標(biāo)記。假設(shè)已生成如圖的決策樹,用精度(accuracy)衡量決策樹的優(yōu)劣,后剪枝的結(jié)果____(是/不是)原本的決策樹。是12、

單選題

關(guān)于剪枝,下列說法錯誤的是()A對于同一棵樹,進(jìn)行預(yù)剪枝和后剪枝得到的決策樹是一樣的B決策樹的剪枝算法可以分為兩類,分別稱為預(yù)剪枝和后剪枝C預(yù)剪枝在樹的訓(xùn)練過程中通過停止分裂對樹的規(guī)模進(jìn)行限制D后剪枝先構(gòu)造出一棵完整的樹,然后通過某種規(guī)則消除掉部分節(jié)點(diǎn),用葉子節(jié)點(diǎn)替代A13、單選題

預(yù)剪枝欠擬合風(fēng)險(),后剪枝欠擬合風(fēng)險()。A降低;降低B增加;基本不變C基本不變;基本不變D基本不變;增加B14、

單選題

下面關(guān)于預(yù)剪枝的說法錯誤的是()。A預(yù)剪枝顯著減少了決策樹的訓(xùn)練時間開銷和測試時間開銷。B預(yù)剪枝降低了過擬合風(fēng)險。C預(yù)剪枝基于貪心策略。D預(yù)剪枝僅在劃分后泛化性能提高時進(jìn)行劃分,因此欠擬合風(fēng)險基本不變。D15、

填空題使用留出法進(jìn)行預(yù)剪枝時,若劃分前驗(yàn)證集精度與劃分后相等,根據(jù)奧卡姆剃刀原則,預(yù)剪枝決策為____(劃分/不劃分)。不劃分16、

單選題

通常來說,子節(jié)點(diǎn)的基尼不純度與其父節(jié)點(diǎn)是什么樣的關(guān)系?A通常更低B通常更高C永遠(yuǎn)更高D永遠(yuǎn)更低A第五章5.11、

單選題對于線性可分的二分類任務(wù)樣本集,將訓(xùn)練樣本分開的超平面有很多,支持向量機(jī)試圖尋找滿足什么條件的超平面?A在正負(fù)類樣本“正中間”的B靠近正類樣本的C靠近負(fù)類樣本的D以上說法都不對A2、

單選題下面關(guān)于支持向量機(jī)的說法錯誤的是?A支持向量機(jī)基本型是一個凸二次規(guī)劃問題B將訓(xùn)練樣本分開的超平面僅由支持向量決定C支持向量機(jī)的核心思想是最大化間隔D以上選項存在說法錯誤的D3、填空題

兩個異類支持向量到超平面的距離之和稱之為____(兩個字)間隔5.21、單選題

下面哪一項不是支持向量機(jī)基本型得到對偶問題的求解步驟A引入拉格朗日乘子得到拉格朗日函數(shù)B對拉格朗日函數(shù)求偏導(dǎo)并令其為0C回帶變量關(guān)系D梯度下降D2、單選題

下面關(guān)于支持向量機(jī)對偶問題的說法錯誤的是A對偶問題需要滿足KKT條件B通過對偶問題推導(dǎo)出的模型表達(dá)式能夠體現(xiàn)解的稀疏性C在推導(dǎo)對偶問題時,引入的拉格朗日乘子沒有約束條件D對偶問題的最優(yōu)值是原始問題最優(yōu)值的下界C3、

填空題通過____可以得到支持向量機(jī)的對偶問題。(7個字,優(yōu)化算法)拉格朗日乘子法5.31、單選題

下面關(guān)于SMO算法說法正確的是A是一個迭代更新的算法B先選取KKT條件違背程度最大的變量C當(dāng)變量固定后,原始問題具有閉式解D以上說法都是正確的D2、

單選題

在求解支持向量機(jī)截距項的時候錯誤的說法是A通過任意支持向量都能夠求解出截距項B為了提高魯棒性,通常使用所有支持向量求解的平均值C通過任意樣本都能夠求解出截距項D截距項的求解能夠體現(xiàn)支持向量機(jī)學(xué)習(xí)到的超平面僅與少量支持向量有關(guān)C3、填空題

在使用SMO方法優(yōu)化支持向量機(jī)的對偶問題時,每次需要選擇幾個變量并固定其他變量不變。

____(只需填寫數(shù)字)25.41、

單選題

如果不存在一個能正確劃分兩類樣本的超平面,應(yīng)該怎么辦?A將樣本從原始空間映射到一個更高維的特征空間,使樣本在這個特征空間內(nèi)線性可分B將樣本從原始空間映射到一個更高維的特征空間,使樣本在這個特征空間內(nèi)線性不可分C將樣本從原始空間映射到一個更低維的特征空間,使樣本在這個特征空間內(nèi)線性可分D將樣本從原始空間映射到一個更低維的特征空間,使樣本在這個特征空間內(nèi)線性不可分A2、

單選題

將樣本映射到高維空間后,支持向量機(jī)問題的表達(dá)式為A3、

填空題如果原始空間是有限維(屬性數(shù)有限),那么____(一定/不一定)存在一個高維特征空間使樣本線性可分。一定5.51、

單選題關(guān)于核函數(shù)的說法,正確的是A能繞過顯式考慮特征映射B能夠緩解計算高維內(nèi)積的困難C能夠直接在原始的特征空間計算D以上說法都是正確的D2、單選題

若一個對稱函數(shù)對于任意數(shù)據(jù)所對應(yīng)的核矩陣_,則它就能作為核函數(shù)來使用A正定B半正定C負(fù)定D半負(fù)定B3、填空題任何一個核函數(shù),都隱式地定義了一個____(九個字)再生核希爾伯特空間章節(jié)1、

單選題下列關(guān)于支持向量機(jī)的用法正確的是?A當(dāng)數(shù)據(jù)是線性可分時,可以考慮支持向量機(jī)的基本型B當(dāng)數(shù)據(jù)是線性不可分時,可以考慮引入核函數(shù)的支持向量機(jī)C若使用引入核函數(shù)的支持向量機(jī),可以通過模型選擇等技術(shù)挑選較為合適的核函數(shù)D以上說法都是正確的D2、單選題

下列哪一項是支持向量機(jī)基本型對偶問題的KKT條件?A》=0《=0=03、單選題下面關(guān)于支持向量機(jī)的優(yōu)化錯誤的是?A可以通過常規(guī)的優(yōu)化計算包求解B可以通過SMO進(jìn)行高效的求解C在使用SMO時需要先推導(dǎo)出支持向量機(jī)的對偶問題D、SMO需要迭代的進(jìn)行求解,且每一步迭代的子問題不存在閉式解D4、

單選題

考慮兩個正例樣本(0,0),(1,1)和兩個負(fù)例樣本(1,0),(0,1),這四個樣本是線性不可分的,通過下列哪一個映射函數(shù)可以讓這四個樣本線性可分?以上映射函數(shù)都滿足條件5、

單選題

下面關(guān)于支持向量回歸說法正確的是A當(dāng)樣本距離超平面的距離小于一定程度時,沒有損失B解具有稀疏性C當(dāng)樣本距離超平面的距離大于一定程度時,有損失且損失隨著距離線性增加D以上說法都是正確的D6、填空題支持向量機(jī)的“間隔”定義為兩個異類支持向量到超平面的距離之和,支持向量機(jī)的核心思想是____(最大化/最小化)間隔。最大化7、填空題支持向量機(jī)對偶問題得到的目標(biāo)函數(shù)最優(yōu)值是原始問題目標(biāo)函數(shù)最優(yōu)值的____(上界/下界)下界8、填空題

考慮正類樣本(-1,0),(0,1),(-1,1)和負(fù)類樣本(1,0),(0,-1),(1,-1),若使用支持向量機(jī)算法,則其支持向量有____個。49、

填空題支持向量機(jī)的解具有什么性質(zhì)?____(三個字)稀疏性10、填空題

在求解支持向量機(jī)對偶問題時,引入的拉格朗日乘子____(有/沒有)約束條件。有11、

填空題對于兩個樣本點(diǎn)(0,0),(1,1),若我們將其投影到與高斯核函數(shù)關(guān)聯(lián)的RKHS中時,則兩個樣本投影后的點(diǎn)距離為____(保留三位小數(shù))1.31512、

填空題試判斷定義在上的函數(shù)是否為核函數(shù)。____(是/否)是13、

單選題

采用hinge損失,當(dāng)軟間隔支持向量機(jī)松弛變量ξn滿足條件()時,樣本位于間隔內(nèi),位于決策邊界的正確一側(cè)。Aξn<0Bξn=0C0<ξn≤1Dξn>1C14、單選題下面有關(guān)軟間隔支持向量機(jī)說法錯誤的是()。A軟間隔是支持向量機(jī)緩解過擬合的一種手段。B軟間隔的基本思路為在最大化間隔的同時,讓不滿足約束的樣本盡可能少。C該優(yōu)化目標(biāo)式中正則化參數(shù)C越大,模型對分類錯誤的容忍度越高。D采用hinge損失函數(shù)后仍保持了SVM解的稀疏性。C15、填空題試判斷以下說法是否正確:0/1損失的常用的替代損失函數(shù)有指數(shù)損失、對率損失、hinge損失。____(是/否)是16、

單選題下面有關(guān)正則化問題的說法錯誤的是()。A正則化通過對不希望的結(jié)果施以懲罰,使得優(yōu)化過程趨向于希望目標(biāo)。B在統(tǒng)計學(xué)習(xí)中通常說的正則化在貝葉斯類方法中對應(yīng)于“后驗(yàn)”。C結(jié)構(gòu)風(fēng)險的信息有助于降低最小化訓(xùn)練誤差的過擬合風(fēng)險。D在沒有任何偏好的情況下,可能會得到很多達(dá)到同樣經(jīng)驗(yàn)風(fēng)險項結(jié)果的模型。B17、

單選題

下面常用的正則化項范數(shù)中,傾向于分量取值盡量均衡(即非零分量個數(shù)盡量稠密)的范數(shù)是()。AL0范數(shù)BL1范數(shù)CL2范數(shù)D以上答案都不對C18、

填空題

試判斷以下說法是否正確:支持向量機(jī)優(yōu)化目標(biāo)中的第一項用來描述劃分超平面的間隔大小。____(是/否)是19、否20、

單選題對于支持向量機(jī)定義的超平面,下列說法錯誤的是A通過支持向量機(jī)求解出的劃分超平面是對訓(xùn)練樣本局部擾動的“容忍”性最好的劃分超平面B對于所有可能的劃分超平面,通過支持向量機(jī)求解出的劃分超平面所產(chǎn)生的分類結(jié)果是較魯棒的,是對未見示例的泛化能力較強(qiáng)的C支持向量機(jī)的“間隔”為,表示向量的模D可以通過求解對偶問題的方法來求解支持向量機(jī)的最大間隔劃分超平面C21、單選題關(guān)于支持向量機(jī)基本型中間隔、支持向量和超平面wx+b=0的說法,下列說法正確的是A對于線性可分的訓(xùn)練樣本,存在唯一的超平面將訓(xùn)練樣本全部分類正確B對于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的C支持向量機(jī)訓(xùn)練完成后,最后的解與所有訓(xùn)練樣本都有關(guān)D間隔只與w有關(guān),與b無關(guān)B第六章6.11、

單選題

神經(jīng)網(wǎng)絡(luò)模型的兩個最重要的要素是什么?A網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)B網(wǎng)絡(luò)結(jié)構(gòu)、神經(jīng)元模型C激活函數(shù)、學(xué)習(xí)算法D學(xué)習(xí)算法、神經(jīng)元模型B2、單選題以下哪個名稱不是activationfunction的翻譯?A響應(yīng)函數(shù)B擠壓函數(shù)C激活函數(shù)D損失函數(shù)D3、單選題

目前神經(jīng)網(wǎng)絡(luò)最常用的網(wǎng)絡(luò)結(jié)構(gòu)是下列哪個選項?A單層后向網(wǎng)絡(luò)B多層后向網(wǎng)絡(luò)C單層前饋網(wǎng)絡(luò)D多層前饋網(wǎng)絡(luò)D6.21、單選題下列哪個選項是神經(jīng)網(wǎng)絡(luò)萬有逼近的正確表述?A僅需一個包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的可測函數(shù)B僅需一個包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能完美表示任意復(fù)雜度的連續(xù)函數(shù)C僅需一個包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)D僅需一個包含100000000個神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)C2、單選題下列哪個模型不具備萬有逼近性?A線性模型B泰勒展開C傅里葉變換D決策樹A3、填空題

多層前饋網(wǎng)絡(luò)具有的強(qiáng)大表示能力稱為神經(jīng)網(wǎng)絡(luò)的____性(4個字)。萬有逼近6.31、單選題

以下哪種情況下停止訓(xùn)練以緩解過擬合?A訓(xùn)練誤差降低、驗(yàn)證誤差降低B訓(xùn)練誤差降低、驗(yàn)證誤差升高C訓(xùn)練誤差升高、驗(yàn)證誤差降低D訓(xùn)練誤差升高、驗(yàn)證誤差升高B2、單選題

以下哪種方式無助于緩解BP神經(jīng)網(wǎng)絡(luò)過擬合?A早停B、L2正則化C增加訓(xùn)練輪數(shù)D減少網(wǎng)絡(luò)層數(shù)C3、填空題

在誤差目標(biāo)函數(shù)中增加連接權(quán)平方和這一項后,訓(xùn)練過程將偏好比較____(大/小)的連接權(quán)。小6.41、

單選題對于不同時代對神經(jīng)網(wǎng)絡(luò)的研究以及代表工作說法正確的是:A1940年代是神經(jīng)網(wǎng)絡(luò)萌芽期,代表工作為感知機(jī)B1956年-1969年是神經(jīng)網(wǎng)絡(luò)研究冰河期,Minsky發(fā)表了PerceptronC1984年-1997年是繁榮期,代表工位為Hopfield和BP算法D21世紀(jì)以來,神經(jīng)網(wǎng)絡(luò)進(jìn)入深度學(xué)習(xí)時代C2、

多選題

在1969年至1984年神經(jīng)網(wǎng)絡(luò)研究冰河期,下面哪些人在堅持神經(jīng)網(wǎng)絡(luò)的研究(多選)?A、KohonenB、AmariC、HintonD、GrossbergABD3、

填空題____書寫的Perceptron使得神經(jīng)網(wǎng)絡(luò)的研究進(jìn)入一段冰河期。

閔斯基章節(jié)1、

單選題下列關(guān)于BP算法使用小步長優(yōu)化神經(jīng)網(wǎng)絡(luò)的說法中正確的是哪個?A一定能學(xué)到最優(yōu)解B可以較好的避免振蕩現(xiàn)象C訓(xùn)練速度快D學(xué)得的解比使用大步長具有更小的泛化誤差B2、

單選題下列關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述中錯誤的是哪個?A可以使用BP算法優(yōu)化B至少包含一個隱層C神經(jīng)元之間不存在同層連接D輸入層可以直接連接到輸出層D3、單選題

多層前饋神經(jīng)網(wǎng)絡(luò)可以視為線性函數(shù)與激活函數(shù)的復(fù)合,而單隱層前饋神經(jīng)網(wǎng)絡(luò)中這種復(fù)合的次數(shù)有限,因而單隱層前饋神經(jīng)網(wǎng)絡(luò)的萬有逼近性對激活函數(shù)有一定要求。你認(rèn)為使用下列哪個激活函數(shù)的單隱層前饋神經(jīng)網(wǎng)絡(luò)能具有萬有逼近性質(zhì)?A雙曲正切函數(shù)B常值函數(shù)C線性函數(shù)D三次函數(shù)A4、單選題下列哪個選項的步長調(diào)整方法是給出的四種方案中最好的?A先使用較大的步長,后使用較小的步長B先使用較小的步長,后使用較大的步長C一直使用較大的步長D一直使用較小的步長A5、

單選題下列關(guān)于萬有逼近描述正確的是哪個選項?A萬有逼近是神經(jīng)網(wǎng)絡(luò)獨(dú)有的性質(zhì)B神經(jīng)網(wǎng)絡(luò)的萬有逼近性表明可以很容易的找到一個很好的解C具有萬有逼近性是將神經(jīng)網(wǎng)絡(luò)作為機(jī)器學(xué)習(xí)模型的前提D神經(jīng)網(wǎng)絡(luò)的萬有逼近性可以指導(dǎo)我們設(shè)置隱層神經(jīng)元數(shù)C6、填空題

Sigmoid函數(shù)在x=0.5處的導(dǎo)數(shù)值為____(保留3位小數(shù))。0.2357、

填空題

具有10個隱層結(jié)點(diǎn)的單隱層網(wǎng)絡(luò)在處理輸入維度為6維的三分類任務(wù)時(有3個輸出層結(jié)點(diǎn)),網(wǎng)絡(luò)中共有____

(填寫一個整數(shù))個參數(shù)。1038、

填空題實(shí)際應(yīng)用中常使用試錯法來設(shè)置隱層神經(jīng)元數(shù),當(dāng)問題較復(fù)雜時,通常使用較____(多/少)隱層神經(jīng)元。多9、

填空題考慮一個有1個輸入結(jié)點(diǎn)、1個隱層結(jié)點(diǎn)、1個輸出結(jié)點(diǎn)構(gòu)成的神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)輸入到隱層的權(quán)重與隱層到輸出的權(quán)重共享,即該神經(jīng)網(wǎng)絡(luò)的前饋表達(dá)式為,其中為Sigmoid激活函數(shù)。考慮由兩個樣本組成的數(shù)據(jù)集,神經(jīng)網(wǎng)絡(luò)初始化參數(shù)為,使用平方損失作為損失函數(shù)(總損失為所有樣本的平方和損失,不除以2)。則該神經(jīng)網(wǎng)絡(luò)在初始化下的損失為____

(保留3位小數(shù))。0.07910、填空題

上述損失關(guān)于ω的偏導(dǎo)在初始點(diǎn)處的取值為____(保留3位小數(shù))。-0.02611、

填空題上述損失關(guān)于b的偏導(dǎo)在初始點(diǎn)處的取值為____

(保留3位有效數(shù)字)。-0.078512、填空題

當(dāng)步長取為0.5時,使用BP算法更新神經(jīng)網(wǎng)絡(luò)模型后,模型的損失為____

(保留3位小數(shù))。0.07513、

填空題

當(dāng)步長取為20時,使用BP算法更新神經(jīng)網(wǎng)絡(luò)模型后,模型的損失為____

(保留3位小數(shù))。對比上述兩種步長值,體會步長選取與振蕩現(xiàn)象的關(guān)系。0.11214、

單選題

(1分)用學(xué)習(xí)率α=0.3進(jìn)行15次梯度下降迭代,每次迭代后計算損失。如果發(fā)現(xiàn)損失值下降緩慢,并且在15次迭代后仍在下降?;诖耍韵履膫€結(jié)論最可信?Aα=0.3是學(xué)習(xí)率的有效選擇B當(dāng)前學(xué)習(xí)率設(shè)置偏小C當(dāng)前學(xué)習(xí)率設(shè)置偏大D無法從當(dāng)前現(xiàn)象對學(xué)習(xí)率進(jìn)行判斷B15、單選題

下圖是某一激活函數(shù)的圖像,下列哪個選項可能是該激活函數(shù)的表達(dá)式?B16、

單選題

對于標(biāo)準(zhǔn)BP算法,在誤差目標(biāo)函數(shù)中增加L2正則化等價于()A在每次參數(shù)更新時,當(dāng)前權(quán)重按一定比例進(jìn)行衰減B在每次參數(shù)更新時,當(dāng)前權(quán)重按一定比例進(jìn)行增加C在每次參數(shù)更新時,當(dāng)前權(quán)重按隨機(jī)比例進(jìn)行衰減D在每次參數(shù)更新時,當(dāng)前權(quán)重按隨機(jī)比例進(jìn)行增加A17、

單選題以下哪個選項是卷積神經(jīng)網(wǎng)絡(luò)中權(quán)共享的作用?A降低模型方差B增加參數(shù)數(shù)目C平衡網(wǎng)絡(luò)的能量D緩解過擬合D第七章7.11、

單選題下列說法正確的是()A貝葉斯決策論是概率框架下實(shí)施決策的基本理論B表示把樣本x分到第i類面臨的風(fēng)險C如果概率都能拿到真實(shí)值,那么根據(jù)貝葉斯判定準(zhǔn)則做出的決策是理論上最好的決策D以上都正確D2、

單選題以下哪個選項是對貝葉斯最優(yōu)分類器的描述?對每個樣本x選擇能使條件風(fēng)險R最小的類別標(biāo)記3、

填空題

反映了分類器所能達(dá)到的最____(好/壞)性能好7.21、

單選題

決策樹屬于什么模型?A判別式B生成式C判別式和生成式D以上都不對A2、

單選題先對聯(lián)合概率分布建模P(x,c),再由此獲得P(c|x),屬于什么模型?A判別式B生成式C回歸D以上都不是B3、填空題

機(jī)器學(xué)習(xí)估計后驗(yàn)概率分為兩種基本策略,____式模型和生成式模型判別7.31、

單選題

在樸素貝葉斯分類器中,貝葉斯定理主要用來計算什么?A特征的聯(lián)合概率B每個類別的后驗(yàn)概率C各類別的先驗(yàn)概率D特征之間的條件獨(dú)立性B2、

單選題在推導(dǎo)樸素貝葉斯分類器公式時應(yīng)用的貝葉斯定理中,似然指的是:A證據(jù)B先驗(yàn)概率C類別的后驗(yàn)概率D樣本相對于類標(biāo)記的類條件概率(class-conditionalprobability)D3、判斷題貝葉斯學(xué)習(xí)指的是在機(jī)器學(xué)習(xí)中運(yùn)用貝葉斯定理。錯7.41、

單選題

極大似然中,若直接連乘,易造成什么現(xiàn)象?A下溢B上溢C內(nèi)存不足D計算開銷大A2、

單選題

對數(shù)似然中,一般對概率取對數(shù),然后進(jìn)行以下哪個的操作?A求差B求和C求積D以上都不是B3、填空題

極大似然估計____(需要/不需要)假設(shè)某種概率分布形式需要7.51、

單選題貝葉斯公式中,估計后驗(yàn)概率P(c|x)的主要困難在于估計以下哪個選項?A、p(c)B、p(x|c)C、以上兩者都是D、以上兩者都不是B2、

單選題樸素貝葉斯分類器中,對給定類別,模型對所有屬性間的獨(dú)立性有何種假設(shè)?A部分不獨(dú)立B部分獨(dú)立C相互不獨(dú)立D相互獨(dú)立D3、填空題

對____(離散/連續(xù))屬性,計算條件概率可考慮概率密度函數(shù)連續(xù)7.61、單選題

拉普拉斯修正不適用于以下哪種情況?A訓(xùn)練樣本個數(shù)大于屬性可能的取值數(shù)B訓(xùn)練樣本個數(shù)小于屬性可能的取值數(shù)C訓(xùn)練樣本不充分、屬性可能的取值數(shù)有限D(zhuǎn)訓(xùn)練樣本不充分、屬性有無限種可能的取值D2、單選題

拉普拉斯修正實(shí)質(zhì)上假設(shè)了屬性值與類別服從什么先驗(yàn)分布?A均勻分布B二項分布C泊松分布D正態(tài)分布A3、填空題

當(dāng)訓(xùn)練集變大時,拉普拉斯修正所引入的先驗(yàn)的影響也會逐漸變____(大/小)。小章節(jié)1、

填空題

貝葉斯最優(yōu)分類器____(達(dá)到了/沒達(dá)到)了貝葉斯風(fēng)險。達(dá)到了2、

單選題

在貝葉斯決策論中,下列說法錯誤的是()A反映了機(jī)器學(xué)習(xí)所能產(chǎn)生的模型精度理論上限B貝葉斯最優(yōu)分類器在每個樣本上選擇那個能使條件風(fēng)險R(c|x)最小的類別標(biāo)記C在實(shí)際中,貝葉斯決策論中的是容易事先知道的D貝葉斯最優(yōu)分類器對應(yīng)的總體風(fēng)險稱為貝葉斯風(fēng)險C3、

填空題從貝葉斯決策論的角度看,機(jī)器學(xué)習(xí)要實(shí)現(xiàn)的是基于有限的訓(xùn)練樣本盡可能準(zhǔn)確地估計出后驗(yàn)概率P(c|x),這句話是____(正確/錯誤)正確4、單選題

下列說法錯誤的是()A生成式模型可以理解為在嘗試還原數(shù)據(jù)原來的聯(lián)合分布B、SVM是判別式模型C判別式模型直接對后驗(yàn)概率建模D貝葉斯分類器是判別式模型D5、填空題

貝葉斯主義一般做____(點(diǎn)/分布)估計分布6、單選題下列說法錯誤的是()A貝葉斯學(xué)習(xí)≠貝葉斯分類器B、SVM屬于統(tǒng)計學(xué)習(xí)C用到了貝葉斯公式就是貝葉斯學(xué)習(xí)D貝葉斯分類器是生成式模型C7、單選題

下列說法錯誤的是()A極大似然估計做了獨(dú)立同分布假設(shè)B極大似然估計的任務(wù)是利用訓(xùn)練集估計參數(shù)C極大似然估計需先假設(shè)某種概率分布形式D極大似然估計屬于貝葉斯主義D8、

填空題極大似然估計中,對數(shù)似然的解與原問題____(一致/不一致)一致9、

單選題

下列說法錯誤的是()A計算P(x|c)主要障礙之一是組合爆炸B計算P(x|c)主要障礙之一是樣本稀疏C樸素貝葉斯分類器中,計算離散屬性的P(xi|c)需要考慮概率密度函數(shù)D樸素貝葉斯分類器中的概率密度函數(shù),可以使用高斯分布C10、

填空題

考慮二分類問題,若數(shù)據(jù)集中有100個樣本,其中負(fù)類樣本有48個。令c表示正類,則P(c)的估計值是____(保留2位小數(shù))0.5211、填空題考慮如圖數(shù)據(jù)集,其中x1與x2為特征,其取值集合分別為x1={?1,0,1},x2={B,M,S},y為類別標(biāo)記,其取值集合為y={0,1}。使用所給訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個樸素貝葉斯分類器,考慮樣本x={0,B},請計算P(y=0)P(x|y=0)的值____(保留2位有效數(shù)字)。0.06712、填空題考慮如圖數(shù)據(jù)集,其中x1與x2為特征,其取值集合分別為x1={?1,0,1},x2={B,M,S},y為類別標(biāo)記,其取值集合為y={0,1}。使用所給訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個樸素貝葉斯分類器,這個分類器會將樣本x={0,B}的標(biāo)記預(yù)測為____013、填空題考慮如圖數(shù)據(jù)集,其中x1與x2為特征,其取值集合分別為x1={?1,0,1},x2={B,M,S},y為類別標(biāo)記,其取值集合為y={0,1}。實(shí)際中估計概率值時,常用“拉普拉斯修正”,相關(guān)內(nèi)容請參考本課程7.6節(jié)《拉普拉斯修正》。使用所給訓(xùn)練數(shù)據(jù),使用“拉普拉斯修正”,學(xué)習(xí)一個樸素貝葉斯分類器,考慮樣本x={0,B},請計算P(y=1)P(x|y=1)的值____(保留2位有效數(shù)字)。0.04114、單選題以下哪個選項是生成式模型?A貝葉斯網(wǎng)B對數(shù)幾率回歸C決策樹D支持向量機(jī)A15、單選題最小化分類錯誤率的貝葉斯最優(yōu)分類器為:對每個樣本選擇能使以下哪個選項最大的類別標(biāo)記?A后驗(yàn)概率B類條件概率C先驗(yàn)D以上都不是A16、單選題

拉普拉斯修正適用于()A樸素貝葉斯分類器B半樸素貝葉斯分類器C貝葉斯網(wǎng)D以上答案都對D17、

單選題以下關(guān)于拉普拉斯修正的說法正確的是()A避免其他屬性攜帶的信息被訓(xùn)練集中出現(xiàn)的屬性值抹去B避免其他屬性攜帶的信息被訓(xùn)練集中未出現(xiàn)的屬性值抹去C增加模型復(fù)雜度與表示能力D減小模型復(fù)雜度與表示能力B18、

填空題在訓(xùn)練樣本的數(shù)量一定的情況下,與樸素貝葉斯分類器相比,半樸素貝葉斯分類器對拉普拉斯修正的需求更____(大/小)。大第八章8.11、

單選題下列關(guān)于集成學(xué)習(xí)描述錯誤的是哪個?A集成學(xué)習(xí)只能使用若干個相同類型的學(xué)習(xí)器B集成學(xué)習(xí)使用多個學(xué)習(xí)器解決問題C集成學(xué)習(xí)在許多比賽中取得了優(yōu)異的成績D集成學(xué)習(xí)在英文中是一個外來詞A2、

單選題下列哪些學(xué)習(xí)器可以作為集成學(xué)習(xí)中的學(xué)習(xí)器?A支持向量機(jī)B決策樹C神經(jīng)網(wǎng)絡(luò)D其他選項都可以D3、填空題

由若干個相同類型的學(xué)習(xí)器構(gòu)成的集成學(xué)習(xí)被稱為____

(同質(zhì)/異質(zhì))集成學(xué)習(xí)。同質(zhì)8.21、

單選題

下列哪個關(guān)于集成學(xué)習(xí)的描述是正確的?A集成學(xué)習(xí)一定能取得比最好的個體學(xué)習(xí)器更好的性能B集成學(xué)習(xí)的性能可能與個體學(xué)習(xí)器的平均性能相同C集成學(xué)習(xí)的性能一定不差于最差的個體學(xué)習(xí)器D集成學(xué)習(xí)的性能在個體學(xué)習(xí)器平均性能與個體學(xué)習(xí)器最佳性能之間B2、單選題下列哪個選項不是集成學(xué)習(xí)在分類任務(wù)中取得好性能的要求?A個體學(xué)習(xí)器犯錯的樣本較為分散B個體學(xué)習(xí)器具有較好的性能C存在一個完美的個體學(xué)習(xí)器D個體學(xué)習(xí)器分對的樣本不完全一致C3、填空題誤差-分歧分解表明集成學(xué)習(xí)中____(3個字)是關(guān)鍵。多樣性8.31、單選題下列哪個算法不是序列化集成學(xué)習(xí)方法?A、XGBoostB、RandomForestC、AdaBoostD、LPBoostB2、單選題下列哪個算法不是并行化集成學(xué)習(xí)方法?A、GradientBoostB、BaggingC、RandomForestD、RandomSubspaceA3、填空題

集成學(xué)習(xí)中,后一個個體依賴于前一個個體的方法稱為____(3個字)方法。序列化8.41、單選題

下列關(guān)于Boosting算法的說法中錯誤的是哪個?A、Boosting算法適用于分類、回歸、排序等機(jī)器學(xué)習(xí)問題B后一個基學(xué)習(xí)器更關(guān)注前一個基學(xué)習(xí)器學(xué)錯的樣本C、Boosting算法的輸出是所有基學(xué)習(xí)器的加權(quán)求和D、不同基學(xué)習(xí)器使用的樣本權(quán)重是相同的D2、單選題下列關(guān)于Boosting算法中樣本權(quán)重調(diào)整的說法中錯誤的是哪個?A所有樣本的權(quán)重和保持不變B前一個基學(xué)習(xí)器分錯的樣本會獲得更大的權(quán)重C只要權(quán)重調(diào)整的方向正確,Boosting算法的性能就可以獲得理論保證D決策樹可以直接處理帶權(quán)重的樣本C3、

填空題Boosting是一種____

(同質(zhì)/異質(zhì))集成學(xué)習(xí)方法。同質(zhì)8.51、單選題下列關(guān)于Bagging算法中采樣的描述哪個是錯誤的?A可以使用Bootstrap采樣B每個樣本在每個基學(xué)習(xí)器的數(shù)據(jù)集中只會出現(xiàn)一次C采樣是為了獲得不同的基學(xué)習(xí)器D不同基學(xué)習(xí)器的數(shù)據(jù)從相同分布中采樣得到B2、

單選題下列關(guān)于Bagging算法描述中錯誤的是哪個?A、Bagging算法中每個基學(xué)習(xí)器使用相同的數(shù)據(jù)集B分類任務(wù)中使用投票法獲得輸出C回歸任務(wù)中使用平均法獲得輸出D、RandomForest是具有代表性的Bagging算法A3、填空題

Bagging算法使用的采樣方法是____(有/無)放回采樣。有章節(jié)1、

單選題下列關(guān)于誤差-分歧分解的說法中正確的是哪個?A這一分解表明特定條件下,集成學(xué)習(xí)的性能與個體學(xué)習(xí)器多樣性正相關(guān)B這一分解體現(xiàn)了多樣性在回歸、分類等機(jī)器學(xué)習(xí)任務(wù)中的重要性C這一分解給出了一種可操作的多樣性定義D這一分解中的誤差

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論