學(xué)堂在線 雨課堂 學(xué)堂云 機(jī)器學(xué)習(xí)初步 考試答案_第1頁(yè)
學(xué)堂在線 雨課堂 學(xué)堂云 機(jī)器學(xué)習(xí)初步 考試答案_第2頁(yè)
學(xué)堂在線 雨課堂 學(xué)堂云 機(jī)器學(xué)習(xí)初步 考試答案_第3頁(yè)
學(xué)堂在線 雨課堂 學(xué)堂云 機(jī)器學(xué)習(xí)初步 考試答案_第4頁(yè)
學(xué)堂在線 雨課堂 學(xué)堂云 機(jī)器學(xué)習(xí)初步 考試答案_第5頁(yè)
已閱讀5頁(yè),還剩10頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1.單選題下列哪一種數(shù)據(jù)集切分方式會(huì)導(dǎo)致劃分的訓(xùn)練集和測(cè)試集與初始數(shù)據(jù)集分布不同?A留出法B交叉驗(yàn)證法C自助法D以上做法均不會(huì)正確答案:

C2.單選題

當(dāng)西瓜收購(gòu)公司去瓜攤收購(gòu)西瓜時(shí)既希望把好瓜都收走又保證收到的瓜中壞瓜盡可能的少,請(qǐng)問他應(yīng)該分別考慮什么評(píng)價(jià)指標(biāo)?A查全率查準(zhǔn)率B查準(zhǔn)率查全率C查全率準(zhǔn)確率D準(zhǔn)確率查全率正確答案:

A3.單選題以下關(guān)于模型評(píng)估與選擇的說法,錯(cuò)誤的是A訓(xùn)練模型時(shí),僅僅保證訓(xùn)練誤差為0是不夠的B當(dāng)數(shù)據(jù)集很大時(shí),通過留一法進(jìn)行模型評(píng)估的計(jì)算代價(jià)是非常高昂的C模型的超參選擇需要在驗(yàn)證集上進(jìn)行測(cè)試D交叉驗(yàn)證t檢驗(yàn)是基于列聯(lián)表的正確答案:

D4.填空題當(dāng)學(xué)習(xí)器在訓(xùn)練集上把訓(xùn)練樣本自身的一些特征當(dāng)作了所有潛在樣本都具有的一般性質(zhì)時(shí),泛化性能可能會(huì)因此下降,這種現(xiàn)象一般稱為。(過擬合/欠擬合)正確答案:過擬合5.填空題

當(dāng)查準(zhǔn)率和查全率均為1時(shí),F(xiàn)1度量為。(計(jì)算結(jié)果保留三位小數(shù))正確答案:1.0006.單選題

下列有關(guān)支持向量機(jī),說法正確的是?A通過支持向量機(jī)求解出的劃分超平面是對(duì)訓(xùn)練樣本局部擾動(dòng)的“容忍”性最好的劃分超平面B支持向量機(jī)只能處理線性可分的數(shù)據(jù)C一般情況下,支持向量機(jī)訓(xùn)練完后解與全部樣本都有關(guān)系D利用SMO算法求解支持向量機(jī)時(shí),只需要迭代更新參數(shù)一次正確答案:

A7.單選題下列哪些函數(shù)可以作為核函數(shù)?A線性核B多項(xiàng)式核C高斯核D以上函數(shù)均可以作為核函數(shù)正確答案:

D8.單選題

考慮正類樣本(-1,0),(0,1),(-1,1)和負(fù)類樣本(1,0),(0,-1),(1,-1),通過支持向量機(jī)的基本型得到的解為Ay=xBy=x+1Cy=x-1D以上答案均不是正確答案:

A9.填空題

支持向量機(jī)原始問題目標(biāo)函數(shù)最優(yōu)值是對(duì)偶問題得到的目標(biāo)函數(shù)最優(yōu)值的(上界/下界)正確答案:上界10.填空題對(duì)于兩個(gè)樣本點(diǎn)(0,0),(1,1),若我們將其投影到與拉普拉斯核函數(shù)關(guān)聯(lián)的RKHS中時(shí),則兩個(gè)樣本投影后的點(diǎn)距離為

(保留三位小數(shù))正確答案:1.23011.填空題軟間隔支持向量機(jī)與硬間隔支持向量機(jī)的對(duì)偶問題差別僅在于(四個(gè)字)的約束不同。正確答案:對(duì)偶變量12.填空題正則化問題包含風(fēng)險(xiǎn)和風(fēng)險(xiǎn)。正確答案:結(jié)構(gòu)、經(jīng)驗(yàn)13.單選題以下關(guān)于聚類的說法,錯(cuò)誤的是A聚類可以作為其他學(xué)習(xí)算法的前驅(qū)過程B原型聚類得到的每一個(gè)簇都是凸的C密度聚類假設(shè)聚類結(jié)構(gòu)可以通過樣本分布的緊密程度確定D聚類好壞存在絕對(duì)標(biāo)準(zhǔn)正確答案:

D14.填空題如果為了同時(shí)得到多個(gè)聚類簇?cái)?shù)的聚類結(jié)果(如下圖所示),最適合使用(原型聚類/密度聚類/層次聚類)正確答案:層次聚類15.填空題聚類算法是機(jī)器學(xué)習(xí)中一種典型的(監(jiān)督/無監(jiān)督)學(xué)習(xí)算法。正確答案:無監(jiān)督16.單選題下列說法錯(cuò)誤的是()A根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可以大致劃分為兩類:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)B留一法對(duì)模型性能的估計(jì)總是比交叉驗(yàn)證方法更準(zhǔn)確C支持向量機(jī)的原問題和對(duì)偶問題都是二次規(guī)劃問題D決策樹相比于對(duì)數(shù)幾率回歸更適合分線性分類問題正確答案:

B17.填空題若任務(wù)中數(shù)據(jù)的屬性是連續(xù)值,此類任務(wù)稱為(分類/回歸/不確定)。正確答案:不確定18.單選題下列說法錯(cuò)誤的是()A測(cè)試數(shù)據(jù)應(yīng)和訓(xùn)練數(shù)據(jù)一樣B用數(shù)據(jù)建立模型的過程叫訓(xùn)練C機(jī)器學(xué)習(xí)一般有“獨(dú)立同分布”假設(shè)D學(xué)得模型適用于新樣本的能力稱為“泛化”能力正確答案:

A19.單選題以下關(guān)于機(jī)器學(xué)習(xí)的說法錯(cuò)誤的是()A學(xué)得模型后,待測(cè)試的樣本我們稱為“測(cè)試樣本”,亦稱“測(cè)試示例”B在聚類任務(wù)中,我們需要事先知道數(shù)據(jù)的標(biāo)記信息C預(yù)測(cè)離散值的任務(wù)一般稱為分類任務(wù)D同一個(gè)算法在不同數(shù)據(jù)集上,一般不能得到同樣一個(gè)模型正確答案:

B20.填空題如果決策樹過擬合訓(xùn)練集,減少?zèng)Q策樹最大深度(是/否)為一個(gè)好主意。正確答案:是21.單選題下列說法錯(cuò)誤的是()A決策樹學(xué)習(xí)時(shí),給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)隨機(jī)進(jìn)入一個(gè)分支B隨著決策樹學(xué)習(xí)時(shí)的深度增加,位于葉結(jié)點(diǎn)的樣本越來越少C基尼指數(shù)越小,數(shù)據(jù)集的純度越高D信息增益準(zhǔn)則對(duì)可取值較多的屬性有所偏好正確答案:

A22.單選題下列說法錯(cuò)誤的是()A、CART算法的評(píng)價(jià)指標(biāo)是基尼系數(shù)B、ID3算法能解決過擬合問題

C在某些情況下樣本特征向量中一些分量沒有值,這稱為屬性缺失D當(dāng)樣本均勻分布于所有類中時(shí),熵最大正確答案:

B23.填空題決策樹劃分時(shí),若其中一個(gè)屬性為樣本的編號(hào)(各樣本編號(hào)不同),若基于該屬性進(jìn)行劃分,則信息增益最(大/?。┱_答案:大24.單選題

以下哪種方式通常不能幫助解決決策樹過擬合()。A限制最大樹深度B后剪枝C預(yù)剪枝D去除訓(xùn)練集一半樣本正確答案:

D25.單選題

下面關(guān)于預(yù)剪枝與后剪枝的說法錯(cuò)誤的是()。A留出法判斷剪枝性能時(shí),在驗(yàn)證集上判斷精度。B后剪枝決策樹通常比預(yù)剪枝決策樹保留了更多的分支。C預(yù)剪枝決策樹的泛化性能往往優(yōu)于后剪枝決策樹。D后剪枝決策樹訓(xùn)練時(shí)間開銷比預(yù)剪枝決策樹大。正確答案:

C26.填空題對(duì)于參數(shù)估計(jì)過程,統(tǒng)計(jì)學(xué)界的(頻率主義/貝葉斯主義)學(xué)派認(rèn)為參數(shù)雖然未知,但卻是客觀存在的固定值,因此,可通過優(yōu)化似然函數(shù)等準(zhǔn)則來確定參數(shù)值。正確答案:頻率主義27.單選題樸素貝葉斯分類器采用了()假設(shè):即對(duì)已知類別,假設(shè)所有屬性相互獨(dú)立。A屬性條件獨(dú)立性B獨(dú)依賴C有向無環(huán)圖依賴D道德圖正確答案:

A28.填空題0.03029.單選題下列說法錯(cuò)誤的是()A反映了分類器所能達(dá)到的最好性能B如果概率都能拿到真實(shí)值,那么根據(jù)貝葉斯判定準(zhǔn)則做出的決策是理論上最好的決策C貝葉斯決策論是概率框架下實(shí)施決策的基本理論D決策樹屬于生成式模型正確答案:

D30.單選題下列說法錯(cuò)誤的是()A貝葉斯學(xué)習(xí)等于貝葉斯分類器B極大似然估計(jì)需要假設(shè)某種概率分布形式C對(duì)連續(xù)屬性,計(jì)算條件概率可考慮概率密度函數(shù)D樸素貝葉斯分類器中,對(duì)給定類別,模型假設(shè)所有屬性間相互獨(dú)立正確答案:

A31.單選題下列關(guān)于線性模型的描述中正確的是哪個(gè)?A線性模型既可以處理回歸任務(wù),也可以處理分類任務(wù)B線性模型的表達(dá)能力與神經(jīng)網(wǎng)絡(luò)相同C線性模型無法擬合與輸入呈指數(shù)關(guān)系的輸出D線性模型通過投票法或加權(quán)平均法可以得到非線性模型正確答案:

A32.單選題下列關(guān)于類別不平衡問題的描述中正確的是哪個(gè)?A過采樣與欠采樣都通過構(gòu)造平衡數(shù)據(jù)集來處理類別不平衡問題B復(fù)制小類樣本可以高效解決類別不平衡問題C當(dāng)大類和小類一樣重要時(shí)需要針對(duì)不平衡問題做特殊處理D閾值移動(dòng)法需要構(gòu)造平衡數(shù)據(jù)集來處理類別不平衡問題正確答案:

A33.單選題

下列關(guān)于多元線性回歸中使用正則項(xiàng)的說法中正確的是?A即便計(jì)算機(jī)具有無限精度,多元線性回歸也需要使用正則項(xiàng)B樣例維度小于樣例數(shù)是使用正則項(xiàng)的原因之一C使用正則項(xiàng)只有理論意義,實(shí)際應(yīng)用中無需使用D使用正則化后,多元線性回歸可以找到多個(gè)最優(yōu)解正確答案:

A34.單選題多分類LDA問題中,類別數(shù)量為N,類內(nèi)散度矩陣為S_w,類間散度矩陣為S_b,有關(guān)投影矩陣W的閉式解的說法錯(cuò)誤的是()A可取S_w^(-1)S_b的最大的一部分非零廣義特征值,其對(duì)應(yīng)的特征向量。B可取S_w^(-1)S_b的全部非零廣義特征值,其對(duì)應(yīng)的特征向量。C所取的廣義特征值數(shù)量需要小于或等于N-1。D多分類LDA問題與二分類LDA問題具有相同的類間散度矩陣定義。正確答案:

D35.單選題下面關(guān)于多分類學(xué)習(xí)的說法錯(cuò)誤的是A類別很多時(shí),“一對(duì)一”的訓(xùn)練時(shí)間開銷通常比“一對(duì)其余”小。B“一對(duì)其余”策略中,每個(gè)分類器均使用全部訓(xùn)練樣例。C糾錯(cuò)輸出碼的理論性質(zhì)越好,最終產(chǎn)生的模型分類性能就越好。D在多數(shù)情況下,“一對(duì)一”和“一對(duì)其余”策略的預(yù)測(cè)性能相似。正確答案:

C36.填空題對(duì)率回歸(是/否)可以通過極大似然估計(jì)求解。正確答案:是37.填空題1.50038.單選題當(dāng)多隱層神經(jīng)網(wǎng)絡(luò)使用線性激活函數(shù)時(shí),下列哪個(gè)選項(xiàng)是正確的?A神經(jīng)網(wǎng)絡(luò)的輸出是輸入的線性函數(shù)B神經(jīng)網(wǎng)絡(luò)的輸出是權(quán)重的線性函數(shù)C神經(jīng)網(wǎng)絡(luò)具有萬有逼近性D經(jīng)驗(yàn)損失最小化具有唯一解正確答案:

A39.單選題下列關(guān)于神經(jīng)網(wǎng)絡(luò)萬有逼近性的說法中正確的是哪個(gè)?A包含足夠多神經(jīng)元的單隱層神經(jīng)網(wǎng)絡(luò)具有萬有逼近性B萬有逼近性表明任意一個(gè)神經(jīng)網(wǎng)絡(luò)都可以逼近任意函數(shù)C萬有逼近性是神經(jīng)網(wǎng)絡(luò)獨(dú)有的性質(zhì)D萬有逼近性保證了神經(jīng)網(wǎng)絡(luò)在現(xiàn)實(shí)任務(wù)中優(yōu)異的表現(xiàn)正確答案:

A40.單選題

下列關(guān)于BP算法的說法中正確的是哪個(gè)?A只要模型的損失函數(shù)關(guān)于模型權(quán)重可微,就可以使用BP算法優(yōu)化B、BP算法可以找到神經(jīng)網(wǎng)絡(luò)的全局極小解C、BP算法能在多項(xiàng)式時(shí)間內(nèi)收斂D只有使用Sigmoid激活函數(shù)的神經(jīng)網(wǎng)絡(luò)可以使用BP算法優(yōu)化正確答案:

A41.填空題使用BP算法優(yōu)化神經(jīng)網(wǎng)絡(luò),若發(fā)現(xiàn)損失函數(shù)劇烈波動(dòng),可能是優(yōu)化步長(zhǎng)偏(大/小)。正確答案:大42.填空題Sigmoid函數(shù)在一點(diǎn)的函數(shù)值總是(大于/等于/小于/無法確定)該點(diǎn)的導(dǎo)數(shù)值。正確答案:大于43.單選題以下關(guān)于緩解神經(jīng)網(wǎng)絡(luò)過擬合的說法正確的是A對(duì)于任何任務(wù),L1正則化一定能提高性能B對(duì)于任何任務(wù),L2正則化一定能提高性能C對(duì)于任何任務(wù),早停一定能提高性能D以上答案都錯(cuò)正確答案:

D44.單選題下列關(guān)于集成學(xué)習(xí)的說法中正確的是哪個(gè)?A個(gè)體學(xué)習(xí)器犯錯(cuò)的樣本具有一定差異性是集成學(xué)習(xí)取得好性能的要求之一B已有的多樣性定義可以作為優(yōu)化目標(biāo)直接優(yōu)化C、Boosting中所有個(gè)體學(xué)習(xí)器的權(quán)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論