雨課堂學(xué)堂在線學(xué)堂云《機(jī)器學(xué)習(xí)初步( 南京)》單元測(cè)試考核答案_第1頁(yè)
雨課堂學(xué)堂在線學(xué)堂云《機(jī)器學(xué)習(xí)初步( 南京)》單元測(cè)試考核答案_第2頁(yè)
雨課堂學(xué)堂在線學(xué)堂云《機(jī)器學(xué)習(xí)初步( 南京)》單元測(cè)試考核答案_第3頁(yè)
雨課堂學(xué)堂在線學(xué)堂云《機(jī)器學(xué)習(xí)初步( 南京)》單元測(cè)試考核答案_第4頁(yè)
雨課堂學(xué)堂在線學(xué)堂云《機(jī)器學(xué)習(xí)初步( 南京)》單元測(cè)試考核答案_第5頁(yè)
已閱讀5頁(yè),還剩35頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

注:不含主觀題第1題單選題(1分)機(jī)器學(xué)習(xí)的經(jīng)典定義是:利用()改善系統(tǒng)自身的性能。A經(jīng)驗(yàn)B專家C規(guī)則D實(shí)踐第2題單選題(1分)隨著機(jī)器學(xué)習(xí)領(lǐng)域的發(fā)展,目前主要研究以下哪個(gè)領(lǐng)域的理論和方法?A匯編語(yǔ)言B程序設(shè)計(jì)C硬件D智能數(shù)據(jù)分析第3題單選題(1分)機(jī)器學(xué)習(xí)利用經(jīng)驗(yàn),必須對(duì)以下哪個(gè)選項(xiàng)進(jìn)行分析?A天氣B數(shù)據(jù)C生活D語(yǔ)言典型的機(jī)器學(xué)習(xí)過程-作業(yè)第1題單選題(1分)課程視頻的西瓜數(shù)據(jù)集中,“好瓜、壞瓜”是一個(gè)西瓜樣例的什么?A屬性B類別標(biāo)記C沒有意義D數(shù)據(jù)集名稱第2題單選題(1分)對(duì)于要預(yù)測(cè)的新的數(shù)據(jù)樣本,它的類別標(biāo)記是?A已知的B未知的C都可以D負(fù)類第3題填空題(1分)機(jī)器學(xué)習(xí)的模型,____(是/不是)從數(shù)據(jù)中產(chǎn)生的。正確答案::["是"]計(jì)算學(xué)習(xí)理論-作業(yè)第1題單選題(1分)計(jì)算學(xué)習(xí)理論中最重要的理論模型是?A計(jì)算模型B數(shù)據(jù)模型C機(jī)器學(xué)習(xí)DPAC第2題單選題(1分)以下哪個(gè)是對(duì)概率近似正確(PAC)的正確解釋?A以很低概率得到不好的模型B以很低概率得到很好的模型C以很高概率得到很好的模型D以很高概率得到不好的模型第3題填空題(1分)機(jī)器學(xué)習(xí)____(有/沒有)堅(jiān)實(shí)的理論基礎(chǔ)。正確答案::["有"]基本術(shù)語(yǔ)-作業(yè)第1題單選題(1分)課程視頻中,訓(xùn)練數(shù)據(jù)中的“色澤”是什么?

A屬性B屬性值C類別標(biāo)記D樣本第2題單選題(1分)以下哪個(gè)選項(xiàng)指的是機(jī)器學(xué)習(xí)中的假設(shè)(hypothesis)?A屬性B標(biāo)記C數(shù)據(jù)D學(xué)到的模型第3題填空題(1分)多分類問題____(可以/不可以)分解為若干個(gè)二分類問題。正確答案::["可以"]歸納偏好-作業(yè)第1題單選題(1分)歸納偏好指機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中,對(duì)以下哪個(gè)選項(xiàng)的偏好?A數(shù)據(jù)B某種類型假設(shè)C標(biāo)記D運(yùn)行速度第2題單選題(1分)以下哪個(gè)選項(xiàng)是指“奧卡姆剃刀”原則?A若有多個(gè)假設(shè)與觀察一致,則隨機(jī)選一個(gè)B若有多個(gè)假設(shè)與觀察一致,則選既不簡(jiǎn)單又不復(fù)雜的那個(gè)C若有多個(gè)假設(shè)與觀察一致,則選最簡(jiǎn)單的那個(gè)D若有多個(gè)假設(shè)與觀察一致,則選最復(fù)雜的那個(gè)第3題填空題(1分)利用“奧卡姆剃刀”原則時(shí),確定哪個(gè)假設(shè)更“簡(jiǎn)單”,這個(gè)問題____(是/不是)簡(jiǎn)單的。正確答案::["不是"]NFL定理-作業(yè)第1題單選題(1分)以下哪種說法描述了NFL定理?A一個(gè)算法a若在某些問題上比另一個(gè)算法b好,必存在另一些問題沒算法b好B機(jī)器學(xué)習(xí)算法需要數(shù)據(jù)C所有機(jī)器學(xué)習(xí)問題問題出現(xiàn)的機(jī)會(huì)相同D一個(gè)算法a若在某些問題上比另一個(gè)算法b好,a一定比b需要更多數(shù)據(jù)第2題單選題(1分)以下哪個(gè)選項(xiàng)是NFL定理的重要前提?A所有“問題”難度不同B所有“問題”出現(xiàn)的機(jī)會(huì)服從任意分布C所有“問題”出現(xiàn)的機(jī)會(huì)不相同D所有“問題”出現(xiàn)的機(jī)會(huì)相同第3題填空題(1分)脫離具體問題,空泛地談?wù)摗笆裁磳W(xué)習(xí)算法更好”____(有/沒有)意義。正確答案::["沒有"]緒論-章節(jié)測(cè)試第1題單選題(1分)下列有關(guān)機(jī)器學(xué)習(xí)基本術(shù)語(yǔ)的說法錯(cuò)誤的是A從數(shù)據(jù)中學(xué)得模型的過程稱為“學(xué)習(xí)”或“訓(xùn)練”B訓(xùn)練過程中使用的數(shù)據(jù)稱為“訓(xùn)練數(shù)據(jù)”,每一個(gè)樣本稱為一個(gè)“訓(xùn)練樣本”,訓(xùn)練樣本組成的集合稱為“訓(xùn)練集”C學(xué)得模型對(duì)應(yīng)了關(guān)于數(shù)據(jù)的某種潛在的規(guī)律,稱為“假設(shè)”D學(xué)習(xí)過程就是為了找出數(shù)據(jù)的某種潛在規(guī)律,這個(gè)規(guī)律自身,一般稱為“數(shù)據(jù)特征”第2題單選題(1分)以下關(guān)于機(jī)器學(xué)習(xí)預(yù)測(cè)任務(wù)的說法錯(cuò)誤的是()A一般地,預(yù)測(cè)任務(wù)是希望通過對(duì)訓(xùn)練集進(jìn)行學(xué)習(xí),建立一個(gè)從輸入空間到輸出空間的映射B對(duì)于二分類任務(wù),一般令或C對(duì)于回歸任務(wù),一般D預(yù)測(cè)任務(wù)不需要訓(xùn)練樣本的的標(biāo)記信息第3題填空題(1分)聚類算法是機(jī)器學(xué)習(xí)中一種典型的____學(xué)習(xí)算法。(監(jiān)督/無監(jiān)督)正確答案::["無監(jiān)督"]第4題填空題(1分)學(xué)出來的模型適用于新樣本的能力,稱為

____能力。該能力越強(qiáng),說明學(xué)得的模型越能很好地適用于整個(gè)樣本空間。正確答案::["泛化"]第5題填空題(1分)學(xué)得模型后,使用其進(jìn)行預(yù)測(cè)的過程稱為____。正確答案::["測(cè)試"]第6題填空題(1分)根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,我們可以將學(xué)習(xí)任務(wù)分為兩大類,監(jiān)督學(xué)習(xí)和____。正確答案::["無監(jiān)督"]第7題填空題(1分)分類和回歸任務(wù),按照數(shù)據(jù)是否擁有標(biāo)記信息來說,屬于機(jī)器學(xué)習(xí)中的____。正確答案::["監(jiān)督"]第8題單選題(1分)下列不屬于機(jī)器學(xué)習(xí)任務(wù)的是()A人臉識(shí)別B網(wǎng)頁(yè)編寫C文本分類D銷量預(yù)測(cè)第9題單選題(1分)下列說法錯(cuò)誤的是()A模型是通過學(xué)習(xí)算法得到的B機(jī)器學(xué)習(xí)通常解決高度不確定性和復(fù)雜性的問題C分類和回歸是監(jiān)督學(xué)習(xí)的代表D機(jī)器學(xué)習(xí)一定需要類別標(biāo)記第10題單選題(1分)下列說法錯(cuò)誤的是()A“色澤”取值為“青綠”,這里的“青綠”是屬性值B輸出是離散值的學(xué)習(xí)任務(wù)為分類任務(wù)C模型找出的規(guī)律一定是正確的D一般假設(shè)正類和反類是可交換的第11題單選題(1分)下列說法錯(cuò)誤的是()A學(xué)得模型適用于新樣本的能力稱為“泛化”能力B機(jī)器學(xué)習(xí)一般有“獨(dú)立同分布”假設(shè)C機(jī)器學(xué)習(xí)在只要見過的數(shù)據(jù)上做好就行了,未見過樣本上的性能不重要D一般假設(shè)拿到的所有數(shù)據(jù)都來自一個(gè)潛在的分布第12題填空題(1分)把見過的汽車分成若干組,這是一個(gè)____(分類/回歸/聚類)任務(wù)正確答案::["聚類"]第13題填空題(1分)上完機(jī)器學(xué)習(xí)課,小明在50個(gè)數(shù)據(jù)集上用不同算法模型進(jìn)行訓(xùn)練和測(cè)試,發(fā)現(xiàn)算法a的效果一直比算法b好,他認(rèn)為在所有問題上算法a的效果都會(huì)比b好。這個(gè)結(jié)論是____(正確/錯(cuò)誤)的。正確答案::["錯(cuò)誤"]第14題填空題(1分)奧卡姆剃刀原則中,兩個(gè)假設(shè)哪一個(gè)“更簡(jiǎn)單”,是____(容易/不容易)判斷的。正確答案::["不容易"]第15題單選題(1分)下列關(guān)于歸納偏好的說法錯(cuò)誤的是()A機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中對(duì)某種類型假設(shè)的偏好,稱為“歸納偏好”,或簡(jiǎn)稱為“偏好”B一般來說,任何一個(gè)有效的機(jī)器學(xué)習(xí)算法都有其歸納偏好C“奧卡姆剃刀”原則在某些情況下可以指導(dǎo)我們選擇偏好D在任何情況下,總有一個(gè)最優(yōu)的學(xué)習(xí)算法泛化能力-作業(yè)第1題單選題(1分)下面哪一項(xiàng)可以作為模型好的標(biāo)準(zhǔn)?A錯(cuò)誤率低B精度高C召回率高D上述指標(biāo)都可以,但視具體任務(wù)和使用者需求而異第2題單選題(1分)我們希望模型在未見樣本上表現(xiàn)好,這一能力通常被稱作模型的什么能力?A泛化能力B建模能力C學(xué)習(xí)能力D擬合能力第3題填空題(1分)在評(píng)價(jià)模型性能時(shí),我們更希望它____(泛化能力強(qiáng)/訓(xùn)練誤差為0)正確答案::["泛化能力強(qiáng)"]過擬合和欠擬合-作業(yè)第1題單選題(1分)模型在“未來”樣本上的誤差被稱作A泛化誤差B經(jīng)驗(yàn)誤差C學(xué)習(xí)誤差D訓(xùn)練誤差第2題單選題(1分)有的情況下,模型學(xué)習(xí)到了訓(xùn)練數(shù)據(jù)滿足的特有性質(zhì),但這些性質(zhì)不是一般規(guī)律,這種現(xiàn)象被稱之為A欠擬合B過擬合C欠配D以上三個(gè)選項(xiàng)均不是第3題填空題(1分)在訓(xùn)練模型時(shí),只需要保證模型的訓(xùn)練誤差最小即可。____(是/否)正確答案::["否"]三大問題-作業(yè)第1題單選題(1分)模型選擇有哪些關(guān)鍵問題?A評(píng)估方法B性能度量C比較檢驗(yàn)D以上三個(gè)選項(xiàng)都是關(guān)鍵問題第2題單選題(1分)為了說明模型在統(tǒng)計(jì)意義上表現(xiàn)好,我們最需要考慮A評(píng)估方法B性能度量C比較檢驗(yàn)D以上三個(gè)選項(xiàng)都不需要考慮第3題填空題(1分)在沒有“未來數(shù)據(jù)”的情況下,我們____(能/不能)通過訓(xùn)練集對(duì)泛化誤差進(jìn)行估計(jì)。正確答案::["能"]評(píng)估方法-作業(yè)第1題單選題(1分)下列什么方法可以用來獲得從原始數(shù)據(jù)集中劃分出“測(cè)試集”?A留出法B交叉驗(yàn)證法C自助法D以上三個(gè)選項(xiàng)都可以第2題單選題(1分)下面哪一項(xiàng)不是留出法的注意事項(xiàng)?A需要保持訓(xùn)練集和測(cè)試集數(shù)據(jù)分布的一致性B只需要進(jìn)行一次劃分C測(cè)試集不能太大,不能太小D以上選項(xiàng)都是第3題填空題(1分)訓(xùn)練集與測(cè)試集____(應(yīng)該互斥/可以不互斥)正確答案::["應(yīng)該互斥"]調(diào)參與驗(yàn)證集-作業(yè)第1題單選題(1分)調(diào)參以什么集合上的性能作為評(píng)價(jià)標(biāo)準(zhǔn)?A訓(xùn)練集B測(cè)試集C驗(yàn)證集D以上選項(xiàng)都可以第2題單選題(1分)當(dāng)我們使用一個(gè)多項(xiàng)式函數(shù)去逼近數(shù)據(jù)集時(shí),下面哪一個(gè)說法是正確的?A多項(xiàng)式的次數(shù)是超參數(shù)B多項(xiàng)式的系數(shù)是超參數(shù)C多項(xiàng)式的次數(shù)必須通過數(shù)據(jù)去學(xué)習(xí)D以上說法都是正確的第3題填空題(1分)超參數(shù)一般由____(人工/學(xué)習(xí))確定。正確答案::["人工"]性能度量-作業(yè)第1題單選題(1分)“好”模型取決于下列哪些因素?A算法B數(shù)據(jù)C任務(wù)需求D以上選項(xiàng)都是第2題單選題(1分)收購(gòu)西瓜的公司希望把瓜攤的好瓜都盡量收走,請(qǐng)問他的評(píng)價(jià)標(biāo)準(zhǔn)是?A錯(cuò)誤率B精度C查準(zhǔn)率D查全率第3題填空題(1分)回歸任務(wù)的性能度量之一均方誤差

添加系數(shù)后

會(huì)影響判斷哪個(gè)模型是最好的。____(是/否)正確答案::["否"]比較檢驗(yàn)-作業(yè)第1題單選題(1分)以下什么檢驗(yàn)是基于列聯(lián)表的?A交叉驗(yàn)證t檢驗(yàn)BMcNemar檢驗(yàn)C以上檢驗(yàn)都是基于列聯(lián)表的D以上檢驗(yàn)都不是基于列聯(lián)表的第2題單選題(1分)下面關(guān)于交叉驗(yàn)證t檢驗(yàn)錯(cuò)誤的是?A適用于模型采用k折交叉驗(yàn)證的評(píng)估方法B基于成對(duì)t檢驗(yàn)C無法判斷統(tǒng)計(jì)顯著性D需要用到模型評(píng)估時(shí)k折交叉驗(yàn)證的k個(gè)結(jié)果第3題填空題(1分)兩種算法在某種度量下取得評(píng)估結(jié)果后,可以直接比較以評(píng)價(jià)優(yōu)劣。____(是/否)正確答案::["否"]模型評(píng)估與選擇-章節(jié)測(cè)試第1題單選題(1分)在訓(xùn)練集上的誤差被稱作A泛化誤差B經(jīng)驗(yàn)誤差C測(cè)試誤差D以上三個(gè)選項(xiàng)都不對(duì)第2題單選題(1分)當(dāng)學(xué)習(xí)任務(wù)對(duì)數(shù)據(jù)分布的輕微變化比較魯棒且數(shù)據(jù)量較少時(shí),適合使用什么樣的數(shù)據(jù)集劃分方式?A留出法B交叉驗(yàn)證法C自助法D以上三個(gè)選項(xiàng)都可以第3題單選題(1分)我們通常將數(shù)據(jù)集劃分為訓(xùn)練集,驗(yàn)證集和測(cè)試集進(jìn)行模型的訓(xùn)練,參數(shù)的驗(yàn)證需要在__上進(jìn)行,參數(shù)確定后__重新訓(xùn)練模型。A訓(xùn)練集需要B訓(xùn)練集不需要C驗(yàn)證集需要D驗(yàn)證集不需要第4題單選題(1分)當(dāng)西瓜收購(gòu)公司去瓜攤收購(gòu)西瓜時(shí)既希望把好瓜都收走又保證收到的瓜中壞瓜盡可能的少,請(qǐng)問他應(yīng)該考慮什么評(píng)價(jià)指標(biāo)?A精度B查全率C查準(zhǔn)率DF1度量第5題單選題(1分)兩種算法在某種度量下取得評(píng)估結(jié)果后不能直接比較以評(píng)判優(yōu)劣的原因中,正確的是A測(cè)試性能不等于泛化性能B測(cè)試性能隨著測(cè)試集的變化而變化C很多機(jī)器學(xué)習(xí)算法本身有一定的隨機(jī)性D以上均正確第6題填空題(1分)訓(xùn)練模型時(shí),選擇經(jīng)驗(yàn)誤差最小的模型會(huì)存在什么風(fēng)險(xiǎn)。____(過擬合/欠擬合)正確答案::["過擬合"]第7題填空題(1分)對(duì)于從數(shù)據(jù)(0,1),(1,0),(1,2),(2,1)通過最小二乘擬合的不帶偏置項(xiàng)的線性模型y=x,其訓(xùn)練誤差(均方誤差)為____(保留三位小數(shù))正確答案::["1.000"]第8題填空題(1分)使用留出法對(duì)數(shù)據(jù)集進(jìn)行劃分時(shí),為了保持?jǐn)?shù)據(jù)分布的一致性,可以考慮什么采樣。____(分層采樣/隨機(jī)采樣/有放回采樣)正確答案::["分層采樣"]第9題填空題(1分)當(dāng)我們使用留出法對(duì)數(shù)據(jù)集進(jìn)行劃分后,在訓(xùn)練集上通過兩個(gè)不同的算法訓(xùn)練出2個(gè)模型,并通過測(cè)試集上的性能評(píng)估得到表現(xiàn)最好的模型,這一模型可以直接推薦給用戶。____(是/否)正確答案::["否"]第10題填空題(1分)考慮一個(gè)三分類數(shù)據(jù)集,其由30個(gè)西瓜,30個(gè)蘋果,30個(gè)香蕉構(gòu)成。先有一個(gè)學(xué)習(xí)策略為預(yù)測(cè)新樣本為訓(xùn)練集中樣本數(shù)目最多類別的分類器(存在多個(gè)類別樣本數(shù)量一樣多時(shí)則隨機(jī)選擇一個(gè)類別預(yù)測(cè)),請(qǐng)問通過什么評(píng)估方式會(huì)導(dǎo)致其平均準(zhǔn)確率為0。____(留出法/交叉驗(yàn)證,每一折樣本數(shù)大于1/留一法)正確答案::["留一法"]第11題填空題(1分)當(dāng)我們使用留一法進(jìn)行評(píng)估時(shí)會(huì)出現(xiàn)什么問題。____(訓(xùn)練模型與使用整個(gè)數(shù)據(jù)集訓(xùn)練的模型差異大/經(jīng)驗(yàn)誤差與泛化誤差偏差大)正確答案::["經(jīng)驗(yàn)誤差與泛化誤差偏差大"]第12題填空題(1分)考慮如下分類結(jié)果混淆矩陣,其F1度量為____(保留3位小數(shù))正確答案::["0.364"]第13題填空題(1分)McNemar檢驗(yàn)基于____(成對(duì)t檢驗(yàn)/卡方檢驗(yàn))正確答案::["卡方檢驗(yàn)"]第14題單選題(1分)假設(shè)我們已經(jīng)建立好了一個(gè)二分類模型,輸出是0或1,初始閾值設(shè)置為0.5,超過0.5概率估計(jì)就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個(gè)大于0.5的閾值,一般來說,下列說法正確的是A查準(zhǔn)率會(huì)上升或不變,查全率會(huì)下降或不變B查準(zhǔn)率會(huì)下降或不變,查全率會(huì)下降或不變C查準(zhǔn)率會(huì)上升或不變,查全率會(huì)上升或不變D查準(zhǔn)率會(huì)下降或不變,查全率會(huì)上升或不變第15題單選題(1分)對(duì)于留出法,下列說法正確的是A測(cè)試集小的時(shí)候,評(píng)估結(jié)果的方差較大B訓(xùn)練集小的時(shí)候,評(píng)估結(jié)果的偏差較大C留出法需要對(duì)數(shù)據(jù)集進(jìn)行多次切分并將結(jié)果取平均值D以上說法均正確線性回歸-作業(yè)第1題單選題(1分)以下哪個(gè)不是線性模型的優(yōu)勢(shì)?A簡(jiǎn)單B復(fù)雜C基本D可理解性好第2題單選題(1分)示例的屬性可以屬于下列哪個(gè)類別?A無序的離散屬性B連續(xù)屬性C有序的離散屬性D以上都對(duì)第3題填空題(1分)一賣傘商家想利用天氣來預(yù)測(cè)銷售額,已知他只考慮溫度、濕度、降雨量三種天氣特征。若商家使用線性回歸模型預(yù)測(cè),則模型的輸入是____(填寫阿拉伯?dāng)?shù)字)維度的。正確答案::["3"]最小二乘解-作業(yè)第1題單選題(1分)最小二乘參數(shù)估計(jì)得到的線性回歸模型滿足什么性質(zhì)?A均方誤差為0B均方誤差最大C均方誤差最小D均方誤差為1第2題單選題(1分)最小二乘法的求解步驟是什么?

(1)均方誤差對(duì)w與b求偏導(dǎo);(2)令偏導(dǎo)為0;(3)求解線性方程組。A(1)(2)(3)B(1)(3)(2)C(2)(1)(3)D(3)(1)(2)第3題填空題(1分)基于均方誤差最小化來進(jìn)行模型求解的方法稱為____(5個(gè)字)。正確答案::["最小二乘法"]多元線性回歸-作業(yè)第1題單選題(1分)為了書寫的簡(jiǎn)化,多元線性回歸會(huì)使用下列哪種記號(hào)?A將

合并為一個(gè)向量,在

的最后增加一列1B將

與1合并為一個(gè)向量,在

的最后增加一列

C將

與1合并為一個(gè)向量,在

的最后增加一列D將

合并為一個(gè)向量,在

的最后增加一列第2題單選題(1分)當(dāng)下列哪個(gè)條件滿足時(shí),多元線性回歸的最小二乘解唯一?A

不滿秩B

滿秩C

滿秩D不滿秩第3題填空題(1分)當(dāng)?

不滿秩時(shí),多元線性回歸需要引入____(regularization)。正確答案::["正則化"]廣義線性模型-作業(yè)第1題單選題(1分)

被稱為什么模型?A線性指數(shù)回歸B線性對(duì)數(shù)回歸C指數(shù)線性回歸D對(duì)數(shù)線性回歸第2題單選題(1分)對(duì)數(shù)線性回歸是令廣義線性模型中的聯(lián)系函數(shù)為什么函數(shù)的特例?A指數(shù)函數(shù)B對(duì)數(shù)函數(shù)C二次函數(shù)D絕對(duì)值函數(shù)第3題填空題(1分)廣義線性模型的一般形式為

,其中

被稱為____(linkfunction)。正確答案::["聯(lián)系函數(shù)"]對(duì)率回歸-作業(yè)第1題單選題(1分)單位階躍函數(shù)的缺點(diǎn)是什么?A不連續(xù)且不可微B單調(diào)增C非負(fù)D最大值為1第2題單選題(1分)對(duì)數(shù)幾率函數(shù)作為單位階躍函數(shù)的替代函數(shù)的優(yōu)點(diǎn)是什么?A具有中心對(duì)稱性B嚴(yán)格大于0C單調(diào)且任意階可導(dǎo)D不需要寫成分段形式第3題填空題(1分)

反映了

作為正例的相對(duì)可能性,這個(gè)量在統(tǒng)計(jì)學(xué)中被稱為____。正確答案::["幾率"]對(duì)率回歸求解-作業(yè)第1題單選題(1分)對(duì)數(shù)幾率回歸為什么不能通過令偏導(dǎo)為0求解?A均方損失函數(shù)太復(fù)雜B均方損失非凸C均方損失沒有偏導(dǎo)為0的點(diǎn)D均方損失沒有極值點(diǎn)第2題單選題(1分)下列關(guān)于梯度下降法描述錯(cuò)誤的是?A可以用于求解對(duì)數(shù)幾率回歸B是一種迭代求解的方法C可以比較好的并行化D可以高效地求解所有凸優(yōu)化問題第3題填空題(1分)極大似然法最大化____函數(shù)。正確答案::["似然"]類別不平衡-作業(yè)第1題單選題(1分)類別不平衡問題中何時(shí)需要做特殊處理?A大類比小類重要B小類和大類一樣重要C小類比大類重要D任何情況第2題單選題(1分)以下哪種方法不是常見的類別不平衡學(xué)習(xí)方法?A最小二乘法B過采樣C欠采樣D閾值移動(dòng)第3題填空題(1分)處理類別不平衡問題時(shí),通過丟掉一部分大類樣本使得訓(xùn)練集平衡的方法被稱為____(3個(gè)字)。正確答案::["欠采樣"]線性模型-章節(jié)測(cè)試第1題單選題(1分)下列關(guān)于對(duì)數(shù)幾率回歸的描述中錯(cuò)誤的是?A無需事先假設(shè)數(shù)據(jù)分布B使用對(duì)數(shù)函數(shù)作為聯(lián)系函數(shù)C可得到類別的近似概率預(yù)測(cè)D可直接應(yīng)用現(xiàn)有數(shù)值優(yōu)化算法求取最優(yōu)解第2題單選題(1分)孫悟空想請(qǐng)你幫他預(yù)測(cè)下一次妖精會(huì)在多久后出現(xiàn),你會(huì)使用下列哪種方法?A使用歷史上妖精出現(xiàn)的時(shí)間以及八戒每日食量數(shù)據(jù),并使用對(duì)率回歸模型B使用歷史上妖精出現(xiàn)的時(shí)間以及師父念緊箍咒的時(shí)間數(shù)據(jù),并使用指數(shù)線性回歸模型C使用歷史上妖精出現(xiàn)的時(shí)間以及師徒四人的前進(jìn)速度數(shù)據(jù),并使用多元線性回歸模型D使用歷史上妖精出現(xiàn)的時(shí)間以及沙和尚每日體重?cái)?shù)據(jù),并使用對(duì)數(shù)線性回歸模型第3題單選題(1分)處理類別不平衡問題時(shí),復(fù)制小類樣本不是一種好的過采樣方法,下列哪個(gè)不是其原因?A復(fù)制樣本效率低下B容易過擬合C受噪聲影響大D有過擬合噪聲的風(fēng)險(xiǎn)第4題單選題(1分)Jerry想通過西瓜的重量、西瓜的顏色、西瓜根蒂的長(zhǎng)短來判斷一個(gè)西瓜是否是好瓜,Jerry記錄了一些購(gòu)買西瓜的記錄如下:(5500g,烏黑,長(zhǎng),否),(6000g,青綠,很長(zhǎng),是),(5800g,翠綠,短,是)。如果Jerry想收集更多西瓜數(shù)據(jù)并利用線性模型判斷西瓜好壞,下列哪個(gè)選項(xiàng)是上述三個(gè)記錄的合理表示?A(5500,1,2),(6000,2,4),(5800,3,1)B(5.5,1,0,0,3),(6,0,0,1,5),(5.8,0,1,0,1)C(5500,1,0,0,5),(6000,0,1,0,3),(5800,0,0,1,1)D(5.5,1,0,0,3),(6,0,1,0,2),(5.8,0,0,1,1)第5題單選題(1分)小明想利用心率數(shù)據(jù)、運(yùn)動(dòng)與用餐時(shí)間間隔這兩項(xiàng)數(shù)據(jù)來預(yù)測(cè)是否會(huì)發(fā)生低血糖,他利用平時(shí)鍛煉數(shù)據(jù)收集了100個(gè)未發(fā)生低血糖的數(shù)據(jù)與3個(gè)發(fā)生低血糖的數(shù)據(jù),3個(gè)發(fā)生低血糖的數(shù)據(jù)為:(180,比較久),(170,久),(165,非常久)。小明想請(qǐng)你幫他過采樣一些低血糖數(shù)據(jù),你認(rèn)為下列哪個(gè)數(shù)據(jù)是合理的過采樣數(shù)據(jù)?A(175,比較久)B(200,久)C(150,非常久)D(175,不久)第6題單選題(1分)下列哪個(gè)模型不是廣義線性模型?ABCD第7題單選題(1分)下列哪個(gè)選項(xiàng)不是多元線性回歸使用正則化的原因?A計(jì)算機(jī)數(shù)值精度有限B樣例維度大于樣例數(shù)C樣例的采樣過程存在偏差D存在大量線性相關(guān)的樣例第8題單選題(1分)在求解對(duì)率回歸時(shí),下列哪個(gè)選項(xiàng)不是極大似然法的優(yōu)勢(shì)?A優(yōu)化目標(biāo)是凸函數(shù)B具有閉式解C可以使用梯度下降法求解D優(yōu)化目標(biāo)連續(xù)可微第9題填空題(1分)給定數(shù)據(jù)集,最小二乘法學(xué)得的線性模型的斜率為____(保留3位小數(shù))。正確答案::["0.500"]第10題填空題(1分)給定數(shù)據(jù)集,最小化數(shù)據(jù)集到線性模型的歐式距離的平方和學(xué)得的線性模型滿足。對(duì)于數(shù)據(jù)集,這一方法學(xué)得的線性模型的斜率為____(保留3位小數(shù))。正確答案::["0.535"]第11題填空題(1分)比較上述兩題求得的斜率值,最小二乘法求得的斜率____(大于/等于/小于)最小化數(shù)據(jù)集到線性模型歐式距離的平方和求得的斜率。這一結(jié)論對(duì)一般問題也成立,可嘗試證明之。正確答案::["小于"]第12題填空題(1分)OvR是一種常用的多分類方法,該方法每次將一個(gè)類的樣例作為正例、所有其他類的樣例作為反例。對(duì)于類別均衡的10分類問題,若使用OvR以及閾值移動(dòng)法來訓(xùn)練,則閾值應(yīng)設(shè)為____(保留3位小數(shù))。正確答案::["0.100"]第13題填空題(1分)對(duì)率回歸可以得到樣例是正類的概率的____(精確值/近似估計(jì))。正確答案::["近似估計(jì)"]第14題填空題(1分)對(duì)率回歸____(需要/不需要)事先假設(shè)數(shù)據(jù)分布。正確答案::["不需要"]第15題填空題(1分)多元線性回歸不滿秩的情況下____(是/否)可以通過加入歸納偏好來選取較好的解。正確答案::["是"]決策樹基本流程-作業(yè)第1題單選題(1分)下列選項(xiàng)哪個(gè)是決策樹的預(yù)測(cè)過程?A將測(cè)試示例從一個(gè)中間節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測(cè)試序列”下行,直到葉節(jié)點(diǎn)B將測(cè)試示例從一個(gè)中間節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測(cè)試序列”上行,直到根節(jié)點(diǎn)C將測(cè)試示例從葉節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測(cè)試序列”上行,直到根節(jié)點(diǎn)D將測(cè)試示例從根節(jié)點(diǎn)開始,沿著劃分屬性所構(gòu)成的“判定測(cè)試序列”下行,直到葉節(jié)點(diǎn)第2題單選題(1分)決策樹學(xué)習(xí)的策略是什么?A分而治之B集成C聚類D排序第3題填空題(1分)決策樹訓(xùn)練時(shí),若當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,則____(需要/無需)劃分正確答案::["無需"]信息增益劃分-作業(yè)第1題單選題(1分)信息熵是度量樣本集合[填空1]最常用的一種指標(biāo)A純度B對(duì)稱差C大小D重要性第2題單選題(1分)以下哪個(gè)選項(xiàng)是信息增益的定義?A劃分前的信息熵-劃分后的信息熵B劃分后的信息熵-劃分前的信息熵C劃分前的信息熵/劃分后的信息熵D劃分后的信息熵+劃分前的信息熵第3題填空題(1分)在二分類任務(wù)中,若當(dāng)前樣本集合的正類和負(fù)類的數(shù)量剛好各一半,此時(shí)信息熵為____(保留一位小數(shù))正確答案::["1.0"]其他屬性劃分準(zhǔn)則-作業(yè)第1題單選題(1分)下列說法錯(cuò)誤的是()ACART算法在候選屬性集合中選取使劃分后基尼指數(shù)最大的屬性B劃分選擇的各種準(zhǔn)擇對(duì)泛化性能的影響有限C劃分選擇的各種準(zhǔn)擇對(duì)決策樹尺寸有較大影響D相比劃分準(zhǔn)則,剪枝方法和程度對(duì)決策樹泛化性能的影響更為顯著第2題單選題(1分)增益率的表達(dá)式是Gain_ratio(D,a)=()AGain(D,a)+IV(a)BGain(D,a)-IV(a)CGain(D,a)*IV(a)DGain(D,a)/IV(a)第3題填空題(1分)對(duì)視頻中出現(xiàn)的西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁(yè)),劃分前的信息熵為0.998,若使用編號(hào)屬性進(jìn)行劃分,則信息增益為____(保留3位小數(shù))正確答案::["0.998"]決策樹的剪枝-作業(yè)第1題單選題(1分)剪枝是決策樹學(xué)習(xí)算法對(duì)付什么現(xiàn)象的主要手段?A標(biāo)記噪聲B數(shù)據(jù)少C過擬合D欠擬合第2題單選題(1分)提前終止某些分支的生長(zhǎng),這個(gè)策略的名稱是什么?A預(yù)剪枝B后剪枝C不剪枝D隨機(jī)剪枝第3題填空題(1分)決策樹剪枝的基本策略有“____”和“后剪枝”正確答案::["預(yù)剪枝"]缺失值的處理-作業(yè)第1題單選題(1分)決策樹算法一般是如何對(duì)缺失屬性進(jìn)行處理的?A僅使用無缺失的樣例B對(duì)缺失值進(jìn)行隨機(jī)填充C用其他屬性值預(yù)測(cè)缺失值D利用“樣本賦權(quán),權(quán)重劃分”的思想解決第2題單選題(1分)決策樹處理缺失值的基本思路是“樣本賦權(quán),權(quán)重劃分”,其中“權(quán)重劃分”指的是以下哪個(gè)選項(xiàng)?A給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)按進(jìn)入權(quán)重最大的一個(gè)分支B給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)按權(quán)重隨機(jī)進(jìn)入一個(gè)分支C給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)按權(quán)重同時(shí)進(jìn)入所有分支D給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)按進(jìn)入權(quán)重最小的一個(gè)分支第3題填空題(1分)決策樹處理有缺失值的樣本時(shí),僅通過____(有/無)缺失值的樣例來判斷劃分屬性的優(yōu)劣正確答案::["無"]決策樹-章節(jié)測(cè)試第1題單選題(1分)決策樹劃分時(shí),若當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,則應(yīng)該怎么做?A將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中樣本最多的類B將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中樣本最少的類C將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中任意一個(gè)類D從其他結(jié)點(diǎn)獲得樣本,繼續(xù)進(jìn)行劃分第2題單選題(1分)決策樹劃分時(shí),當(dāng)遇到以下哪種情形時(shí),將結(jié)點(diǎn)標(biāo)記為葉節(jié)點(diǎn),其類別標(biāo)記為當(dāng)前樣本集中樣本數(shù)最多的類A當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同B當(dāng)前屬性集不為空,或所有樣本在所有屬性上取值相同C當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,或當(dāng)前屬性集為空D當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,或所有樣本在所有屬性上取值相同第3題填空題(1分)ID3決策樹劃分時(shí),選擇信息增益最____(大/?。┑膶傩宰鳛閯澐謱傩哉_答案::["大"]第4題填空題(1分)若數(shù)據(jù)集的屬性全為離散值,決策樹學(xué)習(xí)時(shí),____(可以/不可以)把用過的屬性再作為劃分屬性。正確答案::["不可以"]第5題單選題(1分)下列說法錯(cuò)誤的是()A信息增益準(zhǔn)則對(duì)可取值較少的屬性有所偏好BC4.5算法并不是直接選擇增益率最大的候選劃分屬性C基尼指數(shù)反映了從數(shù)據(jù)集中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記不一致的概率D基尼指數(shù)越小,數(shù)據(jù)集的純度越高第6題填空題(1分)對(duì)視頻中出現(xiàn)的西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁(yè)),屬性“觸感”和“色澤”,____(觸感/色澤)的增益率更大正確答案::["色澤"]第7題填空題(1分)對(duì)視頻中出現(xiàn)的西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁(yè)),屬性“色澤”的基尼指數(shù)為____(保留2位有效數(shù)字)正確答案::["0.43"]第8題單選題(1分)隨著決策樹學(xué)習(xí)時(shí)的深度增加,會(huì)發(fā)生什么現(xiàn)象?A位于葉結(jié)點(diǎn)的樣本越來越少B不會(huì)把數(shù)據(jù)中不該學(xué)到的特性學(xué)出來C決策樹不會(huì)過擬合D葉結(jié)點(diǎn)一定學(xué)到一般規(guī)律第9題填空題(1分)只學(xué)習(xí)一顆決策樹作為模型時(shí),一般____(要/不要)選擇剪枝正確答案::["要"]第10題填空題(1分)(本題需閱讀教材79-83頁(yè)中剪枝的例子)考慮如圖的訓(xùn)練集和驗(yàn)證集,其中“性別”、“喜歡ML作業(yè)”是屬性,“ML成績(jī)高”是標(biāo)記。假設(shè)已生成如圖的決策樹,用精度(accuracy)衡量決策樹的優(yōu)劣,預(yù)剪枝的結(jié)果____(是/不是)原本的決策樹。正確答案::["不是"]第11題填空題(1分)(本題需閱讀教材79-83頁(yè)中剪枝的例子)考慮如圖的訓(xùn)練集和驗(yàn)證集,其中“性別”、“喜歡ML作業(yè)”是屬性,“ML成績(jī)高”是標(biāo)記。假設(shè)已生成如圖的決策樹,用精度(accuracy)衡量決策樹的優(yōu)劣,后剪枝的結(jié)果____(是/不是)原本的決策樹。正確答案::["是"]第12題單選題(1分)下列說法正確的是()A決策樹處理缺失值時(shí),僅通過無缺失值的樣例來判斷劃分屬性的優(yōu)劣B若數(shù)據(jù)中存在缺失值,決策樹會(huì)僅使用無缺失的樣例C若數(shù)據(jù)維度很高,不容易出現(xiàn)大量缺失值D對(duì)決策樹,給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)隨機(jī)進(jìn)入一個(gè)分支第13題填空題(1分)決策樹處理有缺失值樣本時(shí),一個(gè)樣本在各子節(jié)點(diǎn)中的權(quán)重和為____(保留一位小數(shù))正確答案::["1.0"]第14題單選題(1分)關(guān)于剪枝,下列說法錯(cuò)誤的是()A對(duì)于同一棵樹,進(jìn)行預(yù)剪枝和后剪枝得到的決策樹是一樣的B決策樹的剪枝算法可以分為兩類,分別稱為預(yù)剪枝和后剪枝C預(yù)剪枝在樹的訓(xùn)練過程中通過停止分裂對(duì)樹的規(guī)模進(jìn)行限制D后剪枝先構(gòu)造出一棵完整的樹,然后通過某種規(guī)則消除掉部分節(jié)點(diǎn),用葉子節(jié)點(diǎn)替代第15題單選題(1分)通常來說,子節(jié)點(diǎn)的基尼不純度與其父節(jié)點(diǎn)是什么樣的關(guān)系?A通常更低B通常更高C永遠(yuǎn)更高D永遠(yuǎn)更低支持向量機(jī)基本型-作業(yè)第1題單選題(1分)對(duì)于線性可分的二分類任務(wù)樣本集,將訓(xùn)練樣本分開的超平面有很多,支持向量機(jī)試圖尋找滿足什么條件的超平面?A在正負(fù)類樣本“正中間”的B靠近正類樣本的C靠近負(fù)類樣本的D以上說法都不對(duì)第2題單選題(1分)下面關(guān)于支持向量機(jī)的說法錯(cuò)誤的是?A支持向量機(jī)基本型是一個(gè)凸二次規(guī)劃問題B將訓(xùn)練樣本分開的超平面僅由支持向量決定C支持向量機(jī)的核心思想是最大化間隔D以上選項(xiàng)存在說法錯(cuò)誤的第3題填空題(1分)兩個(gè)異類支持向量到超平面的距離之和稱之為____(兩個(gè)字)正確答案::["間隔"]對(duì)偶問題與解的特性-作業(yè)第1題單選題(1分)下面哪一項(xiàng)不是支持向量機(jī)基本型得到對(duì)偶問題的求解步驟A引入拉格朗日乘子得到拉格朗日函數(shù)B對(duì)拉格朗日函數(shù)求偏導(dǎo)并令其為0C回帶變量關(guān)系D梯度下降第2題單選題(1分)下面關(guān)于支持向量機(jī)對(duì)偶問題的說法錯(cuò)誤的是A對(duì)偶問題需要滿足KKT條件B通過對(duì)偶問題推導(dǎo)出的模型表達(dá)式能夠體現(xiàn)解的稀疏性C在推導(dǎo)對(duì)偶問題時(shí),引入的拉格朗日乘子沒有約束條件D對(duì)偶問題的最優(yōu)值是原始問題最優(yōu)值的下界第3題填空題(1分)通過____可以得到支持向量機(jī)的對(duì)偶問題。(7個(gè)字,優(yōu)化算法)正確答案::["拉格朗日乘子法"]求解方法-作業(yè)第1題單選題(1分)下面關(guān)于SMO算法說法正確的是A是一個(gè)迭代更新的算法B先選取KKT條件違背程度最大的變量C當(dāng)變量固定后,原始問題具有閉式解D以上說法都是正確的第2題單選題(1分)在求解支持向量機(jī)截距項(xiàng)的時(shí)候錯(cuò)誤的說法是A通過任意支持向量都能夠求解出截距項(xiàng)B為了提高魯棒性,通常使用所有支持向量求解的平均值C通過任意樣本都能夠求解出截距項(xiàng)D截距項(xiàng)的求解能夠體現(xiàn)支持向量機(jī)學(xué)習(xí)到的超平面僅與少量支持向量有關(guān)第3題填空題(1分)在使用SMO方法優(yōu)化支持向量機(jī)的對(duì)偶問題時(shí),每次需要選擇幾個(gè)變量并固定其他變量不變。____(只需填寫數(shù)字)正確答案::["2"]特征空間映射-作業(yè)第1題單選題(1分)如果不存在一個(gè)能正確劃分兩類樣本的超平面,應(yīng)該怎么辦?A將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分B將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性不可分C將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分D將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性不可分第2題單選題(1分)將樣本映射到高維空間后,支持向量機(jī)問題的表達(dá)式為ABCD第3題填空題(1分)如果原始空間是有限維(屬性數(shù)有限),那么____(一定/不一定)存在一個(gè)高維特征空間使樣本線性可分。正確答案::["一定"]核函數(shù)-作業(yè)第1題單選題(1分)關(guān)于核函數(shù)的說法,正確的是A能繞過顯式考慮特征映射B能夠緩解計(jì)算高維內(nèi)積的困難C能夠直接在原始的特征空間計(jì)算D以上說法都是正確的第2題單選題(1分)若一個(gè)對(duì)稱函數(shù)對(duì)于任意數(shù)據(jù)所對(duì)應(yīng)的核矩陣_,則它就能作為核函數(shù)來使用A正定B半正定C負(fù)定D半負(fù)定第3題填空題(1分)任何一個(gè)核函數(shù),都隱式地定義了一個(gè)____(九個(gè)字)正確答案::["再生核希爾伯特空間"]如何使用SVM-作業(yè)第1題單選題(1分)對(duì)于?-不敏感損失函數(shù),說法正確的是A當(dāng)自變量的絕對(duì)值小于?時(shí),沒有懲罰

B當(dāng)自變量的絕對(duì)值小于?時(shí),懲罰是線性的C當(dāng)自變量的絕對(duì)值大于?時(shí),沒有懲罰D當(dāng)自變量的絕對(duì)值大于?時(shí),懲罰是二次的第2題單選題(1分)下面關(guān)于支持向量回歸,說法錯(cuò)誤的是A間隔帶兩側(cè)的松弛程度可有所不同B支持向量回歸一般要求損失為0當(dāng)且僅當(dāng)模型的輸出和實(shí)際值一樣C支持向量回歸也存在對(duì)偶問題D支持向量回歸模型的解仍然具有稀疏性第3題填空題(1分)對(duì)于2-不敏感損失,當(dāng)自變量取值為10時(shí),損失為____(保留整數(shù))正確答案::["8"]支持向量機(jī)-章節(jié)測(cè)試第1題單選題(1分)下列關(guān)于支持向量機(jī)的用法正確的是?A當(dāng)數(shù)據(jù)是線性可分時(shí),可以考慮支持向量機(jī)的基本型B當(dāng)數(shù)據(jù)是線性不可分時(shí),可以考慮引入核函數(shù)的支持向量機(jī)C若使用引入核函數(shù)的支持向量機(jī),可以通過模型選擇等技術(shù)挑選較為合適的核函數(shù)D以上說法都是正確的第2題單選題(1分)下列哪一項(xiàng)是支持向量機(jī)基本型對(duì)偶問題的KKT條件?ABCD以上條件均不對(duì)第3題單選題(1分)下面關(guān)于支持向量機(jī)的優(yōu)化錯(cuò)誤的是?A可以通過常規(guī)的優(yōu)化計(jì)算包求解B可以通過SMO進(jìn)行高效的求解C在使用SMO時(shí)需要先推導(dǎo)出支持向量機(jī)的對(duì)偶問題DSMO需要迭代的進(jìn)行求解,且每一步迭代的子問題不存在閉式解第4題單選題(1分)考慮兩個(gè)正例樣本(0,0),(1,1)和兩個(gè)負(fù)例樣本(1,0),(0,1),這四個(gè)樣本是線性不可分的,通過下列哪一個(gè)映射函數(shù)可以讓這四個(gè)樣本線性可分?A【注:為示性函數(shù),當(dāng)自變量為真時(shí)取值為1,否則取值為0】BCD以上映射函數(shù)都滿足條件第5題單選題(1分)下面關(guān)于支持向量回歸說法正確的是A當(dāng)樣本距離超平面的距離小于一定程度時(shí),沒有損失B解具有稀疏性C當(dāng)樣本距離超平面的距離大于一定程度時(shí),有損失且損失隨著距離線性增加D以上說法都是正確的第6題填空題(1分)支持向量機(jī)的“間隔”定義為兩個(gè)異類支持向量到超平面的距離之和,支持向量機(jī)的核心思想是____(最大化/最小化)間隔。正確答案::["最大化"]第7題填空題(1分)支持向量機(jī)對(duì)偶問題得到的目標(biāo)函數(shù)最優(yōu)值是原始問題目標(biāo)函數(shù)最優(yōu)值的____(上界/下界)正確答案::["下界"]第8題填空題(1分)考慮正類樣本(-1,0),(0,1),(-1,1)和負(fù)類樣本(1,0),(0,-1),(1,-1),若使用支持向量機(jī)算法,則其支持向量有____個(gè)。正確答案::["4"]第9題填空題(1分)支持向量機(jī)的解具有什么性質(zhì)?____(三個(gè)字)正確答案::["稀疏性"]第10題填空題(1分)在求解支持向量機(jī)對(duì)偶問題時(shí),引入的拉格朗日乘子____(有/沒有)約束條件。正確答案::["有"]第11題填空題(1分)對(duì)于兩個(gè)樣本點(diǎn)(0,0),(1,1),若我們將其投影到與高斯核函數(shù)關(guān)聯(lián)的RKHS中時(shí),則兩個(gè)樣本投影后的點(diǎn)距離為____(保留三位小數(shù))正確答案::["1.315"]第12題填空題(1分)試判斷定義在上的函數(shù)是否為核函數(shù)。____(是/否)正確答案::["是"]第13題填空題(1分)試判斷定義在上的函數(shù)是否為核函數(shù)。____(是/否)正確答案::["否"]第14題單選題(1分)對(duì)于支持向量機(jī)定義的超平面,下列說法錯(cuò)誤的是A通過支持向量機(jī)求解出的劃分超平面是對(duì)訓(xùn)練樣本局部擾動(dòng)的“容忍”性最好的劃分超平面B對(duì)于所有可能的劃分超平面,通過支持向量機(jī)求解出的劃分超平面所產(chǎn)生的分類結(jié)果是較魯棒的,是對(duì)未見示例的泛化能力較強(qiáng)的C支持向量機(jī)的“間隔”為,表示向量的模D可以通過求解對(duì)偶問題的方法來求解支持向量機(jī)的最大間隔劃分超平面第15題單選題(1分)關(guān)于支持向量機(jī)基本型中間隔、支持向量和超平面wx+b=0的說法,下列說法正確的是A對(duì)于線性可分的訓(xùn)練樣本,存在唯一的超平面將訓(xùn)練樣本全部分類正確B對(duì)于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的C支持向量機(jī)訓(xùn)練完成后,最后的解與所有訓(xùn)練樣本都有關(guān)D間隔只與w有關(guān),與b無關(guān)神經(jīng)網(wǎng)絡(luò)模型-作業(yè)第1題單選題(1分)神經(jīng)網(wǎng)絡(luò)模型的兩個(gè)最重要的要素是什么?A網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)B網(wǎng)絡(luò)結(jié)構(gòu)、神經(jīng)元模型C激活函數(shù)、學(xué)習(xí)算法D學(xué)習(xí)算法、神經(jīng)元模型第2題單選題(1分)以下哪個(gè)名稱不是activationfunction的翻譯?A響應(yīng)函數(shù)B擠壓函數(shù)C激活函數(shù)D損失函數(shù)第3題單選題(1分)目前神經(jīng)網(wǎng)絡(luò)最常用的網(wǎng)絡(luò)結(jié)構(gòu)是下列哪個(gè)選項(xiàng)?A單層后向網(wǎng)絡(luò)B多層后向網(wǎng)絡(luò)C單層前饋網(wǎng)絡(luò)D多層前饋網(wǎng)絡(luò)萬(wàn)有逼近能力-作業(yè)第1題單選題(1分)下列哪個(gè)選項(xiàng)是神經(jīng)網(wǎng)絡(luò)萬(wàn)有逼近的正確表述?A僅需一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的可測(cè)函數(shù)B僅需一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能完美表示任意復(fù)雜度的連續(xù)函數(shù)C僅需一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)D僅需一個(gè)包含100000000個(gè)神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)第2題單選題(1分)下列哪個(gè)模型不具備萬(wàn)有逼近性?A線性模型B泰勒展開C傅里葉變換D決策樹第3題填空題(1分)多層前饋網(wǎng)絡(luò)具有的強(qiáng)大表示能力稱為神經(jīng)網(wǎng)絡(luò)的____性(4個(gè)字)。正確答案::["萬(wàn)有逼近"]BP算法推導(dǎo)-作業(yè)第1題單選題(1分)下列關(guān)于BP算法的描述哪個(gè)是錯(cuò)誤的?ABP算法適用于平方損失等許多常用損失函數(shù)BBP算法是迄今最成功、最常用的神經(jīng)網(wǎng)絡(luò)算法CBP算法的正式完整描述最早出現(xiàn)在1974年Werbos的博士學(xué)位論文中DBP算法只能用于回歸任務(wù)第2題單選題(1分)BP算法的每一輪采用的是什么學(xué)習(xí)規(guī)則?A廣義感知機(jī)學(xué)習(xí)規(guī)則B廣義最小二乘學(xué)習(xí)規(guī)則C廣義決策樹學(xué)習(xí)規(guī)則D廣義支持向量機(jī)學(xué)習(xí)規(guī)則第3題填空題(1分)BP算法的全稱為____(7個(gè)字)。正確答案::["誤差逆?zhèn)鞑ニ惴?]神經(jīng)網(wǎng)絡(luò)-章節(jié)測(cè)試第1題單選題(1分)下列關(guān)于BP算法使用小步長(zhǎng)優(yōu)化神經(jīng)網(wǎng)絡(luò)的說法中正確的是哪個(gè)?A一定能學(xué)到最優(yōu)解B可以較好的避免振蕩現(xiàn)象C訓(xùn)練速度快D學(xué)得的解比使用大步長(zhǎng)具有更小的泛化誤差第2題單選題(1分)下列關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述中錯(cuò)誤的是哪個(gè)?A可以使用BP算法優(yōu)化B至少包含一個(gè)隱層C神經(jīng)元之間不存在同層連接D輸入層可以直接連接到輸出層第3題單選題(1分)多層前饋神經(jīng)網(wǎng)絡(luò)可以視為線性函數(shù)與激活函數(shù)的復(fù)合,而單隱層前饋神經(jīng)網(wǎng)絡(luò)中這種復(fù)合的次數(shù)有限,因而單隱層前饋神經(jīng)網(wǎng)絡(luò)的萬(wàn)有逼近性對(duì)激活函數(shù)有一定要求。你認(rèn)為使用下列哪個(gè)激活函數(shù)的單隱層前饋神經(jīng)網(wǎng)絡(luò)能具有萬(wàn)有逼近性質(zhì)?A雙曲正切函數(shù)B常值函數(shù)C線性函數(shù)D三次函數(shù)第4題單選題(1分)下列哪個(gè)選項(xiàng)的步長(zhǎng)調(diào)整方法是給出的四種方案中最好的?A先使用較大的步長(zhǎng),后使用較小的步長(zhǎng)B先使用較小的步長(zhǎng),后使用較大的步長(zhǎng)C一直使用較大的步長(zhǎng)D一直使用較小的步長(zhǎng)第5題單選題(1分)下列關(guān)于萬(wàn)有逼近描述正確的是哪個(gè)選項(xiàng)?A萬(wàn)有逼近是神經(jīng)網(wǎng)絡(luò)獨(dú)有的性質(zhì)B神經(jīng)網(wǎng)絡(luò)的萬(wàn)有逼近性表明可以很容易的找到一個(gè)很好的解C具有萬(wàn)有逼近性是將神經(jīng)網(wǎng)絡(luò)作為機(jī)器學(xué)習(xí)模型的前提D神經(jīng)網(wǎng)絡(luò)的萬(wàn)有逼近性可以指導(dǎo)我們?cè)O(shè)置隱層神經(jīng)元數(shù)第6題填空題(1分)Sigmoid函數(shù)在x=0.5處的導(dǎo)數(shù)值為____(保留3位小數(shù))。正確答案::["0.235"]第7題填空題(1分)具有10個(gè)隱層結(jié)點(diǎn)的單隱層網(wǎng)絡(luò)在處理輸入維度為6維的三分類任務(wù)時(shí)(有3個(gè)輸出層結(jié)點(diǎn)),網(wǎng)絡(luò)中共有____(填寫一個(gè)整數(shù))個(gè)參數(shù)。正確答案::["103"]第8題填空題(1分)實(shí)際應(yīng)用中常使用試錯(cuò)法來設(shè)置隱層神經(jīng)元數(shù),當(dāng)問題較復(fù)雜時(shí),通常使用較____(多/少)隱層神經(jīng)元。正確答案::["多"]第9題填空題(1分)考慮一個(gè)有1個(gè)輸入結(jié)點(diǎn)、1個(gè)隱層結(jié)點(diǎn)、1個(gè)輸出結(jié)點(diǎn)構(gòu)成的神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)輸入到隱層的權(quán)重與隱層到輸出的權(quán)重共享,即該神經(jīng)網(wǎng)絡(luò)的前饋表達(dá)式為,其中為Sigmoid激活函數(shù)??紤]由兩個(gè)樣本組成的數(shù)據(jù)集,神經(jīng)網(wǎng)絡(luò)初始化參數(shù)為,使用平方損失作為損失函數(shù)(總損失為所有樣本的平方和損失,不除以2)。則該神經(jīng)網(wǎng)絡(luò)在初始化下的損失為____(保留3位小數(shù))。正確答案::["0.079"]第10題填空題(1分)上述損失關(guān)于ω的偏導(dǎo)在初始點(diǎn)處的取值為____(保留3位小數(shù))。正確答案::["-0.026"]第11題填空題(1分)上述損失關(guān)于b的偏導(dǎo)在初始點(diǎn)處的取值為____(保留3位有效數(shù)字)。正確答案::["-0.0785"]第12題填空題(1分)當(dāng)步長(zhǎng)取為0.5時(shí),使用BP算法更新神經(jīng)網(wǎng)絡(luò)模型后,模型的損失為____(保留3位小數(shù))。正確答案::["0.075"]第13題填空題(1分)當(dāng)步長(zhǎng)取為20時(shí),使用BP算法更新神經(jīng)網(wǎng)絡(luò)模型后,模型的損失為____(保留3位小數(shù))。對(duì)比上述兩種步長(zhǎng)值,體會(huì)步長(zhǎng)選取與振蕩現(xiàn)象的關(guān)系。正確答案::["0.112"]第14題單選題(1分)用學(xué)習(xí)率α=0.3進(jìn)行15次梯度下降迭代,每次迭代后計(jì)算損失。如果發(fā)現(xiàn)損失值下降緩慢,并且在15次迭代后仍在下降?;诖?,以下哪個(gè)結(jié)論最可信?Aα=0.3是學(xué)習(xí)率的有效選擇B當(dāng)前學(xué)習(xí)率設(shè)置偏小C當(dāng)前學(xué)習(xí)率設(shè)置偏大D無法從當(dāng)前現(xiàn)象對(duì)學(xué)習(xí)率進(jìn)行判斷第15題單選題(1分)下圖是某一激活函數(shù)的圖像,下列哪個(gè)選項(xiàng)可能是該激活函數(shù)的表達(dá)式?ABCD貝葉斯決策論-作業(yè)第1題單選題(1分)下列說法正確的是()A貝葉斯決策論是概率框架下實(shí)施決策的基本理論B表示把樣本x分到第i類面臨的風(fēng)險(xiǎn)C如果概率都能拿到真實(shí)值,那么根據(jù)貝葉斯判定準(zhǔn)則做出的決策是理論上最好的決策D以上都正確第2題單選題(1分)以下哪個(gè)選項(xiàng)是對(duì)貝葉斯最優(yōu)分類器的描述?A對(duì)每個(gè)樣本x選擇能使后驗(yàn)概率最大的類別標(biāo)記B對(duì)每個(gè)樣本x選擇能使后驗(yàn)概率最小的類別標(biāo)記C對(duì)每個(gè)樣本x選擇能使條件風(fēng)險(xiǎn)最大的類別標(biāo)記D對(duì)每個(gè)樣本x選擇能使條件風(fēng)險(xiǎn)最小的類別標(biāo)記第3題填空題(1分)反映了分類器所能達(dá)到的最____(好/壞)性能正確答案::["好"]生成式和判別式模型-作業(yè)第1題單選題(1分)決策樹屬于什么模型?A判別式B生成式C判別式和生成式D以上都不對(duì)第2題單選題(1分)先對(duì)聯(lián)合概率分布建模P(x,c),再由此獲得P(c|x),屬于什么模型?A判別式B生成式C回歸D以上都不是第3題填空題(1分)機(jī)器學(xué)習(xí)估計(jì)后驗(yàn)概率分為兩種基本策略,____式模型和生成式模型正確答案::["判別"]貝葉斯分類器與貝葉斯學(xué)習(xí)-作業(yè)第1題單選題(1分)貝葉斯主義認(rèn)為,分布的參數(shù)是什么?A點(diǎn)B分布C點(diǎn)同時(shí)也是分布D以上都不對(duì)第2題單選題(1分)統(tǒng)計(jì)學(xué)習(xí)屬于什么主義?A頻率主義B貝葉斯主義C兩者都是D兩者都不是第3題填空題(1分)貝葉斯學(xué)習(xí)____(等于/不等于)貝葉斯分類器正確答案::["不等于"]極大似然估計(jì)-作業(yè)第1題單選題(1分)極大似然中,若直接連乘,易造成什么現(xiàn)象?A下溢B上溢C內(nèi)存不足D計(jì)算開銷大第2題單選題(1分)對(duì)數(shù)似然中,一般對(duì)概率取對(duì)數(shù),然后進(jìn)行以下哪個(gè)的操作?A求差B求和C求積D以上都不是第3題填空題(1分)極大似然估計(jì)____(需要/不需要)假設(shè)某種概率分布形式正確答案::["需要"]樸素貝葉斯分類器-作業(yè)第1題單選題(1分)貝葉斯公式中,估計(jì)后驗(yàn)概率P(c|x)的主要困難在于估計(jì)以下哪個(gè)選項(xiàng)?Ap(c)Bp(x|c)C以上兩者都是D以上兩者都不是第2題單選題(1分)樸素貝葉斯分類器中,對(duì)給定類別,模型對(duì)所有屬性間的獨(dú)立性有何種假設(shè)?A部分不獨(dú)立B部分獨(dú)立C相互不獨(dú)立D相互獨(dú)立第3題填空題(1分)對(duì)____(離散/連續(xù))屬性,計(jì)算條件概率可考慮概率密度函數(shù)正確答案::["連續(xù)"]貝葉斯分類器-章節(jié)測(cè)試第1題填空題(1分)貝葉斯最優(yōu)分類器____(達(dá)到了/沒達(dá)到)了貝葉斯風(fēng)險(xiǎn)。正確答案::["達(dá)到了"]第2題單選題(1分)在貝葉斯決策論中,下列說法錯(cuò)誤的是()A反映了機(jī)器學(xué)習(xí)所能產(chǎn)生的模型精度理論上限B貝葉斯最優(yōu)分類器在每個(gè)樣本上選擇那個(gè)能使條件風(fēng)險(xiǎn)R(c|x)最小的類別標(biāo)記C在實(shí)際中,貝葉斯決策論中的是容易事先知道的D貝葉斯最優(yōu)分類器對(duì)應(yīng)的總體風(fēng)險(xiǎn)稱為貝葉斯風(fēng)險(xiǎn)第3題填空題(1分)從貝葉斯決策論的角度看,機(jī)器學(xué)習(xí)要實(shí)現(xiàn)的是基于有限的訓(xùn)練樣本盡可能準(zhǔn)確地估計(jì)出后驗(yàn)概率P(c|x),這句話是____(正確/錯(cuò)誤)正確答案::["正確"]第4題單選題(1分)下列說法錯(cuò)誤的是()A生成式模型可以理解為在嘗試還原數(shù)據(jù)原來的聯(lián)合分布BSVM是判別式模型C判別式模型直接對(duì)后驗(yàn)概率建模D貝葉斯分類器是判別式模型第5題填空題(1分)貝葉斯主義一般做____(點(diǎn)/分布)估計(jì)正確答案::["分布"]第6題單選題(1分)下列說法錯(cuò)誤的是()A貝葉斯學(xué)習(xí)≠貝葉斯分類器BSVM屬于統(tǒng)計(jì)學(xué)習(xí)C用到了貝葉斯公式就是貝葉斯學(xué)習(xí)D貝葉斯分類器是生成式模型第7題單選題(1分)下列說法錯(cuò)誤的是()A極大似然估計(jì)做了獨(dú)立同分布假設(shè)B極大似然估計(jì)的任務(wù)是利用訓(xùn)練集估計(jì)參數(shù)C極大似然估計(jì)需先假設(shè)某種概率分布形式D極大似然估計(jì)屬于貝葉斯主義第8題填空題(1分)極大似然估計(jì)中,對(duì)數(shù)似然的解與原問題____(一致/不一致)正確答案::["一致"]第9題單選題(1分)下列說法錯(cuò)誤的是()A計(jì)算P(x|c)主要障礙之一是組合爆炸B計(jì)算P(x|c)主要障礙之一是樣本稀疏C樸素貝葉斯分類器中,計(jì)算離散屬性的P(xi|c)需要考慮概率密度函數(shù)D樸素貝葉斯分類器中的概率密度函數(shù),可以使用高斯分布第10題填空題(1分)考慮二分類問題,若數(shù)據(jù)集中有100個(gè)樣本,其中負(fù)類樣本有48個(gè)。令c表示正類,則P(c)的估計(jì)值是____(保留2位小數(shù))正確答案::["0.52"]第11題填空題(1分)考慮如圖數(shù)據(jù)集,其中x1與x2為特征,其取值集合分別為x1={?1,0,1},x2={B,M,S},y為類別標(biāo)記,其取值集合為y={0,1}。使用所給訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個(gè)樸素貝葉斯分類器,考慮樣本x={0,B},請(qǐng)計(jì)算P(y=0)P(x|y=0)的值____(保留2位有效數(shù)字)。正確答案::["0.067"]第12題填空題(1分)考慮如圖數(shù)據(jù)集,其中x1與x2為特征,其取值集合分別為x1={?1,0,1},x2={B,M,S},y為類別標(biāo)記,其取值集合為y={0,1}。使用所給訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個(gè)樸素貝葉斯分類器,這個(gè)分類器會(huì)將樣本x={0,B}的標(biāo)記預(yù)測(cè)為____正確答案::["0"]第13題填空題(1分)考慮如圖數(shù)據(jù)集,其中x1與x2為特征,其取值集合分別為x1={?1,0,1},x2={B,M,S},y為類別標(biāo)記,其取值集合為y={0,1}。實(shí)際中估計(jì)概率值時(shí),常用“拉普拉斯修正”,相關(guān)內(nèi)容請(qǐng)閱讀《機(jī)器學(xué)習(xí)》教材第153-154頁(yè)。使用所給訓(xùn)練數(shù)據(jù),使用“拉普拉斯修正”,學(xué)習(xí)一個(gè)樸素貝葉斯分類器,考慮樣本x={0,B},請(qǐng)計(jì)算P(y=1)P(x|y=1)的值____(保留2位有效數(shù)字)。正確答案::["0.041"]第14題單選題(1分)以下哪個(gè)選項(xiàng)是生成式模型?A貝葉斯網(wǎng)B對(duì)數(shù)幾率回歸C決策樹D支持向量機(jī)第15題單選題(1分)最小化分類錯(cuò)誤率的貝葉斯最優(yōu)分類器為:對(duì)每個(gè)樣本選擇能使以下哪個(gè)選項(xiàng)最大的類別標(biāo)記?A后驗(yàn)概率B類條件概率C先驗(yàn)D以上都不是集成學(xué)習(xí)-作業(yè)第1題單選題(1分)下列關(guān)于集成學(xué)習(xí)描述錯(cuò)誤的是哪個(gè)?A集成學(xué)習(xí)只能使用若干個(gè)相同類型的學(xué)習(xí)器B集成學(xué)習(xí)使用多個(gè)學(xué)習(xí)器解決問題C集成學(xué)習(xí)在許多比賽中取得了優(yōu)異的成績(jī)D集成學(xué)習(xí)在英文中是一個(gè)外來詞第2題單選題(1分)下列哪些學(xué)習(xí)器可以作為集成學(xué)習(xí)中的學(xué)習(xí)器?A支持向量機(jī)B決策樹C神經(jīng)網(wǎng)絡(luò)D其他選項(xiàng)都可以第3題填空題(1分)由若干個(gè)相同類型的學(xué)習(xí)器構(gòu)成的集成學(xué)習(xí)被稱為____(同質(zhì)/異質(zhì))集成學(xué)習(xí)。正確答案::["同質(zhì)"]好而不同-作業(yè)第1題單選題(1分)下列哪個(gè)關(guān)于集成學(xué)習(xí)的描述是正確的?A集成學(xué)習(xí)一定能取得比最好的個(gè)體學(xué)習(xí)器更好的性能B集成學(xué)習(xí)的性能可能與個(gè)體學(xué)習(xí)器的平均性能相同C集成學(xué)習(xí)的性能一定不差于最差的個(gè)體學(xué)習(xí)器D集成學(xué)習(xí)的性能在個(gè)體學(xué)習(xí)器平均性能與個(gè)體學(xué)習(xí)器最佳性能之間第2題單選題(1分)下列哪個(gè)選項(xiàng)不是集成學(xué)習(xí)在分類任務(wù)中取得好性能的要求?A個(gè)體學(xué)習(xí)器犯錯(cuò)的樣本較為分散B個(gè)體學(xué)習(xí)器具有較好的性能C存在一個(gè)完美的個(gè)體學(xué)習(xí)器D個(gè)體學(xué)習(xí)器分對(duì)的樣本不完全一致第3題填空題(1分)誤差-分歧分解表明集成學(xué)習(xí)中____(3個(gè)字)是關(guān)鍵。正確答案::["多樣性"]兩類常用集成學(xué)習(xí)方法-作業(yè)第1題單選題(1分)下列哪個(gè)算法不是序列化集成學(xué)習(xí)方法?AXGBoostBRandomForestCAdaBoostDLPBoost第2題單選題(1分)下列哪個(gè)算法不是并行化集成學(xué)習(xí)方法?AGradientBoostBBaggingCRandomForestDRandomSubspace第3題填空題(1分)集成學(xué)習(xí)中,后一個(gè)個(gè)體依賴于前一個(gè)個(gè)體的方法稱為____(3個(gè)字)方法。正確答案::["序列化"]Boosting-作業(yè)第1題單選題(1分)下列關(guān)于Boosting算法的說法中錯(cuò)誤的是哪個(gè)?ABoosting算法適用于分類、回歸、排序等機(jī)器學(xué)習(xí)問題B后一個(gè)基學(xué)習(xí)器更關(guān)注前一個(gè)基學(xué)習(xí)器學(xué)錯(cuò)的樣本CBoosting算法的輸出是所有基學(xué)習(xí)器的加權(quán)求和D不同基學(xué)習(xí)器使用的樣本權(quán)重是相同的第2題單選題(1分)下列關(guān)于Boosting算法中樣本權(quán)重調(diào)整的說法中錯(cuò)誤的是哪個(gè)?A所有樣本的權(quán)重和保持不變B前一個(gè)基學(xué)習(xí)器分錯(cuò)的樣本會(huì)獲得更大的權(quán)重C只要權(quán)重調(diào)整的方向正確,Boosting算法的性能就可以獲得理論保證D決策樹可以直接處理帶權(quán)重的樣本第3題填空題(1分)Boosting是一種____(同質(zhì)/異質(zhì))集成學(xué)習(xí)方法。正確答案::["同質(zhì)"]Bagging-作業(yè)第1題單選題(1分)下列關(guān)于Bagging算法中采樣的描述哪個(gè)是錯(cuò)誤的?A可以使用Bootstrap采樣B每個(gè)樣本在

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論