機(jī)器學(xué)習(xí) 試題(含答案解析)_第1頁
機(jī)器學(xué)習(xí) 試題(含答案解析)_第2頁
機(jī)器學(xué)習(xí) 試題(含答案解析)_第3頁
機(jī)器學(xué)習(xí) 試題(含答案解析)_第4頁
機(jī)器學(xué)習(xí) 試題(含答案解析)_第5頁
已閱讀5頁,還剩22頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)試題(含答案解析)一、單選題(共60題,每題1分,共60分)1.決策樹學(xué)習(xí)的關(guān)鍵是A、初始結(jié)點(diǎn)選擇B、剪枝C、選擇最優(yōu)劃分屬性D、分枝正確答案:C答案解析:決策樹學(xué)習(xí)的關(guān)鍵在于選擇最優(yōu)劃分屬性。最優(yōu)劃分屬性能夠使樣本集合根據(jù)該屬性進(jìn)行劃分后,子樣本集合的純度得到最大程度的提高,從而更有效地對(duì)數(shù)據(jù)進(jìn)行分類或回歸等操作。初始結(jié)點(diǎn)選擇只是決策樹構(gòu)建的起始點(diǎn);剪枝是為了防止過擬合等情況,對(duì)已構(gòu)建好的決策樹進(jìn)行優(yōu)化;分枝是基于劃分屬性對(duì)樣本進(jìn)行拆分的操作,這些都依賴于選擇最優(yōu)劃分屬性這一關(guān)鍵步驟。2.下列不屬于集成學(xué)習(xí)方法是A、baggingB、connectingC、boostingD、stacking正確答案:B答案解析:集成學(xué)習(xí)方法主要包括bagging、boosting、stacking等。bagging通過自助采樣法從原始數(shù)據(jù)集有放回地采樣構(gòu)建多個(gè)基學(xué)習(xí)器,再將這些基學(xué)習(xí)器的預(yù)測(cè)結(jié)果進(jìn)行結(jié)合;boosting是迭代地訓(xùn)練基學(xué)習(xí)器,每一輪根據(jù)上一輪基學(xué)習(xí)器的表現(xiàn)調(diào)整樣本權(quán)重;stacking是先訓(xùn)練多個(gè)基學(xué)習(xí)器,然后將基學(xué)習(xí)器的輸出作為新的特征,再訓(xùn)練一個(gè)元學(xué)習(xí)器來組合這些特征進(jìn)行預(yù)測(cè)。而connecting不屬于集成學(xué)習(xí)的典型方法。3.若某學(xué)習(xí)器預(yù)測(cè)的是離散值,則此類學(xué)習(xí)任務(wù)稱為()A、回歸B、分類C、強(qiáng)化學(xué)習(xí)D、聚類正確答案:B答案解析:分類任務(wù)是預(yù)測(cè)離散值,聚類是將數(shù)據(jù)分成不同的簇,回歸是預(yù)測(cè)連續(xù)值,強(qiáng)化學(xué)習(xí)是智能體在環(huán)境中通過交互學(xué)習(xí)最優(yōu)策略,這里預(yù)測(cè)離散值的學(xué)習(xí)任務(wù)是分類。4.以下關(guān)于Sigmoid的特點(diǎn)說法錯(cuò)誤的是()。A、Sigmoid函數(shù)計(jì)算量小B、趨向無窮的地方,函數(shù)變化很小,容易出現(xiàn)梯度消失的現(xiàn)象C、可以將函數(shù)值的范圍壓縮到[0,1]D、函數(shù)處處連續(xù)正確答案:A答案解析:Sigmoid函數(shù)的計(jì)算量較大,它涉及到指數(shù)運(yùn)算。B選項(xiàng),在趨向無窮的地方,函數(shù)值趨近于0或1,變化很小,容易出現(xiàn)梯度消失現(xiàn)象。C選項(xiàng),Sigmoid函數(shù)可以將任意實(shí)數(shù)映射到[0,1]區(qū)間。D選項(xiàng),Sigmoid函數(shù)是處處連續(xù)可導(dǎo)的。所以A選項(xiàng)說法錯(cuò)誤。5.以下哪個(gè)不是原型聚類算法()A、K均值算法B、學(xué)習(xí)向量量化LVQC、高斯混合聚類D、PCA算法正確答案:D答案解析:PCA算法是一種降維算法,不屬于原型聚類算法。K均值算法、學(xué)習(xí)向量量化LVQ、高斯混合聚類都屬于原型聚類算法。原型聚類算法是基于原型的聚類方法,通過定義原型來對(duì)數(shù)據(jù)進(jìn)行聚類。K均值算法通過迭代尋找數(shù)據(jù)點(diǎn)的聚類中心作為原型;學(xué)習(xí)向量量化LVQ通過訓(xùn)練來確定原型向量;高斯混合聚類假設(shè)數(shù)據(jù)由多個(gè)高斯分布混合而成,以這些高斯分布的參數(shù)作為原型。而PCA算法主要用于數(shù)據(jù)降維,將高維數(shù)據(jù)映射到低維空間,不是用于聚類的。6.一般來說,下列哪種方法常用來預(yù)測(cè)連續(xù)獨(dú)立變量?A、線性回歸B、邏輯回顧C(jī)、線性回歸和邏輯回歸都行D、以上說法都不對(duì)正確答案:A答案解析:線性回歸是用于預(yù)測(cè)連續(xù)因變量的常用方法。邏輯回歸主要用于預(yù)測(cè)二分類的因變量,不適合預(yù)測(cè)連續(xù)獨(dú)立變量。7.下列關(guān)于Boosting和Bagging的描述正確的是:A、Boosting主要關(guān)注降低方差B、Boosting的代表算法有隨機(jī)森林C、Bagging基于自助采樣法D、Bagging主要關(guān)注降低偏差正確答案:C答案解析:Bagging基于自助采樣法,主要關(guān)注降低方差;Boosting主要關(guān)注降低偏差,其代表算法有Adaboost等,隨機(jī)森林是Bagging的代表算法。所以A選項(xiàng)中說Boosting主要關(guān)注降低方差錯(cuò)誤;B選項(xiàng)中說Boosting的代表算法有隨機(jī)森林錯(cuò)誤;D選項(xiàng)中說Bagging主要關(guān)注降低偏差錯(cuò)誤。故正確答案是C。8.谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時(shí)同一組新聞事件往往隸屬同一主題的,所以顯示到一起。A、分類B、聚類C、關(guān)聯(lián)規(guī)則D、回歸正確答案:B答案解析:聚類是將物理或抽象對(duì)象的集合分組為由類似對(duì)象組成的多個(gè)類的分析過程。谷歌新聞運(yùn)用聚類方法把收集到的大量新聞分組,組成若干類有關(guān)聯(lián)的新聞,使得同一組新聞事件隸屬同一主題顯示到一起。關(guān)聯(lián)規(guī)則主要是挖掘數(shù)據(jù)中項(xiàng)集之間的關(guān)聯(lián)關(guān)系;回歸是用于預(yù)測(cè)數(shù)值型數(shù)據(jù);分類是將數(shù)據(jù)劃分到不同類別。所以這里用的是聚類方法。9.將數(shù)據(jù)集D進(jìn)行適當(dāng)處理,產(chǎn)生出訓(xùn)練集S和測(cè)試集T,有哪些常見的做法:A、留出法B、交叉驗(yàn)證法C、自助法D、以上都是正確答案:D答案解析:留出法是直接將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集;交叉驗(yàn)證法是將數(shù)據(jù)集進(jìn)行多次劃分和訓(xùn)練測(cè)試;自助法是通過有放回抽樣來產(chǎn)生訓(xùn)練集等,這三種都是將數(shù)據(jù)集D進(jìn)行適當(dāng)處理產(chǎn)生訓(xùn)練集S和測(cè)試集T的常見做法。10.如果一個(gè)SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?A、增大懲罰參數(shù)C的值B、減小懲罰參數(shù)C的值C、減小核系數(shù)(gamma參數(shù))D、都不正確正確答案:A答案解析:當(dāng)SVM模型出現(xiàn)欠擬合時(shí),增大懲罰參數(shù)C的值可以讓模型對(duì)誤分類的懲罰增加,從而使模型更加復(fù)雜,能夠更好地?cái)M合數(shù)據(jù),解決欠擬合問題。減小懲罰參數(shù)C的值會(huì)使模型更加寬松,更容易欠擬合。減小核系數(shù)(gamma參數(shù))會(huì)使模型的復(fù)雜度降低,也可能導(dǎo)致欠擬合情況加劇。所以能解決欠擬合問題的是增大懲罰參數(shù)C的值,答案選A。11.點(diǎn)擊率的預(yù)測(cè)是一個(gè)數(shù)據(jù)比例不平衡問題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99%。我們可以得出結(jié)論是:A、模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索B、模型不好,我們應(yīng)建一個(gè)更好的模型C、無法評(píng)價(jià)模型D、以上都不正確正確答案:B12.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來保證得到的模型是線性可分離的?A、C=0B、C=1C、C正無窮大D、C負(fù)無窮大正確答案:C答案解析:在原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)中,當(dāng)C趨于正無窮大時(shí),Soft-SVM就近似為硬間隔SVM,此時(shí)得到的模型是線性可分離的。C較小時(shí),模型允許一些樣本被錯(cuò)分,以換取更平滑的決策邊界;而當(dāng)C趨于正無窮大時(shí),模型會(huì)盡量嚴(yán)格地將樣本正確分類,從而保證模型是線性可分離的。13.下列中為判別模型的是()A、高斯混合模型B、隱含馬爾科夫模型C、GAN模型D、邏輯回歸模型正確答案:D答案解析:邏輯回歸模型是判別模型,它直接對(duì)數(shù)據(jù)進(jìn)行建模,學(xué)習(xí)輸入到輸出的映射關(guān)系,用于預(yù)測(cè)類別或回歸數(shù)值。而高斯混合模型、隱含馬爾科夫模型屬于生成模型,GAN模型是生成對(duì)抗網(wǎng)絡(luò),主要用于生成數(shù)據(jù)。14.下列有關(guān)支持向量機(jī)說法不正確的是:A、得到的是局部最優(yōu)解B、采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理C、具有很好的推廣能力D、是凸二次優(yōu)化問題正確答案:A答案解析:支持向量機(jī)采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理,是凸二次優(yōu)化問題,能得到全局最優(yōu)解,且具有很好的推廣能力,并非得到局部最優(yōu)解。15.混淆矩陣的真負(fù)率公式是為A、TP/(TP+FN)B、FP/(FP+TN)C、FN/(TP+FN)D、TN/(TN+FP)正確答案:D答案解析:真負(fù)率(TrueNegativeRate,TNR)也被稱為特異度(Specificity),其計(jì)算公式為TNR=TN/(TN+FP),表示實(shí)際為負(fù)例且被正確預(yù)測(cè)為負(fù)例的比例。所以選項(xiàng)D正確。16.下列激活函數(shù)中,能夠?qū)崿F(xiàn)將特征限制到區(qū)間[-1,1]的是哪一個(gè)A、TanhB、LogisticC、ReLUD、Sigmoid正確答案:A答案解析:Tanh函數(shù)的值域是[-1,1],能夠?qū)⑻卣飨拗频竭@個(gè)區(qū)間。Logistic函數(shù)的值域是(0,1);ReLU函數(shù)的值域是[0,+∞);Sigmoid函數(shù)的值域也是(0,1)。17.四個(gè)點(diǎn)坐標(biāo)為(1,1),(1,0),(-1,-1),(-1,0),用SVM分類的決策邊界是A、y=xB、x=0C、y=-xD、y=0正確答案:B答案解析:對(duì)于給定的四個(gè)點(diǎn)(1,1),(1,0),(-1,-1),(-1,0),可以發(fā)現(xiàn)這些點(diǎn)關(guān)于y軸對(duì)稱。支持向量機(jī)(SVM)尋找的決策邊界是能夠最大程度區(qū)分兩類點(diǎn)的超平面。在這里,決策邊界就是x=0這條直線,它將點(diǎn)分為左右兩部分,左側(cè)為(-1,-1),(-1,0),右側(cè)為(1,1),(1,0)。18.以下哪個(gè)不是常見的決策樹算法A、ID3B、C4.5C、CARTD、DBSCAN正確答案:D答案解析:DBSCAN是一種基于密度的空間聚類算法,不是決策樹算法。而ID3、C4.5、CART都是常見的決策樹算法。19.以下有關(guān)隨機(jī)森林算法的說法錯(cuò)誤的是:A、隨機(jī)森林算法對(duì)異常值和缺失值不敏感B、隨機(jī)森林算法不需要考慮過擬合問題C、決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機(jī)森林模型分類效果越好D、隨機(jī)森林算法的分類精度不會(huì)隨著決策樹數(shù)量的增加而提高正確答案:B20.下列有關(guān)SVM和LR說法不正確的是()A、SVM是分類模型,LR是回歸模型B、SVM和LR都是分類模型C、SVM是判別式模型D、LR判別式模型正確答案:A答案解析:SVM和LR都是分類模型,不是回歸模型,所以A選項(xiàng)說法錯(cuò)誤。SVM和LR都屬于判別式模型,通過尋找一個(gè)判別函數(shù)來對(duì)樣本進(jìn)行分類,所以B、C、D選項(xiàng)說法正確。21.下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴關(guān)系A(chǔ)、V型結(jié)構(gòu)B、同父結(jié)構(gòu)C、順序結(jié)構(gòu)D、選擇結(jié)構(gòu)正確答案:D22.關(guān)于logistic回歸和SVM不正確的是()A、Logistic回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率B、Logistic回歸可以用于預(yù)測(cè)事件發(fā)生概率的大小C、SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化D、SVM可以有效避免模型過擬合正確答案:A答案解析:Logistic回歸目標(biāo)函數(shù)是最大化對(duì)數(shù)似然函數(shù),而不是最小化后驗(yàn)概率。B選項(xiàng),Logistic回歸確實(shí)可以用于預(yù)測(cè)事件發(fā)生概率的大小。C選項(xiàng),SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化。D選項(xiàng),SVM通過核函數(shù)等方式在一定程度上可以有效避免模型過擬合。23.決策樹中不包含以下哪種結(jié)點(diǎn)A、葉節(jié)點(diǎn)B、內(nèi)部結(jié)點(diǎn)C、外部結(jié)點(diǎn)D、根節(jié)點(diǎn)正確答案:C答案解析:決策樹包含根節(jié)點(diǎn)、內(nèi)部結(jié)點(diǎn)和葉節(jié)點(diǎn),不包含外部結(jié)點(diǎn)。根節(jié)點(diǎn)是決策樹的起始點(diǎn),內(nèi)部結(jié)點(diǎn)用于進(jìn)行屬性測(cè)試并根據(jù)測(cè)試結(jié)果劃分?jǐn)?shù)據(jù),葉節(jié)點(diǎn)代表分類結(jié)果或最終決策。24.線性回歸能完成的任務(wù)是A、預(yù)測(cè)連續(xù)值B、聚類C、分類D、預(yù)測(cè)離散值正確答案:A答案解析:線性回歸的主要任務(wù)是對(duì)連續(xù)型變量進(jìn)行預(yù)測(cè),通過建立自變量和因變量之間的線性關(guān)系模型,來預(yù)測(cè)因變量的連續(xù)值。而預(yù)測(cè)離散值通常是分類算法的任務(wù),分類是將數(shù)據(jù)劃分到不同的類別中;聚類是將數(shù)據(jù)分成不同的簇,使同一簇內(nèi)的數(shù)據(jù)具有較高的相似度,不同簇之間的數(shù)據(jù)具有較大的差異。所以線性回歸能完成的任務(wù)是預(yù)測(cè)連續(xù)值。25.關(guān)于SVM泛化誤差描述正確的是A、超平面與支持向量之間距離B、超平面與支持向量之間距離C、SVM的誤差閾值正確答案:A26.“學(xué)習(xí)向量量化”與一般聚類算法不同的是()A、數(shù)據(jù)樣本帶有類別標(biāo)記B、簇的種類不同C、結(jié)構(gòu)不同D、向量程度不同正確答案:A27.假設(shè)現(xiàn)在只有兩個(gè)類,這種情況下SVM需要訓(xùn)練幾次?A、2B、1C、3D、4正確答案:B28.關(guān)于BP算法特點(diǎn)描述錯(cuò)誤的是()A、輸入信號(hào)順著輸入層、隱層、輸出層依次傳播B、計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化C、預(yù)測(cè)誤差需逆向傳播,順序是輸出層、隱層、輸入層D、各個(gè)神經(jīng)元根據(jù)預(yù)測(cè)誤差對(duì)權(quán)值進(jìn)行調(diào)整正確答案:B答案解析:BP算法在計(jì)算之前通常需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化處理。歸一化可以加快收斂速度,提高模型的穩(wěn)定性和泛化能力。選項(xiàng)A描述的信號(hào)傳播方向是正確的;選項(xiàng)C的誤差逆向傳播順序也是正確的;選項(xiàng)D神經(jīng)元根據(jù)預(yù)測(cè)誤差調(diào)整權(quán)值也是BP算法的特點(diǎn)之一。29.下列關(guān)于過擬合的說法錯(cuò)誤的是A、過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但是在交叉驗(yàn)證集和測(cè)試集上表現(xiàn)一般B、解決過擬合可以采用Dropout方法C、解決過擬合可以采用參數(shù)正則化方法D、數(shù)據(jù)集擴(kuò)增不能用來解決過擬合問題正確答案:D答案解析:過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但在交叉驗(yàn)證集和測(cè)試集上表現(xiàn)較差。Dropout方法和參數(shù)正則化方法都可以有效緩解過擬合。數(shù)據(jù)集擴(kuò)增通過增加數(shù)據(jù)的多樣性,讓模型學(xué)習(xí)到更豐富的特征,有助于減少過擬合,所以選項(xiàng)D中說數(shù)據(jù)集擴(kuò)增不能用來解決過擬合問題是錯(cuò)誤的。30.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,正確的是()?A、增加網(wǎng)絡(luò)層數(shù),一定能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),一定能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率D、增加網(wǎng)絡(luò)層數(shù),一定增加測(cè)試集錯(cuò)誤率正確答案:C答案解析:增加網(wǎng)絡(luò)層數(shù)可能會(huì)導(dǎo)致過擬合等問題,從而使得測(cè)試集錯(cuò)誤率增加,但不是一定增加。增加網(wǎng)絡(luò)層數(shù)并不一定能減小訓(xùn)練集錯(cuò)誤率,減小網(wǎng)絡(luò)層數(shù)也不一定能減小測(cè)試集錯(cuò)誤率,所以A、B、D選項(xiàng)錯(cuò)誤。31.在SVM中,margin的含義是()A、差額B、損失誤差C、幅度D、間隔正確答案:D答案解析:在SVM中,margin指的是間隔,它是分類超平面與離超平面最近的樣本點(diǎn)之間的距離。較大的間隔意味著模型具有更好的泛化能力。32.下列兩個(gè)變量之間的關(guān)系中,那一個(gè)是線性關(guān)系A(chǔ)、學(xué)生的性別與他(她)的數(shù)學(xué)成績(jī)B、人的工作環(huán)境與他的身體健康狀況C、兒子的身高與父親的身高D、正方形的邊長(zhǎng)與周長(zhǎng)正確答案:D答案解析:線性關(guān)系是指兩個(gè)變量之間的關(guān)系可以用一條直線來近似表示。選項(xiàng)A中,學(xué)生的性別與數(shù)學(xué)成績(jī)之間沒有直接的線性關(guān)系;選項(xiàng)B中,人的工作環(huán)境與身體健康狀況之間的關(guān)系較為復(fù)雜,不是簡(jiǎn)單的線性關(guān)系;選項(xiàng)C中,兒子的身高與父親的身高之間存在一定的遺傳關(guān)系,但不是嚴(yán)格的線性關(guān)系;選項(xiàng)D中,正方形的周長(zhǎng)等于4倍邊長(zhǎng),即周長(zhǎng)與邊長(zhǎng)之間是線性關(guān)系,其表達(dá)式為周長(zhǎng)=4×邊長(zhǎng)。33.關(guān)于BP算法反向傳播的說法正確的是()。A、BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌tB、BP算法更新量與步長(zhǎng)關(guān)系不大C、BP算法反向傳播的預(yù)測(cè)誤差值一般由真實(shí)標(biāo)簽值和預(yù)測(cè)標(biāo)簽值的差計(jì)算得來D、BP算法反向傳播的目的是只對(duì)權(quán)值進(jìn)行更新正確答案:A34.關(guān)于BP算法信號(hào)前向傳播的說法正確的是()。A、BP算法在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)B、BP算法信號(hào)前向傳播的計(jì)算量跟輸入層神經(jīng)元數(shù)目無關(guān)C、BP算法只有在隱層才有激活函數(shù)D、BP算法信號(hào)傳播的順序是輸出層、隱層、輸入層。正確答案:A答案解析:BP算法在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)。對(duì)于每個(gè)神經(jīng)元,其輸入會(huì)通過激活函數(shù)得到輸出,在整個(gè)前向傳播過程中,無論是輸入層到隱層,還是隱層到輸出層,都需要經(jīng)過激活函數(shù)處理,所以A正確。BP算法信號(hào)前向傳播的計(jì)算量與輸入層神經(jīng)元數(shù)目有關(guān),輸入層神經(jīng)元數(shù)目越多,計(jì)算量越大,B錯(cuò)誤。BP算法在輸入層、隱層、輸出層都可能有激活函數(shù),C錯(cuò)誤。BP算法信號(hào)傳播的順序是輸入層、隱層、輸出層,D錯(cuò)誤。35.()是并行式集成學(xué)習(xí)方法最著名的代表A、隨機(jī)森林B、BoostingC、BaggingD、AdaBoost正確答案:C答案解析:并行式集成學(xué)習(xí)方法最著名的代表是Bagging,它通過有放回采樣來構(gòu)建多個(gè)基學(xué)習(xí)器,然后將這些基學(xué)習(xí)器的結(jié)果進(jìn)行組合。隨機(jī)森林是Bagging的一個(gè)典型應(yīng)用;Boosting是串行式集成學(xué)習(xí)方法;AdaBoost是Boosting的一種具體實(shí)現(xiàn)。36.關(guān)于決策樹,以下哪種說法是正確的A、可讀性強(qiáng)B、只用于分類問題C、只用于回歸問題D、是無監(jiān)督學(xué)習(xí)正確答案:A答案解析:決策樹具有可讀性強(qiáng)的特點(diǎn)。決策樹既可以用于分類問題,也可以用于回歸問題,它是一種有監(jiān)督學(xué)習(xí)算法,不是無監(jiān)督學(xué)習(xí)。所以B、C、D選項(xiàng)錯(cuò)誤,A選項(xiàng)正確。37.?給定一定數(shù)量的紅細(xì)胞、白細(xì)胞圖像,但是并不知道圖像與標(biāo)簽的對(duì)應(yīng)關(guān)系,設(shè)計(jì)一個(gè)紅白細(xì)胞分類器,這屬于()問題A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、以上都可以正確答案:B答案解析:這屬于無監(jiān)督學(xué)習(xí)問題。因?yàn)榻o定的紅細(xì)胞、白細(xì)胞圖像不知道圖像與標(biāo)簽的對(duì)應(yīng)關(guān)系,無法進(jìn)行有監(jiān)督學(xué)習(xí)中利用已知標(biāo)簽數(shù)據(jù)來訓(xùn)練模型的操作。而無監(jiān)督學(xué)習(xí)是在沒有標(biāo)簽的情況下,對(duì)數(shù)據(jù)進(jìn)行聚類、降維等操作,這里可以嘗試對(duì)紅白細(xì)胞圖像進(jìn)行聚類等無監(jiān)督學(xué)習(xí)方法來實(shí)現(xiàn)分類,所以屬于無監(jiān)督學(xué)習(xí)。38.關(guān)于EM算法正確的是A、EM算法包括兩步:E算法和M算法B、EM算法一定能收斂到全局最大值點(diǎn)C、英文全稱是Expectation-MinimizationD、以上都不正確正確答案:A答案解析:EM算法確實(shí)包括E步(期望步)和M步(極大化步),所以選項(xiàng)A正確;EM算法不一定能收斂到全局最大值點(diǎn),有可能收斂到局部最大值點(diǎn),B錯(cuò)誤;EM算法英文全稱是ExpectationMaximization,C選項(xiàng)表述不準(zhǔn)確;所以以上選項(xiàng)中只有A正確,答案選A。39.對(duì)主成分分析PCA方法描述正確的是:A、投影矩陣是正交矩陣B、進(jìn)行非正交投影C、PCA不需要進(jìn)行樣本去均值D、投影到特征值最小的方向正確答案:A答案解析:主成分分析(PCA)中投影矩陣是正交矩陣,它通過正交變換將高維數(shù)據(jù)投影到低維空間,使得投影后的數(shù)據(jù)方差最大化,是進(jìn)行正交投影,B錯(cuò)誤;PCA需要進(jìn)行樣本去均值處理,C錯(cuò)誤;是投影到特征值最大的方向,D錯(cuò)誤。PCA的核心思想是通過線性變換將原始數(shù)據(jù)轉(zhuǎn)換為一組新的變量,即主成分,這些主成分是原始變量的線性組合,且彼此之間互不相關(guān)。在這個(gè)過程中,通過構(gòu)建正交矩陣來實(shí)現(xiàn)數(shù)據(jù)的投影,以達(dá)到降維且保留數(shù)據(jù)主要特征的目的。40.樸素貝葉斯分類器的特征不包括A、數(shù)據(jù)的缺失值影響不大B、孤立的噪聲對(duì)該分類器的影響不大C、要求數(shù)據(jù)的屬性是相互獨(dú)立的D、條件獨(dú)立的假設(shè)可能不成立正確答案:C41.極大似然估計(jì)中參數(shù)是()A、未知的隨機(jī)變量B、已知的隨機(jī)變量C、確定且已知的量D、確定且未知的量正確答案:D答案解析:極大似然估計(jì)是利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這些樣本結(jié)果出現(xiàn)的模型參數(shù)值。所以參數(shù)是確定但未知的量,需要通過樣本數(shù)據(jù)來進(jìn)行估計(jì)。42.?哪些機(jī)器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?A、無監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、以上全部正確答案:C答案解析:強(qiáng)化學(xué)習(xí)是一類通過與環(huán)境進(jìn)行交互并根據(jù)環(huán)境反饋的獎(jiǎng)勵(lì)信號(hào)來學(xué)習(xí)最優(yōu)行為策略的機(jī)器學(xué)習(xí)方法。在強(qiáng)化學(xué)習(xí)中,智能體(agent)在環(huán)境中執(zhí)行一系列動(dòng)作,并根據(jù)這些動(dòng)作獲得的獎(jiǎng)勵(lì)和反饋來調(diào)整自己的行為策略,以最大化長(zhǎng)期累積獎(jiǎng)勵(lì)。無監(jiān)督學(xué)習(xí)主要用于發(fā)現(xiàn)數(shù)據(jù)中的模式和結(jié)構(gòu),不依賴于明確的獎(jiǎng)勵(lì)反饋;監(jiān)督學(xué)習(xí)是基于標(biāo)注數(shù)據(jù)進(jìn)行學(xué)習(xí)以預(yù)測(cè)輸出,也不是根據(jù)獎(jiǎng)勵(lì)和反饋來做決策。所以答案是強(qiáng)化學(xué)習(xí),選C。43.下列方法中,屬于無監(jiān)督學(xué)習(xí)的為()A、線性回歸B、K均值C、神經(jīng)網(wǎng)絡(luò)D、決策樹正確答案:B答案解析:無監(jiān)督學(xué)習(xí)是指在沒有標(biāo)簽的數(shù)據(jù)上進(jìn)行學(xué)習(xí),旨在發(fā)現(xiàn)數(shù)據(jù)中的模式和結(jié)構(gòu)。K均值算法是一種典型的無監(jiān)督學(xué)習(xí)算法,它將數(shù)據(jù)點(diǎn)劃分為不同的簇。線性回歸、神經(jīng)網(wǎng)絡(luò)、決策樹都屬于有監(jiān)督學(xué)習(xí)算法,它們需要有標(biāo)簽的數(shù)據(jù)來進(jìn)行模型訓(xùn)練。44.?一個(gè)包含n類的多分類問題,若采用一對(duì)剩余的方法,需要拆分成多少次?A、n+1B、1C、nD、n-1正確答案:D45.以下關(guān)于降維說法不正確的是?A、降維是將訓(xùn)練樣本從高維空間轉(zhuǎn)換到低維空間B、降維有助于數(shù)據(jù)可視化C、通過降維可以更有效地發(fā)掘有意義的數(shù)據(jù)結(jié)構(gòu)D、降維不會(huì)對(duì)數(shù)據(jù)產(chǎn)生損傷正確答案:D答案解析:降維過程中可能會(huì)損失一些信息,對(duì)數(shù)據(jù)產(chǎn)生一定損傷。選項(xiàng)A,降維的目的就是將高維空間的訓(xùn)練樣本轉(zhuǎn)換到低維空間;選項(xiàng)B,降維后數(shù)據(jù)維度降低,更利于進(jìn)行數(shù)據(jù)可視化;選項(xiàng)C,降維能去除一些噪聲和冗余信息,從而更有效地發(fā)掘有意義的數(shù)據(jù)結(jié)構(gòu)。46.?當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。A、對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重B、對(duì)數(shù)據(jù)分布較多的類別欠采樣C、對(duì)數(shù)據(jù)分布較少的類別過采樣D、對(duì)數(shù)據(jù)分布較少的類別賦予更大的權(quán)重正確答案:A答案解析:當(dāng)數(shù)據(jù)分布不平衡時(shí),通常對(duì)數(shù)據(jù)分布較多的類別進(jìn)行欠采樣,對(duì)數(shù)據(jù)分布較少的類別進(jìn)行過采樣或賦予更大的權(quán)重,而不是對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重,所以答案是A。47.關(guān)于BP算法優(yōu)缺點(diǎn)的說法錯(cuò)誤的是()。A、BP算法不能用于處理非線性分類問題B、BP算法容易陷入局部最小值C、BP算法訓(xùn)練時(shí)間較長(zhǎng)D、BP算法訓(xùn)練時(shí)候可能由于權(quán)值調(diào)整過大使得激活函數(shù)達(dá)到飽和正確答案:A答案解析:BP算法是一種強(qiáng)大的神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法,它能夠有效處理非線性分類問題,具有很強(qiáng)的非線性映射能力。而選項(xiàng)A中說BP算法不能用于處理非線性分類問題是錯(cuò)誤的。BP算法容易陷入局部最小值,訓(xùn)練時(shí)間較長(zhǎng),訓(xùn)練時(shí)可能由于權(quán)值調(diào)整過大使得激活函數(shù)達(dá)到飽和,這些都是BP算法常見的缺點(diǎn),所以選項(xiàng)B、C、D說法正確。48.EM算法是()學(xué)習(xí)算法A、有監(jiān)督B、無監(jiān)督C、半監(jiān)督D、都不是正確答案:B答案解析:EM算法是一種無監(jiān)督學(xué)習(xí)算法,用于含有隱變量的概率模型參數(shù)的極大似然估計(jì)或極大后驗(yàn)概率估計(jì)。它通過迭代的方式,不斷地更新模型參數(shù),使得觀測(cè)數(shù)據(jù)的似然函數(shù)或后驗(yàn)概率函數(shù)最大化。在無監(jiān)督學(xué)習(xí)中,數(shù)據(jù)沒有預(yù)先定義的標(biāo)簽,算法的目標(biāo)是發(fā)現(xiàn)數(shù)據(jù)中的潛在模式和結(jié)構(gòu)。EM算法在許多領(lǐng)域都有廣泛的應(yīng)用,如聚類分析、混合模型估計(jì)、隱馬爾可夫模型等。49.假設(shè)你有以下數(shù)據(jù):(0,2)(2,2)(3,1)輸入和輸出都只有一個(gè)變量。使用線性回歸模型(y=wx+b)來擬合數(shù)據(jù)。那么使用留一法(Leave-OneOut)交叉驗(yàn)證得到的均方誤差是多少?A、49/27B、10/32C、39/27D、55/27正確答案:A50.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準(zhǔn)確率是A、七分之四B、三分之二C、二分之一D、四分之一正確答案:C51.若svm出現(xiàn)欠擬合,以下合適的做法是A、做數(shù)據(jù)增強(qiáng)B、使用更powful的kernelC、使用L2正規(guī)化D、增加訓(xùn)練樣本正確答案:B52.對(duì)決策樹進(jìn)行剪枝處理的主要目的是什么A、避免過擬合,降低泛化能力B、避免過擬合,提升泛化能力C、提高對(duì)訓(xùn)練集的學(xué)習(xí)能力D、避免欠擬合正確答案:B答案解析:決策樹剪枝的主要目的是避免過擬合,提升泛化能力。過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但在測(cè)試集或新數(shù)據(jù)上表現(xiàn)很差的現(xiàn)象。剪枝通過減少?zèng)Q策樹的復(fù)雜度,去除一些不必要的分支,從而降低模型對(duì)訓(xùn)練數(shù)據(jù)的依賴,提高模型對(duì)未知數(shù)據(jù)的預(yù)測(cè)能力,即提升泛化能力。避免欠擬合不是剪枝的主要目的,剪枝也不是為了提高對(duì)訓(xùn)練集的學(xué)習(xí)能力,同時(shí)是避免過擬合并提升泛化能力,而不是降低泛化能力。53.以下哪項(xiàng)不是降維的優(yōu)點(diǎn)A、節(jié)省空間B、丟失部分信息C、加速后續(xù)的訓(xùn)練算法D、將數(shù)據(jù)可視化,從中獲得洞察,了解最重要的特征正確答案:B答案解析:降維的優(yōu)點(diǎn)包括加速后續(xù)訓(xùn)練算法、便于數(shù)據(jù)可視化以獲得洞察、節(jié)省空間等。而丟失部分信息是降維帶來的一個(gè)特點(diǎn),但并不是優(yōu)點(diǎn)。54.StandardScaler預(yù)處理方法可以表示為?=(?-?)/?,其中?表示特征所在列的A、最大值B、分解閾值C、均值D、方差正確答案:D55.神經(jīng)網(wǎng)絡(luò)算法有時(shí)會(huì)出現(xiàn)過擬合的情況,那么采取以下哪些方法解決過擬合更為可行()。A、為參數(shù)選取多組初始值,分別訓(xùn)練,再選取一組作為最優(yōu)值B、增大學(xué)習(xí)的步長(zhǎng)C、減少訓(xùn)練數(shù)據(jù)集中數(shù)據(jù)的數(shù)量D、設(shè)置一個(gè)正則項(xiàng)減小模型的復(fù)雜度正確答案:D答案解析:過擬合是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測(cè)試數(shù)據(jù)上表現(xiàn)較差的現(xiàn)象。設(shè)置正則項(xiàng)可以在損失函數(shù)中加入一個(gè)懲罰項(xiàng),使模型的參數(shù)不能過大,從而減小模型的復(fù)雜度,避免過擬合。選項(xiàng)A選取多組初始值訓(xùn)練再選最優(yōu)值,主要是為了找到更好的初始點(diǎn)以優(yōu)化模型收斂,對(duì)過擬合解決作用不大;選項(xiàng)B增大學(xué)習(xí)步長(zhǎng)可能導(dǎo)致模型不收斂或難以達(dá)到最優(yōu)解,不能解決過擬合;選項(xiàng)C減少訓(xùn)練數(shù)據(jù)數(shù)量會(huì)使模型訓(xùn)練不充分,更容易過擬合而不是解決過擬合。56.不屬于KNN算法要素的是:A、k值的選擇B、距離度量C、分類決策的規(guī)則D、訓(xùn)練樣本的個(gè)數(shù)正確答案:D答案解析:KNN算法的要素包括k值的選擇、距離度量、分類決策的規(guī)則等。訓(xùn)練樣本的個(gè)數(shù)并不是KNN算法特有的要素,它在很多算法中都存在,不屬于KNN算法區(qū)別于其他算法的關(guān)鍵要素。57.KNN算法是基于()A、概率空間B、顏色空間C、距離空間D、線性空間正確答案:C答案解析:KNN算法是基于距離空間的。它通過計(jì)算不同樣本之間的距離,來衡量樣本之間的相似性,進(jìn)而進(jìn)行分類或回歸等任務(wù)。在KNN中,主要依據(jù)的就是樣本點(diǎn)之間的距離關(guān)系來確定最近的K個(gè)鄰居,所以是基于距離空間。58.樸素貝葉斯分類器的三種實(shí)現(xiàn)不包括A、基于伯努利模型實(shí)現(xiàn)B、屬性條件獨(dú)立性假設(shè)實(shí)現(xiàn)C、基于高斯模型實(shí)現(xiàn)D、基于多項(xiàng)式模型實(shí)現(xiàn)正確答案:B答案解析:樸素貝葉斯分類器的三種常見實(shí)現(xiàn)包括基于伯努利模型實(shí)現(xiàn)、基于多項(xiàng)式模型實(shí)現(xiàn)和基于高斯模型實(shí)現(xiàn)。屬性條件獨(dú)立性假設(shè)是樸素貝葉斯分類器的一個(gè)基本假設(shè),并不是一種實(shí)現(xiàn)方式。59.AGNES是一種()聚合策略的層次聚類算法A、A自頂向下B、自底向上C、由最近樣本決定D、D最遠(yuǎn)樣本決定正確答案:B答案解析:層次聚類算法分為凝聚式(自底向上)和分裂式(自頂向下)兩種。AGNES是一種凝聚式層次聚類算法,即自底向上的聚合策略,它從每個(gè)樣本作為一個(gè)單獨(dú)的類開始,不斷合并最近的類,直到所有樣本都在一個(gè)類中。60.下列有關(guān)核函數(shù)不正確的是:A、可以采用cross-va1idalion方法選擇最佳核函數(shù)B、滿足Mercer條件的函數(shù)不一定能作為支持向量機(jī)的核函數(shù)C、極大地提高了學(xué)習(xí)機(jī)器的非線性處理能力D、函數(shù)與非線性映射并不是一一對(duì)應(yīng)的關(guān)系正確答案:B答案解析:滿足Mercer條件的函數(shù)一定可以作為支持向量機(jī)的核函數(shù),這是核函數(shù)的基本性質(zhì)之一,所以選項(xiàng)B說法不正確。選項(xiàng)A,采用cross-validation方法選擇最佳核函數(shù)是常見的做法;選項(xiàng)C,核函數(shù)確實(shí)能極大提高學(xué)習(xí)機(jī)器的非線性處理能力;選項(xiàng)D,不同的函數(shù)可能對(duì)應(yīng)相同的非線性映射,函數(shù)與非線性映射不是一一對(duì)應(yīng)關(guān)系,A、C、D選項(xiàng)說法均正確。二、判斷題(共30題,每題1分,共30分)1.過擬合比

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論