【MOOC】《機(jī)器學(xué)習(xí)》(溫州大學(xué))章節(jié)作業(yè)慕課答案_第1頁(yè)
【MOOC】《機(jī)器學(xué)習(xí)》(溫州大學(xué))章節(jié)作業(yè)慕課答案_第2頁(yè)
【MOOC】《機(jī)器學(xué)習(xí)》(溫州大學(xué))章節(jié)作業(yè)慕課答案_第3頁(yè)
【MOOC】《機(jī)器學(xué)習(xí)》(溫州大學(xué))章節(jié)作業(yè)慕課答案_第4頁(yè)
【MOOC】《機(jī)器學(xué)習(xí)》(溫州大學(xué))章節(jié)作業(yè)慕課答案_第5頁(yè)
已閱讀5頁(yè),還剩54頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

【答案】《機(jī)器學(xué)習(xí)》(溫州大學(xué))章節(jié)作業(yè)慕課答案

有些題目順序不一致,下載后按鍵盤ctrl+F進(jìn)行搜索引言引言課后測(cè)試1.單選題:谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時(shí)同一組新聞事件往往隸屬同一主題的,所以顯示到一起。

選項(xiàng):

A、人工手動(dòng)分類

B、關(guān)鍵詞匹配與文本聚類

C、隨機(jī)分配分組

D、按新聞發(fā)布時(shí)間排序

答案:【關(guān)鍵詞匹配與文本聚類】2.單選題:深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的主要區(qū)別是什么?

選項(xiàng):

A、深度學(xué)習(xí)使用更少的數(shù)據(jù)

B、深度學(xué)習(xí)使用多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

C、深度學(xué)習(xí)是傳統(tǒng)機(jī)器學(xué)習(xí)的一個(gè)子集

D、深度學(xué)習(xí)不使用梯度下降

答案:【深度學(xué)習(xí)使用多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)】3.單選題:一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來(lái)衡量表現(xiàn)。并且,T的表現(xiàn)P隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷史天氣的數(shù)據(jù),讓它學(xué)會(huì)預(yù)測(cè)天氣。什么是P的合理選擇?

選項(xiàng):

A、歷史天氣數(shù)據(jù)的總條數(shù)

B、模型預(yù)測(cè)的天氣結(jié)果與實(shí)際天氣結(jié)果的誤差(如平均絕對(duì)誤差、準(zhǔn)確率)

C、算法處理歷史天氣數(shù)據(jù)所消耗的時(shí)間

D、模型中使用的參數(shù)數(shù)量

答案:【模型預(yù)測(cè)的天氣結(jié)果與實(shí)際天氣結(jié)果的誤差(如平均絕對(duì)誤差、準(zhǔn)確率)】4.單選題:哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?

選項(xiàng):

A、機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)

B、機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)

C、機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)

D、機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域

答案:【機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)】5.單選題:()是機(jī)器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。

選項(xiàng):

A、監(jiān)督學(xué)習(xí)

B、量子計(jì)算

C、區(qū)塊鏈技術(shù)

D、操作系統(tǒng)

答案:【監(jiān)督學(xué)習(xí)】6.單選題:哪種開(kāi)發(fā)語(yǔ)言最適合機(jī)器學(xué)習(xí)?()

選項(xiàng):

A、C

B、Java

C、Python

D、HTML

答案:【Python】7.單選題:機(jī)器學(xué)習(xí)這個(gè)術(shù)語(yǔ)是由()定義的?

選項(xiàng):

A、JamesGosling

B、ArthurSamuel

C、GuidovanRossum

D、以上都不是

答案:【ArthurSamuel】8.單選題:哪些機(jī)器學(xué)習(xí)模型經(jīng)過(guò)訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?

選項(xiàng):

A、監(jiān)督學(xué)習(xí)

B、無(wú)監(jiān)督學(xué)習(xí)

C、強(qiáng)化學(xué)習(xí)

D、以上全部

答案:【強(qiáng)化學(xué)習(xí)】9.單選題:機(jī)器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。

選項(xiàng):

A、3

B、4

C、7

D、2

答案:【3】10.單選題:一個(gè)包含n類的多分類問(wèn)題,若采用一對(duì)剩余的方法,需要拆分成多少次?

選項(xiàng):

A、n-1次

B、n次

C、n(n-1)/2次

D、2n次

答案:【n次】11.單選題:以下關(guān)于特征選擇的說(shuō)法正確的是?

選項(xiàng):

A、選擇的特征越多越好

B、選擇的特征越少越好

C、選擇的特征需盡可能反映不同事物之間的差異

D、以上說(shuō)法均不對(duì)

答案:【選擇的特征需盡可能反映不同事物之間的差異】12.單選題:回歸問(wèn)題和分類問(wèn)題的區(qū)別是什么?

選項(xiàng):

A、回歸問(wèn)題輸出連續(xù)值,分類問(wèn)題輸出離散類別

B、回歸問(wèn)題輸出離散類別,分類問(wèn)題輸出連續(xù)值

C、回歸問(wèn)題只處理線性數(shù)據(jù),分類問(wèn)題只處理非線性數(shù)據(jù)

D、回歸問(wèn)題需要更多數(shù)據(jù),分類問(wèn)題需要更少數(shù)據(jù)

答案:【回歸問(wèn)題輸出連續(xù)值,分類問(wèn)題輸出離散類別】13.多選題:對(duì)于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪些模型屬于線性模型?

選項(xiàng):

A、線性回歸

B、邏輯回歸(二分類)

C、支持向量機(jī)(線性核)

D、決策樹(shù)E.感知機(jī)

答案:【線性回歸、邏輯回歸(二分類)、支持向量機(jī)(線性核)、感知機(jī)】14.多選題:機(jī)器學(xué)習(xí)的方法由模型、()等幾個(gè)要素構(gòu)成。

選項(xiàng):

A、數(shù)據(jù)

B、損失函數(shù)

C、優(yōu)化算法

D、模型評(píng)估指標(biāo)

答案:【損失函數(shù);優(yōu)化算法;模型評(píng)估指標(biāo)】15.多選題:下列哪些學(xué)習(xí)問(wèn)題屬于無(wú)監(jiān)督學(xué)習(xí)?()

選項(xiàng):

A、回歸

B、分類

C、聚類

D、關(guān)聯(lián)規(guī)則

答案:【聚類;關(guān)聯(lián)規(guī)則】16.多選題:下列哪些學(xué)習(xí)問(wèn)題不屬于監(jiān)督學(xué)習(xí)?()

選項(xiàng):

A、聚類

B、降維

C、分類

D、回歸

答案:【聚類;降維】17.單選題:大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟占總時(shí)間比較少,而數(shù)據(jù)建模,占總時(shí)間比較少。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】18.單選題:根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性,這是一個(gè)多分類問(wèn)題。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】19.單選題:樸素貝葉斯屬于概率模型。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】20.單選題:已知你朋友的信息,比如經(jīng)常發(fā)email的聯(lián)系人,或是你微博的好友、微信的朋友圈,我們可運(yùn)用回歸方法自動(dòng)地給朋友進(jìn)行分組,做到讓每組里的人們彼此都熟識(shí)。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】回歸回歸課后測(cè)試1.單選題:在進(jìn)行回歸分析之前,通常需要進(jìn)行哪些數(shù)據(jù)預(yù)處理步驟?

選項(xiàng):

A、特征編碼

B、所有選項(xiàng)都是

C、特征選擇

D、特征縮放

答案:【所有選項(xiàng)都是】2.單選題:如果一個(gè)回歸模型在訓(xùn)練集上表現(xiàn)很好,但在測(cè)試集上表現(xiàn)差,這可能是什么現(xiàn)象?

選項(xiàng):

A、過(guò)擬合

B、欠擬合

C、數(shù)據(jù)泄露

D、模型偏差

答案:【過(guò)擬合】3.單選題:嶺回歸(RidgeRegression)添加了一個(gè)什么項(xiàng)來(lái)防止過(guò)擬合?

選項(xiàng):

A、優(yōu)化項(xiàng)

B、正則化項(xiàng)

C、損失項(xiàng)

D、交叉驗(yàn)證項(xiàng)

答案:【正則化項(xiàng)】4.單選題:在回歸問(wèn)題中,如果模型的預(yù)測(cè)值總是高于或低于真實(shí)值,這可能意味著什么?

選項(xiàng):

A、模型存在方差

B、模型存在偏差

C、模型欠擬合

D、模型過(guò)擬合

答案:【模型存在偏差】5.單選題:以下哪些方法不能用于處理欠擬合?

選項(xiàng):

A、增大正則化系數(shù)

B、增加新的特征

C、增加模型復(fù)雜度

D、對(duì)特征進(jìn)行變換,使用組合特征或高維特征

答案:【增大正則化系數(shù)】6.單選題:哪些算法不需要數(shù)據(jù)歸一化?

選項(xiàng):

A、kNN

B、k-means

C、SVM

D、XGBoost

答案:【XGBoost】7.單選題:以下說(shuō)法錯(cuò)誤的是?

選項(xiàng):

A、殘差是預(yù)測(cè)值與真實(shí)值之間的差值

B、損失函數(shù)越小,模型訓(xùn)練得一定越好

C、正則項(xiàng)的目的是為了避免模型過(guò)擬合

D、最小二乘法不需要選擇學(xué)習(xí)率

答案:【損失函數(shù)越小,模型訓(xùn)練得一定越好】8.單選題:回歸問(wèn)題和分類問(wèn)題的區(qū)別是?

選項(xiàng):

A、回歸問(wèn)題的輸出是連續(xù)值,分類問(wèn)題的輸出是離散的類別標(biāo)簽

B、回歸問(wèn)題的輸出是離散的類別標(biāo)簽,分類問(wèn)題的輸出是連續(xù)值

C、回歸問(wèn)題只能處理數(shù)值型數(shù)據(jù),分類問(wèn)題只能處理分類型數(shù)據(jù)

D、回歸問(wèn)題需要更多的訓(xùn)練樣本,分類問(wèn)題需要的訓(xùn)練樣本更少

答案:【回歸問(wèn)題的輸出是連續(xù)值,分類問(wèn)題的輸出是離散的類別標(biāo)簽】9.單選題:以下哪組變量之間存在線性回歸關(guān)系?

選項(xiàng):

A、學(xué)生的性別與他的成績(jī)

B、兒子的身高與父親的身高

C、正方形的邊長(zhǎng)與面積

D、正三角形的邊長(zhǎng)與周長(zhǎng)

答案:【正三角形的邊長(zhǎng)與周長(zhǎng)】10.單選題:向量x=[1,2,3,4,-9,0]的L1范數(shù)是多少?

選項(xiàng):

A、1

B、19

C、6

D、

答案:【19】11.單選題:構(gòu)建一個(gè)最簡(jiǎn)單的線性回歸模型需要幾個(gè)系數(shù)(只有一個(gè)特征)?

選項(xiàng):

A、1個(gè)

B、2個(gè)

C、3個(gè)

D、4個(gè)

答案:【2個(gè)】12.單選題:關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸說(shuō)法正確的是?

選項(xiàng):

A、Ridge回歸適用于特征選擇

B、Lasso回歸適用于特征選擇

C、兩個(gè)都適用于特征選擇

D、以上說(shuō)法都不對(duì)

答案:【Lasso回歸適用于特征選擇】13.單選題:假如你在訓(xùn)練一個(gè)線性回歸模型,則:1.如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。2.如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。關(guān)于這兩句話,下列說(shuō)法正確的是?

選項(xiàng):

A、1和2都錯(cuò)誤

B、1正確,2錯(cuò)誤

C、1錯(cuò)誤,2正確

D、1和2都正確

答案:【1正確,2錯(cuò)誤】14.單選題:為了觀察測(cè)試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?

選項(xiàng):

A、散點(diǎn)圖

B、柱形圖

C、直方圖

D、以上都不對(duì)

答案:【散點(diǎn)圖】15.單選題:下列關(guān)于線性回歸分析中的殘差(Residuals)說(shuō)法正確的是?

選項(xiàng):

A、殘差均值總是為零

B、殘差均值總是小于零

C、殘差均值總是大于零

D、以上說(shuō)法都不對(duì)

答案:【殘差均值總是為零】16.單選題:以下哪些方法不能用于處理過(guò)擬合?

選項(xiàng):

A、對(duì)數(shù)據(jù)進(jìn)行清洗

B、增大訓(xùn)練數(shù)據(jù)的量

C、利用正則化技術(shù)

D、增加數(shù)據(jù)屬性的復(fù)雜度

答案:【增加數(shù)據(jù)屬性的復(fù)雜度】17.多選題:假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù),來(lái)降低模型復(fù)雜度,若正則化系數(shù)較大時(shí),關(guān)于偏差(bias)和方差(variance),下列說(shuō)法正確的是?()

選項(xiàng):

A、偏差減小

B、偏差增大

C、方差減小

D、方差增大

答案:【偏差增大;方差減小】18.多選題:欠擬合的處理主要有哪些方式:()

選項(xiàng):

A、減小模型復(fù)雜度

B、減小正則化系數(shù)

C、增大正則化系數(shù)

D、添加新特征

答案:【減小正則化系數(shù);添加新特征】19.多選題:線性回歸中,我們可以使用最小二乘法來(lái)求解系數(shù),下列關(guān)于最小二乘法說(shuō)法正確的是?()

選項(xiàng):

A、核心思想是最小化實(shí)際值與預(yù)測(cè)值之間的殘差平方和

B、當(dāng)特征之間存在嚴(yán)重多重共線性時(shí),求解的系數(shù)可能不穩(wěn)定

C、不需要假設(shè)誤差項(xiàng)服從特定分布即可得到系數(shù)的估計(jì)值

D、能保證找到全局最優(yōu)解,因?yàn)闅埐钇椒胶秃瘮?shù)是凸函數(shù)E.求解過(guò)程需要通過(guò)迭代優(yōu)化才能得到系數(shù)(提示:最小二乘法有解析解)

答案:【核心思想是最小化實(shí)際值與預(yù)測(cè)值之間的殘差平方和、當(dāng)特征之間存在嚴(yán)重多重共線性時(shí),求解的系數(shù)可能不穩(wěn)定、不需要假設(shè)誤差項(xiàng)服從特定分布即可得到系數(shù)的估計(jì)值、能保證找到全局最優(yōu)解,因?yàn)闅埐钇椒胶秃瘮?shù)是凸函數(shù)】20.多選題:以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?

選項(xiàng):

A、避免量綱差異大的特征(如“年齡”:0-100歲,“收入”:0-100萬(wàn)元)主導(dǎo)模型訓(xùn)練

B、加速梯度下降等迭代優(yōu)化算法的收斂速度

C、確保所有特征對(duì)模型損失函數(shù)的貢獻(xiàn)權(quán)重處于同一量級(jí)

D、提升模型對(duì)異常值的魯棒性(提示:規(guī)范化不直接增強(qiáng)魯棒性,甚至可能放大異常值影響)E.對(duì)基于距離的模型(如K近鄰、支持向量機(jī)),可避免距離計(jì)算受量綱影響

答案:【避免量綱差異大的特征主導(dǎo)模型訓(xùn)練、加速梯度下降等迭代優(yōu)化算法的收斂速度、確保所有特征對(duì)模型損失函數(shù)的貢獻(xiàn)權(quán)重處于同一量級(jí)、對(duì)基于距離的模型,可避免距離計(jì)算受量綱影響】21.單選題:過(guò)擬合的處理可以通過(guò)增大正則化系數(shù)。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】22.單選題:L1正則化往往用于防止過(guò)擬合,而L2正則化往往用于特征選擇。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】23.單選題:隨機(jī)梯度下降,每次迭代時(shí)候,使用一個(gè)樣本。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】24.單選題:如果兩個(gè)變量相關(guān),那么它們有可能是線性關(guān)系。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】25.單選題:在回歸問(wèn)題中,如果模型的預(yù)測(cè)值普遍高于真實(shí)值,這可能意味著模型存在高方差。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】邏輯回歸邏輯回歸課后測(cè)驗(yàn)1.單選題:你正在訓(xùn)練一個(gè)分類邏輯回歸模型。以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

選項(xiàng):

A、將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能

B、在模型中添加許多新特性有助于防止訓(xùn)練集過(guò)度擬合

C、將正則化引入到模型中,對(duì)于訓(xùn)練集中沒(méi)有的樣本,總是可以獲得相同或更好的性能

D、向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能

答案:【向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能】2.單選題:假設(shè)使用邏輯回歸進(jìn)行多類別分類,使用OVR分類法。下列說(shuō)法正確的是?

選項(xiàng):

A、對(duì)于n類別,需要訓(xùn)練n個(gè)模型

B、對(duì)于n類別,需要訓(xùn)練n-1個(gè)模型

C、對(duì)于n類別,只需要訓(xùn)練1個(gè)模型

D、以上說(shuō)法都不對(duì)

答案:【對(duì)于n類別,需要訓(xùn)練n個(gè)模型】3.單選題:邏輯回歸通常采用哪種正則化方式?

選項(xiàng):

A、ElasticNet

B、L1正則化

C、L2正則化

D、Dropout正則化

答案:【L2正則化】4.單選題:以下哪些不是二分類問(wèn)題?

選項(xiàng):

A、根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性?

B、或者根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來(lái)判斷信用卡是否會(huì)違約?

C、根據(jù)地段、房屋面積、房間數(shù)量來(lái)預(yù)測(cè)房?jī)r(jià)多少。

D、根據(jù)一個(gè)人的身高和體重判斷他(她)的性別。

答案:【根據(jù)地段、房屋面積、房間數(shù)量來(lái)預(yù)測(cè)房?jī)r(jià)多少。】5.單選題:假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?

選項(xiàng):

A、1

B、2

C、3

D、4

答案:【2】6.單選題:下列哪一項(xiàng)不是邏輯回歸的優(yōu)點(diǎn)?

選項(xiàng):

A、處理非線性數(shù)據(jù)較容易

B、模型形式簡(jiǎn)單

C、資源占用少

D、可解釋性好

答案:【處理非線性數(shù)據(jù)較容易】7.單選題:下面哪一項(xiàng)不是Sigmoid的特點(diǎn)?

選項(xiàng):

A、當(dāng)σ(z)大于等于0.5時(shí),預(yù)測(cè)y=1

B、當(dāng)σ(z)小于0.5時(shí),預(yù)測(cè)y=0

C、當(dāng)σ(z)小于0.5時(shí),預(yù)測(cè)y=-1

D、σ(z)的范圍為(0,1)

答案:【當(dāng)σ(z)小于0.5時(shí),預(yù)測(cè)y=-1】8.單選題:邏輯回歸的損失函數(shù)是哪個(gè)?

選項(xiàng):

A、MSE

B、交叉熵(Cross-Entropy)損失函數(shù)

C、MAE

D、RMSE

答案:【交叉熵(Cross-Entropy)損失函數(shù)】9.單選題:以下關(guān)于sigmoid函數(shù)的優(yōu)點(diǎn)說(shuō)法錯(cuò)誤的是?

選項(xiàng):

A、函數(shù)處處連續(xù),便于求導(dǎo)

B、可以用于處理二分類問(wèn)題

C、在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失

D、可以壓縮數(shù)據(jù)值到[0,1]之間,便于后續(xù)處理

答案:【在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失】10.單選題:以下關(guān)于邏輯回歸與線性回歸問(wèn)題的描述錯(cuò)誤的是()

選項(xiàng):

A、邏輯回歸用于處理分類問(wèn)題,線性回歸用于處理回歸問(wèn)題

B、線性回歸要求輸入輸出值呈線性關(guān)系,邏輯回歸不要求

C、邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求

D、線性回歸計(jì)算方法一般是最小二乘法,邏輯回歸的參數(shù)計(jì)算方法是似然估計(jì)法。

答案:【邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求】11.單選題:以下關(guān)于分類問(wèn)題的說(shuō)法正確的是?

選項(xiàng):

A、分類屬于無(wú)監(jiān)督學(xué)習(xí)

B、分類問(wèn)題輸入屬性必須是離散的

C、多分類問(wèn)題可以被拆分為多個(gè)二分類問(wèn)題

D、回歸問(wèn)題不可被轉(zhuǎn)化為多分類問(wèn)題

答案:【多分類問(wèn)題可以被拆分為多個(gè)二分類問(wèn)題】12.單選題:一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來(lái)識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求:

選項(xiàng):

A、二分類問(wèn)題

B、多分類問(wèn)題

C、回歸問(wèn)題

D、聚類問(wèn)題

答案:【多分類問(wèn)題】13.單選題:邏輯回歸的損失函數(shù)是什么?

選項(xiàng):

A、均方誤差(MSE)

B、交叉熵?fù)p失

C、平均絕對(duì)誤差(MAE)

D、鳶尾花損失

答案:【交叉熵?fù)p失】14.單選題:邏輯回歸主要用于解決哪種類型的問(wèn)題?

選項(xiàng):

A、回歸問(wèn)題

B、聚類問(wèn)題

C、分類問(wèn)題

D、降維問(wèn)題

答案:【分類問(wèn)題】15.單選題:邏輯回歸模型的輸出值代表什么?

選項(xiàng):

A、事件發(fā)生的概率

B、事件的損失

C、事件的頻率

D、事件的權(quán)重

答案:【事件發(fā)生的概率】16.單選題:邏輯回歸中,odds表示什么?

選項(xiàng):

A、事件發(fā)生的頻率

B、事件發(fā)生的概率與不發(fā)生的概率的比值

C、事件不發(fā)生的頻率

D、事件的損失與收益的比值

答案:【事件發(fā)生的概率與不發(fā)生的概率的比值】17.多選題:下面哪些是分類算法?

選項(xiàng):

A、根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性?

B、根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來(lái)判斷信用卡是否會(huì)違約?

C、身高1.85m,體重100kg的學(xué)生性別?

D、根據(jù)房屋大小、衛(wèi)生間數(shù)量等特征預(yù)估房?jī)r(jià)

答案:【根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性?;根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來(lái)判斷信用卡是否會(huì)違約?;身高1.85m,體重100kg的學(xué)生性別?】18.多選題:以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)()

選項(xiàng):

A、在構(gòu)建學(xué)習(xí)算法的第一個(gè)版本之前,花大量時(shí)間收集大量數(shù)據(jù)是一個(gè)好主意。

B、邏輯回歸使用了Sigmoid激活函數(shù)

C、使用一個(gè)非常大的訓(xùn)練集使得模型不太可能過(guò)擬合訓(xùn)練數(shù)據(jù)。

D、如果您的模型擬合訓(xùn)練集,那么獲取更多數(shù)據(jù)可能會(huì)有幫助。

答案:【邏輯回歸使用了Sigmoid激活函數(shù);使用一個(gè)非常大的訓(xùn)練集使得模型不太可能過(guò)擬合訓(xùn)練數(shù)據(jù)。】19.單選題:邏輯回歸的損失函數(shù)是交叉熵?fù)p失

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】20.單選題:邏輯回歸算法資源占用大,尤其是內(nèi)存。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】21.單選題:邏輯回歸的特征一定是離散的。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】22.單選題:Sigmoid函數(shù)的范圍是(0,1)

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】23.單選題:邏輯回歸分類的精度不夠高,因此在業(yè)界很少用到這個(gè)算法

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】24.單選題:邏輯回歸的激活函數(shù)是Sigmoid。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】25.單選題:在邏輯回歸中,Sigmoid函數(shù)的作用是非線性轉(zhuǎn)換

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】樸素貝葉斯樸素貝葉斯課后測(cè)驗(yàn)1.單選題:樸素貝葉斯分類器屬于哪種學(xué)習(xí)算法?

選項(xiàng):

A、基于樹(shù)的學(xué)習(xí)

B、基于實(shí)例的學(xué)習(xí)

C、基于規(guī)則的學(xué)習(xí)

D、基于概率模型的學(xué)習(xí)

答案:【基于概率模型的學(xué)習(xí)】2.單選題:樸素貝葉斯分類器通常用于哪些類型的數(shù)據(jù)?

選項(xiàng):

A、只有數(shù)值型數(shù)據(jù)

B、只有類別型數(shù)據(jù)

C、混合了數(shù)值型和類別型數(shù)據(jù)

D、只有文本數(shù)據(jù)

答案:【混合了數(shù)值型和類別型數(shù)據(jù)】3.單選題:樸素貝葉斯分類器的“樸素”一詞指的是什么?

選項(xiàng):

A、算法簡(jiǎn)單

B、假設(shè)屬性之間相互獨(dú)立

C、只適用于簡(jiǎn)單的分類問(wèn)題

D、計(jì)算上非常快速

答案:【假設(shè)屬性之間相互獨(dú)立】4.單選題:公司里有一個(gè)人穿了運(yùn)動(dòng)鞋,推測(cè)是男還是女?已知公司里男性30人,女性70人,男性穿運(yùn)動(dòng)鞋的有25人,穿拖鞋的有5人,女性穿運(yùn)動(dòng)鞋的有40人,穿高跟鞋的有30人。則以下哪項(xiàng)計(jì)算錯(cuò)誤()?

選項(xiàng):

A、p(男|運(yùn)動(dòng)鞋)=0.25

B、p(女|運(yùn)動(dòng)鞋)=0.4

C、p(運(yùn)動(dòng)鞋|男性)=25/30

D、p(運(yùn)動(dòng)鞋|女性)=0.4

答案:【p(運(yùn)動(dòng)鞋|女性)=0.4】5.單選題:擲二枚骰子,事件A為出現(xiàn)的點(diǎn)數(shù)之和等于3的概率為()

選項(xiàng):

A、1/11

B、1/18

C、1/6

D、都不對(duì)

答案:【1/18】6.單選題:關(guān)于樸素貝葉斯,下列說(shuō)法錯(cuò)誤的是:()

選項(xiàng):

A、它是一個(gè)分類算法

B、樸素的意義在于它的一個(gè)天真的假設(shè):所有特征之間是相互關(guān)聯(lián)的

C、它實(shí)際上是將多條件下的條件概率轉(zhuǎn)換成了單一條件下的條件概率,簡(jiǎn)化了計(jì)算

D、樸素貝葉斯需要使用聯(lián)合概率

答案:【樸素的意義在于它的一個(gè)天真的假設(shè):所有特征之間是相互關(guān)聯(lián)的】7.單選題:以A表示事件"甲種產(chǎn)品暢銷,乙種產(chǎn)品滯銷",則其對(duì)立事件A為()

選項(xiàng):

A、甲種產(chǎn)品滯銷,乙種產(chǎn)品暢銷

B、甲,乙兩種產(chǎn)品均暢銷

C、甲種產(chǎn)品滯銷

D、甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷

答案:【甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷】8.單選題:市場(chǎng)上某商品來(lái)自兩個(gè)工廠,它們市場(chǎng)占有率分別為60%和40%,有兩人各自買一件,則買到的來(lái)自不同工廠之概率為()。

答案:【48%】9.單選題:樸素貝葉斯的優(yōu)點(diǎn)不包括()

選項(xiàng):

A、算法邏輯簡(jiǎn)單,易于實(shí)現(xiàn)

B、分類過(guò)程中時(shí)空開(kāi)銷小

C、對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡(jiǎn)單,常用于文本分類

D、樸素貝葉斯模型對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感

答案:【樸素貝葉斯模型對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感】10.單選題:在樸素貝葉斯分類中,如果特征的數(shù)量增加,模型的性能通常會(huì)如何變化?

選項(xiàng):

A、性能顯著提高

B、性能顯著下降

C、性能略微提高

D、性能略微下降

答案:【性能顯著提高】11.單選題:在使用樸素貝葉斯分類器時(shí),如果某個(gè)特征的所有值都是相同的,那么這個(gè)特征對(duì)于分類的影響是什么?

選項(xiàng):

A、影響很大

B、影響很小

C、沒(méi)有影響

D、導(dǎo)致分類失敗

答案:【沒(méi)有影響】12.單選題:以下算法屬于判別模型的是()

選項(xiàng):

A、樸素貝葉斯模型

B、深度信念網(wǎng)絡(luò)

C、隱馬爾科夫模型

D、線性回歸

答案:【線性回歸】13.單選題:假設(shè)X和Y都服從正態(tài)分布,那么P(X<5,Y<0)就是一個(gè)(),表示X<5,Y<0兩個(gè)條件同時(shí)成立的概率,即兩個(gè)事件共同發(fā)生的概率。

選項(xiàng):

A、先驗(yàn)概率

B、后驗(yàn)概率

C、聯(lián)合概率

D、以上說(shuō)法都不對(duì)

答案:【聯(lián)合概率】14.單選題:關(guān)于拉普拉斯平滑說(shuō)法正確的是()

選項(xiàng):

A、避免了出現(xiàn)概率為0的情況

B、加上拉普拉斯平滑有助于提高學(xué)習(xí)性能

C、會(huì)使得最終結(jié)果可能大于1

D、以上說(shuō)法都不對(duì)

答案:【避免了出現(xiàn)概率為0的情況】15.單選題:以下算法不屬于生成模型()

選項(xiàng):

A、樸素貝葉斯模型

B、混合高斯模型

C、隱馬爾科夫模型

D、支持向量機(jī)

答案:【支持向量機(jī)】16.單選題:下列關(guān)于樸素貝葉斯的特點(diǎn)說(shuō)法錯(cuò)誤的是()

選項(xiàng):

A、樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,數(shù)學(xué)基礎(chǔ)堅(jiān)實(shí)

B、樸素貝葉斯模型無(wú)需假設(shè)特征條件獨(dú)立

C、樸素貝葉斯處理過(guò)程簡(jiǎn)單,分類速度快

D、樸素貝葉斯對(duì)小規(guī)模數(shù)據(jù)表現(xiàn)較好

答案:【樸素貝葉斯模型無(wú)需假設(shè)特征條件獨(dú)立】17.單選題:假設(shè)會(huì)開(kāi)車的本科生比例是15%,會(huì)開(kāi)車的研究生比例是23%。若在某大學(xué)研究生占學(xué)生比例是20%,則會(huì)開(kāi)車的學(xué)生是研究生的概率是多少?

選項(xiàng):

A、80%

B、16.6%

C、23%

D、27.71%

答案:【27.71%】18.單選題:樸素貝葉斯模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。而在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),分類效果不好。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】19.單選題:根據(jù)以往經(jīng)驗(yàn)和分析得到的概率。在這里,我們用P(Y)來(lái)代表在沒(méi)有訓(xùn)練數(shù)據(jù)前假設(shè)Y擁有的初始概率,因此稱其為Y的后驗(yàn)概率,它反映了我們所擁有的關(guān)于Y的背景知識(shí)。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】20.單選題:樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集,邏輯回歸適用于大規(guī)模數(shù)據(jù)集。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】21.單選題:樸素貝葉斯法的基本假設(shè)是條件獨(dú)立性。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】22.單選題:邏輯回歸和樸素貝葉斯都有對(duì)屬性特征獨(dú)立的要求

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】23.單選題:邏輯回歸是判別模型,樸素貝葉斯是生成模型

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】24.單選題:判別模型所學(xué)內(nèi)容是決策邊界。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】25.單選題:樸素貝葉斯對(duì)缺失數(shù)據(jù)較敏感。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】機(jī)器學(xué)習(xí)實(shí)踐機(jī)器學(xué)習(xí)實(shí)踐課后測(cè)驗(yàn)1.單選題:一個(gè)正負(fù)樣本不平衡問(wèn)題(正樣本99%,負(fù)樣本1%)。假如在這個(gè)非平衡的數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說(shuō)法正確的是?()

選項(xiàng):

A、模型正確率很高,不需要優(yōu)化模型了

B、模型正確率并不能反映模型的真實(shí)效果

C、無(wú)法對(duì)模型做出好壞評(píng)價(jià)

D、以上說(shuō)法都不對(duì)

答案:【模型正確率并不能反映模型的真實(shí)效果】2.單選題:在機(jī)器學(xué)習(xí)中,模型的泛化能力是指什么?

選項(xiàng):

A、模型的計(jì)算速度

B、模型在訓(xùn)練數(shù)據(jù)上的表現(xiàn)

C、模型的復(fù)雜度

D、模型在新的、未見(jiàn)過(guò)的數(shù)據(jù)上的表現(xiàn)

答案:【模型在新的、未見(jiàn)過(guò)的數(shù)據(jù)上的表現(xiàn)】3.單選題:交叉驗(yàn)證的主要目的是什么?

選項(xiàng):

A、加速模型訓(xùn)練

B、提高模型的泛化能力

C、減少模型的計(jì)算資源消耗

D、找到最優(yōu)的模型參數(shù)

答案:【提高模型的泛化能力】4.單選題:在機(jī)器學(xué)習(xí)中,召回率(Recall)是指什么?

選項(xiàng):

A、正確預(yù)測(cè)為負(fù)類的樣本占所有實(shí)際負(fù)類樣本的比例

B、正確預(yù)測(cè)為正類的樣本占所有實(shí)際正類樣本的比例

C、模型預(yù)測(cè)正確的樣本占總樣本數(shù)的比例

D、模型預(yù)測(cè)錯(cuò)誤的樣本占總樣本數(shù)的比例

答案:【正確預(yù)測(cè)為正類的樣本占所有實(shí)際正類樣本的比例】5.單選題:假設(shè)有100張照片,其中,貓的照片有60張,狗的照片是40張。識(shí)別結(jié)果:TP=40,F(xiàn)N=20,F(xiàn)P=10,TN=30,則可以得到:()。

選項(xiàng):

A、貓照片的精確率(Precision)為80%

B、貓照片的召回率(Recall)為66.7%

C、狗照片的準(zhǔn)確率(Accuracy)為70%

D、貓照片的F1分?jǐn)?shù)為75%

答案:【貓照片的召回率(Recall)為66.7%】6.單選題:當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。

選項(xiàng):

A、對(duì)數(shù)據(jù)分布較少的類別過(guò)采樣

B、對(duì)數(shù)據(jù)分布較多的類別欠采樣

C、對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重

D、對(duì)數(shù)據(jù)分布較少的類別賦予更大的權(quán)重

答案:【對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重】7.單選題:以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說(shuō)法不正確的是()。

選項(xiàng):

A、測(cè)試集是純粹是用于測(cè)試模型泛化能力

B、訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能

C、驗(yàn)證集用于調(diào)整模型參數(shù)

D、以上說(shuō)法都不對(duì)

答案:【訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能】8.單選題:市場(chǎng)上某商品來(lái)自兩個(gè)工廠,它們市場(chǎng)占有率分別為60%和40%,有兩人各自買一件,則買到的來(lái)自不同工廠之概率為()。

選項(xiàng):

A、24%

B、48%

C、52%

D、76%

答案:【48%】9.單選題:隨著訓(xùn)練樣本的數(shù)量越來(lái)越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。

選項(xiàng):

A、低偏差

B、高偏差

C、相同偏差

D、無(wú)法判斷

答案:【相同偏差】10.單選題:隨著訓(xùn)練樣本的數(shù)量越來(lái)越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。

選項(xiàng):

A、低方差

B、高方差

C、相同方差

D、無(wú)法判斷

答案:【低方差】11.單選題:關(guān)于L1正則化和L2正則化說(shuō)法正確的是()。

選項(xiàng):

A、L2正則化的功能是使權(quán)重稀疏

B、L1正則化的功能是防止過(guò)擬合

C、L1正則化比L2正則化使用更廣泛

D、L1正則化無(wú)法有效減低數(shù)據(jù)存儲(chǔ)量

答案:【L1正則化無(wú)法有效減低數(shù)據(jù)存儲(chǔ)量】12.單選題:以下關(guān)于偏差(Bias)和方差(Variance)說(shuō)法正確的是()。

選項(xiàng):

A、方差描述的是預(yù)測(cè)值與真實(shí)值之間的差別

B、偏差描述的是預(yù)測(cè)值的變化范圍

C、獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問(wèn)題

D、獲取更多的特征能解決高方差的問(wèn)題

答案:【獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問(wèn)題】13.單選題:以下關(guān)于ROC和PR曲線說(shuō)法不正確的是()。

選項(xiàng):

A、ROC曲線兼顧正例與負(fù)例,PR曲線完全聚焦于正例

B、如果想測(cè)試不同類別分布下分類器性能的影響,ROC曲線更為適合

C、ROC曲線不會(huì)隨著類別分布的改變而改變

D、類別不平衡問(wèn)題中,ROC曲線比PR曲線估計(jì)效果要差

答案:【類別不平衡問(wèn)題中,ROC曲線比PR曲線估計(jì)效果要差】14.單選題:下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。

選項(xiàng):

A、增加訓(xùn)練數(shù)據(jù)集規(guī)模

B、減少模型的參數(shù)數(shù)量(如簡(jiǎn)化神經(jīng)網(wǎng)絡(luò)層數(shù))

C、引入L1/L2正則化約束

D、以上都是

答案:【以上都是】15.單選題:關(guān)于數(shù)據(jù)規(guī)范化,下列說(shuō)法中錯(cuò)誤的是()。

選項(xiàng):

A、規(guī)范化可以消除特征間的量綱差異,避免某一特征主導(dǎo)模型

B、常見(jiàn)的規(guī)范化方法包括標(biāo)準(zhǔn)化(Z-Score)和歸一化(Min-Max)

C、規(guī)范化會(huì)改變特征的分布趨勢(shì),導(dǎo)致模型無(wú)法學(xué)習(xí)原始數(shù)據(jù)規(guī)律

D、基于距離的模型(如KNN)對(duì)規(guī)范化的需求比決策樹(shù)更強(qiáng)烈

答案:【規(guī)范化會(huì)改變特征的分布趨勢(shì),導(dǎo)致模型無(wú)法學(xué)習(xí)原始數(shù)據(jù)規(guī)律】16.多選題:評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()

選項(xiàng):

A、減少模型的特征數(shù)量

B、增加模型的特征數(shù)量

C、增加樣本數(shù)量

D、嘗試減少正則化系數(shù)

答案:【增加模型的特征數(shù)量;嘗試減少正則化系數(shù)】17.多選題:評(píng)價(jià)指標(biāo)中,召回率(Recall)的計(jì)算需要哪些數(shù)值()。

選項(xiàng):

A、真正例(TP)

B、假正例(FP)

C、假負(fù)例(FN)

D、真負(fù)例(TN)

答案:【真正例(TP)、假負(fù)例(FN)】18.多選題:評(píng)價(jià)指標(biāo)中,精確率(Precision)的計(jì)算需要哪些數(shù)值()。

選項(xiàng):

A、TP

B、TN

C、FP

D、FN

答案:【TP;FP】19.多選題:以下關(guān)于交叉驗(yàn)證說(shuō)法正確的是()。

選項(xiàng):

A、交叉驗(yàn)證可利用模型選擇避免過(guò)擬合的情況

B、交叉驗(yàn)證可對(duì)模型性能合理評(píng)估

C、交叉驗(yàn)證大大增加了計(jì)算量

D、以上說(shuō)法都不對(duì)

答案:【交叉驗(yàn)證可利用模型選擇避免過(guò)擬合的情況;交叉驗(yàn)證可對(duì)模型性能合理評(píng)估;交叉驗(yàn)證大大增加了計(jì)算量】20.多選題:下列哪項(xiàng)是評(píng)估模型性能的指標(biāo)之一?

選項(xiàng):

A、訓(xùn)練時(shí)間

B、模型大小

C、精確率(Precision)

D、數(shù)據(jù)集大小

答案:【訓(xùn)練時(shí)間;模型大小;數(shù)據(jù)集大小】21.單選題:SMOTE算法是用了下采樣的方法。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】22.單選題:L2正則化得到的解更加稀疏。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】23.單選題:特征空間越大,過(guò)擬合的可能性越大。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】24.單選題:機(jī)器學(xué)習(xí)中的“訓(xùn)練集”主要目的是為了驗(yàn)證模型的準(zhǔn)確性

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】25.單選題:100萬(wàn)條數(shù)據(jù)劃分訓(xùn)練集、驗(yàn)證集、測(cè)試集,數(shù)據(jù)可以這樣劃分:98%,1%,1%。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】KNN算法KNN算法課后測(cè)驗(yàn)1.單選題:關(guān)于余弦相似度,不正確的是()。

選項(xiàng):

A、余弦相似度的范圍為[-1,1]

B、余弦相似度的結(jié)果和向量的長(zhǎng)度無(wú)關(guān)

C、余弦相似度為-1時(shí)候,兩個(gè)向量完全不相關(guān)

D、余弦相似度為1的時(shí)候,兩個(gè)向量完全相關(guān)

答案:【余弦相似度為-1時(shí)候,兩個(gè)向量完全不相關(guān)】2.單選題:以下哪項(xiàng)是KNN算法的缺點(diǎn)?()

選項(xiàng):

A、低精度

B、對(duì)異常值不敏感

C、計(jì)算成本高

D、需要的內(nèi)存非常少

答案:【計(jì)算成本高】3.單選題:利用KD樹(shù)進(jìn)行搜索時(shí),正確的方式是()。

選項(xiàng):

A、查詢數(shù)據(jù)從子節(jié)點(diǎn)開(kāi)始

B、若數(shù)據(jù)小于對(duì)應(yīng)節(jié)點(diǎn)中k維度的值,則訪問(wèn)左節(jié)點(diǎn)

C、回溯過(guò)程是為了找距離較遠(yuǎn)的點(diǎn)

D、回溯的判斷過(guò)程是從上往下進(jìn)行的

答案:【若數(shù)據(jù)小于對(duì)應(yīng)節(jié)點(diǎn)中k維度的值,則訪問(wèn)左節(jié)點(diǎn)】4.單選題:以下關(guān)于KD樹(shù)的說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、KD樹(shù)是一種對(duì)k維空間的數(shù)據(jù)進(jìn)行存儲(chǔ)以便于快速檢索的樹(shù)形數(shù)據(jù)結(jié)構(gòu)

B、KD樹(shù)主要用于多維空間關(guān)鍵數(shù)據(jù)的檢索

C、KD樹(shù)節(jié)點(diǎn)與k維中垂直與超平面的那一維有關(guān)

D、所有x值小于指定值的節(jié)點(diǎn)會(huì)出現(xiàn)在右子樹(shù)

答案:【所有x值小于指定值的節(jié)點(diǎn)會(huì)出現(xiàn)在右子樹(shù)】5.單選題:以下距離度量方法中,在城市道路里,要從一個(gè)十字路口開(kāi)車到另外一個(gè)十字路口的距離是:()。

選項(xiàng):

A、夾角余弦

B、切比雪夫距離

C、曼哈頓距離

D、歐氏距離

答案:【曼哈頓距離】6.單選題:下列選項(xiàng)中,關(guān)于KNN算法說(shuō)法不正確是:()。

選項(xiàng):

A、能找出與待預(yù)測(cè)樣本相近的K個(gè)樣本

B、默認(rèn)使用歐氏距離度量

C、實(shí)現(xiàn)過(guò)程相對(duì)簡(jiǎn)單,但是可解釋性不強(qiáng)

D、效率很高

答案:【效率很高】7.單選題:下列哪個(gè)距離度量不在KNN算法中體現(xiàn):()。

選項(xiàng):

A、切比雪夫距離

B、歐氏距離

C、余弦相似度

D、曼哈頓距離

答案:【余弦相似度】8.單選題:兩個(gè)向量的長(zhǎng)度分別為3和2,兩者之間的夾角為60度,則以下選項(xiàng)錯(cuò)誤的是()。

選項(xiàng):

A、余弦相似度為0.5

B、余弦相似度為正

C、余弦相似度沒(méi)法計(jì)算,因?yàn)闆](méi)給出具體坐標(biāo)值

D、余弦相似度的值與向量的長(zhǎng)度無(wú)關(guān),只和向量之間的夾角有關(guān)

答案:【余弦相似度沒(méi)法計(jì)算,因?yàn)闆](méi)給出具體坐標(biāo)值】9.單選題:關(guān)于KNN算法的描述,不正確的是()。

選項(xiàng):

A、可以用于分類

B、可以用于回歸

C、距離度量的方式通常用曼哈頓距離

D、K值的選擇一般選擇一個(gè)較小的值

答案:【距離度量的方式通常用曼哈頓距離】10.單選題:KNN算法在什么情況下效果較好?()

選項(xiàng):

A、樣本較多但典型性不好

B、樣本較少但典型性好

C、樣本呈團(tuán)狀分布

D、樣本呈鏈狀分布

答案:【樣本較少但典型性好】11.單選題:假設(shè)有6個(gè)二維數(shù)據(jù)點(diǎn):D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分時(shí)候,切分線為()。

選項(xiàng):

A、x=5

B、x=6

C、y=5

D、y=6

答案:【x=6】12.單選題:KD樹(shù)(K-DimensionTree)的描述中,不正確的是()。

選項(xiàng):

A、KD樹(shù)是二叉樹(shù)

B、KD樹(shù)可以用更高的效率來(lái)對(duì)空間進(jìn)行劃分

C、KD樹(shù)的結(jié)構(gòu)非常適合尋找最近鄰居和碰撞檢測(cè)

D、KD樹(shù)切分時(shí),從方差小的維度開(kāi)始切分

答案:【KD樹(shù)切分時(shí),從方差小的維度開(kāi)始切分】13.單選題:KNN算法在分類時(shí)選擇鄰居的依據(jù)是什么?

選項(xiàng):

A、隨機(jī)選擇

B、距離的遠(yuǎn)近

C、數(shù)據(jù)的標(biāo)簽

D、數(shù)據(jù)的維度

答案:【距離的遠(yuǎn)近】14.單選題:KNN算法在哪些情況下可能表現(xiàn)不佳?

選項(xiàng):

A、數(shù)據(jù)集較小

B、數(shù)據(jù)集較大且維度高

C、數(shù)據(jù)集不平衡

D、所有選項(xiàng)都是

答案:【數(shù)據(jù)集較大且維度高】15.單選題:在KNN算法中,如果K值設(shè)置得太小,可能會(huì)導(dǎo)致什么問(wèn)題?

選項(xiàng):

A、欠擬合

B、過(guò)擬合

C、計(jì)算復(fù)雜度增加

D、無(wú)法分類

答案:【過(guò)擬合】16.多選題:閔可夫斯基距離中的p取1或2時(shí)的閔氏距離是最為常用的,以下哪項(xiàng)是正確的:()。

選項(xiàng):

A、p取1時(shí)是曼哈頓距離

B、p取2時(shí)是歐氏距離

C、p取無(wú)窮時(shí)是切比雪夫距離

D、閔可夫斯基空間不同于牛頓力學(xué)的平坦空間

答案:【p取1時(shí)是曼哈頓距離;p取2時(shí)是歐氏距離;p取無(wú)窮時(shí)是切比雪夫距離;閔可夫斯基空間不同于牛頓力學(xué)的平坦空間】17.多選題:以下關(guān)于KNN說(shuō)法正確的是(多選)()。

選項(xiàng):

A、計(jì)算復(fù)雜度低

B、對(duì)數(shù)據(jù)沒(méi)有假設(shè)

C、對(duì)異常值不敏感

D、可解釋性好

答案:【計(jì)算復(fù)雜度低;對(duì)數(shù)據(jù)沒(méi)有假設(shè);對(duì)異常值不敏感】18.多選題:影響KNN算法效果的主要因素包括()。

選項(xiàng):

A、K的值

B、距離度量方式

C、決策規(guī)則

D、最鄰近數(shù)據(jù)的距離

答案:【K的值;距離度量方式;決策規(guī)則】19.多選題:KNN算法的缺點(diǎn)包括以下幾點(diǎn)?()

選項(xiàng):

A、可解釋性差,無(wú)法給出決策樹(shù)那樣的規(guī)則

B、對(duì)訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時(shí)候,對(duì)少數(shù)類的預(yù)測(cè)準(zhǔn)確率低

C、對(duì)異常值敏感

D、計(jì)算復(fù)雜性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時(shí)候

答案:【可解釋性差,無(wú)法給出決策樹(shù)那樣的規(guī)則;對(duì)訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時(shí)候,對(duì)少數(shù)類的預(yù)測(cè)準(zhǔn)確率低;計(jì)算復(fù)雜性高;空間復(fù)雜性高,尤其是特征數(shù)非常多的時(shí)候】20.多選題:KNN算法對(duì)數(shù)據(jù)的什么特性不太敏感?

選項(xiàng):

A、數(shù)據(jù)的類別

B、數(shù)據(jù)的分布

C、數(shù)據(jù)的尺度

D、數(shù)據(jù)的噪聲

答案:【數(shù)據(jù)的類別;數(shù)據(jù)的分布;數(shù)據(jù)的噪聲】21.單選題:KNN分類的時(shí)候,對(duì)新的樣本,根據(jù)其k個(gè)最近鄰的訓(xùn)練樣本的類別,通過(guò)多數(shù)表決等方式進(jìn)行預(yù)測(cè)。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】22.單選題:KNN沒(méi)有顯示的訓(xùn)練過(guò)程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來(lái),訓(xùn)練時(shí)間開(kāi)銷為0,等收到測(cè)試樣本后進(jìn)行處理。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】23.單選題:k近鄰法(k-NearestNeighbor,kNN)是一種比較成熟也是最簡(jiǎn)單的機(jī)器學(xué)習(xí)算法,可以用于分類,但不能用于回歸方法。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】24.單選題:兩個(gè)向量的余弦相似度越接近1,說(shuō)明兩者越相似。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】25.單選題:在KNN算法中,通過(guò)交叉驗(yàn)證選擇最優(yōu)的K值。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】決策樹(shù)決策樹(shù)課后測(cè)驗(yàn)1.單選題:決策樹(shù)算法通常如何處理類別特征?

選項(xiàng):

A、使用獨(dú)熱編碼

B、使用標(biāo)簽編碼

C、不需要特別處理

D、將類別特征轉(zhuǎn)換為數(shù)值特征

答案:【不需要特別處理】2.單選題:決策樹(shù)的哪個(gè)問(wèn)題可能導(dǎo)致過(guò)擬合?

選項(xiàng):

A、樹(shù)太深

B、樹(shù)太淺

C、特征太少

D、樣本數(shù)量太少

答案:【樹(shù)太深】3.單選題:決策樹(shù)算法中,剪枝的主要目的是什么?

選項(xiàng):

A、提高樹(shù)的準(zhǔn)確性

B、減少樹(shù)的復(fù)雜度

C、減少過(guò)擬合的風(fēng)險(xiǎn)

D、所有選項(xiàng)都是

答案:【減少過(guò)擬合的風(fēng)險(xiǎn)】4.單選題:關(guān)于CART算法,錯(cuò)誤的是()。

選項(xiàng):

A、可以處理樣本不平衡問(wèn)題

B、CART分類樹(shù)采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)

C、CART算法既可以處理分類問(wèn)題,也可以處理回歸問(wèn)題

D、CART算法采用信息增益率的大小來(lái)度量特征的各個(gè)劃分點(diǎn)

答案:【CART算法采用信息增益率的大小來(lái)度量特征的各個(gè)劃分點(diǎn)】5.單選題:ID3算法的缺點(diǎn)不包括()。

選項(xiàng):

A、ID3沒(méi)有剪枝策略,容易過(guò)擬合

B、信息增益準(zhǔn)則對(duì)可取值數(shù)目較多的特征有所偏好,類似“編號(hào)”的特征其信息增益接近于1

C、既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理

D、沒(méi)有考慮缺失值

答案:【既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理】6.單選題:以下那種說(shuō)法是錯(cuò)誤的()。

選項(xiàng):

A、信息增益=信息熵-條件熵

B、一個(gè)系統(tǒng)越是混亂,隨機(jī)變量的不確定性就越大,信息熵就越高

C、一個(gè)系統(tǒng)越是有序,信息熵就越低

D、中國(guó)足球隊(duì)?wèi)?zhàn)勝巴西足球隊(duì)的信息熵要小于中國(guó)乒乓球隊(duì)?wèi)?zhàn)勝巴西乒乓球隊(duì)的信息熵

答案:【中國(guó)足球隊(duì)?wèi)?zhàn)勝巴西足球隊(duì)的信息熵要小于中國(guó)乒乓球隊(duì)?wèi)?zhàn)勝巴西乒乓球隊(duì)的信息熵】7.單選題:哪種決策樹(shù)沒(méi)有剪枝操作()。

選項(xiàng):

A、ID3

B、C4.5

C、CART

D、以上都有剪枝操作

答案:【ID3】8.單選題:C4.5選擇屬性用的是()。

選項(xiàng):

A、信息增益

B、信息增益率

C、交叉熵

D、信息熵

答案:【信息增益率】9.單選題:以下關(guān)于剪枝操作說(shuō)法正確的是()。

選項(xiàng):

A、CART采用的是悲觀策略的預(yù)剪枝

B、ID3沒(méi)有剪枝策略

C、C4.5采用的是基于代價(jià)函數(shù)的后剪枝

D、以上說(shuō)法都不對(duì)

答案:【ID3沒(méi)有剪枝策略】10.單選題:以下關(guān)于決策樹(shù)算法說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、ID3算法選擇信息增益最大的特征作為當(dāng)前決策節(jié)點(diǎn)

B、C4.5算法選擇信息增益率來(lái)選擇屬性

C、C4.5算法不能用于處理不完整數(shù)據(jù)

D、CART算法選擇基尼系數(shù)來(lái)選擇屬性

答案:【C4.5算法不能用于處理不完整數(shù)據(jù)】11.單選題:我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹(shù)模型,為了使用較少的時(shí)間,可以:()。

選項(xiàng):

A、增加樹(shù)的深度

B、增大學(xué)習(xí)率

C、減少樹(shù)的深度

D、減少樹(shù)的數(shù)量

答案:【減少樹(shù)的深度】12.單選題:ID3選擇屬性用的是()。

選項(xiàng):

A、信息增益

B、信息增益率

C、交叉熵

D、信息熵

答案:【信息增益】13.單選題:關(guān)于C4.5算法,錯(cuò)誤的是()。

選項(xiàng):

A、C4.5算法采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)

B、C4.5算法可以處理非離散的數(shù)據(jù)

C、C4.5算法引入悲觀剪枝策略進(jìn)行后剪枝

D、C4.5算法最大的特點(diǎn)是克服了ID3對(duì)特征數(shù)目的偏重這一缺點(diǎn)

答案:【C4.5算法采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)】14.單選題:以下關(guān)于決策樹(shù)原理介紹錯(cuò)誤的有()。

選項(xiàng):

A、決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)

B、決策樹(shù)算法本質(zhì)上是貪心算法

C、決策樹(shù)生成過(guò)程中需要用到分割法

D、決策樹(shù)決策過(guò)程從根節(jié)點(diǎn)開(kāi)始

答案:【決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)】15.單選題:以下關(guān)于決策樹(shù)特點(diǎn)分析的說(shuō)法錯(cuò)誤的有()。

選項(xiàng):

A、推理過(guò)程容易理解,計(jì)算簡(jiǎn)單

B、算法考慮了數(shù)據(jù)屬性之間的相關(guān)性

C、算法自動(dòng)忽略了對(duì)模型沒(méi)有貢獻(xiàn)的屬性變量

D、算法容易造成過(guò)擬合

答案:【算法考慮了數(shù)據(jù)屬性之間的相關(guān)性】16.多選題:在決策樹(shù)中,節(jié)點(diǎn)分裂的常用標(biāo)準(zhǔn)不包括哪個(gè)?

選項(xiàng):

A、隨機(jī)選擇

B、信息增益

C、誤差最小化

D、距離度量

答案:【隨機(jī)選擇;誤差最小化;距離度量】17.多選題:決策樹(shù)的說(shuō)法正確的是()。

選項(xiàng):

A、它易于理解、可解釋性強(qiáng)

B、其可作為分類算法,也可用于回歸模型

C、CART使用的是二叉樹(shù)

D、不能處理連續(xù)型特征

答案:【它易于理解、可解釋性強(qiáng);其可作為分類算法,也可用于回歸模型;CART使用的是二叉樹(shù)】18.多選題:關(guān)于剪枝,以下算法正確的是:()。

選項(xiàng):

A、決策樹(shù)剪枝的基本策略有預(yù)剪枝和后剪枝

B、ID3算法沒(méi)有剪枝操作

C、剪枝是防止過(guò)擬合的手段

D、C4.5算法沒(méi)有剪枝操作

答案:【決策樹(shù)剪枝的基本策略有預(yù)剪枝和后剪枝;ID3算法沒(méi)有剪枝操作;剪枝是防止過(guò)擬合的手段】19.多選題:以下那種算法需要對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化()。

選項(xiàng):

A、邏輯回歸

B、決策樹(shù)

C、KNN

D、線性回歸

答案:【邏輯回歸;KNN;線性回歸】20.多選題:決策樹(shù)有哪些代表算法()。

選項(xiàng):

A、CNN

B、C4.5

C、CART

D、ID3

答案:【C4.5;CART;ID3】21.單選題:在決策樹(shù)算法中,樹(shù)的深度通常由樹(shù)的剪枝策略來(lái)決定。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】22.單選題:ID3和C4.5和CART都只能用于分類問(wèn)題,不能用于回歸問(wèn)題。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】23.單選題:ID3算法只能用于處理離散分布的特征。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】24.單選題:C4.5是通過(guò)代價(jià)復(fù)雜度剪枝。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】25.單選題:ID3算法的核心思想就是以信息增益來(lái)度量特征選擇,選擇信息增益最大的特征進(jìn)行分裂。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】集成學(xué)習(xí)集成學(xué)習(xí)課后測(cè)驗(yàn)1.單選題:XGBoost算法說(shuō)法錯(cuò)誤的是()

選項(xiàng):

A、XGBoost算法的目標(biāo)函數(shù)采用了一階泰勒展開(kāi)

B、XGBoost算法的速度要比GBDT快

C、XGBoost算法不要求對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化

D、XGBoost算法的效果通常優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)模型

答案:【XGBoost算法的目標(biāo)函數(shù)采用了一階泰勒展開(kāi)】2.單選題:以下關(guān)于GBDT算法說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、GBDT是由多棵回歸樹(shù)組成

B、GBDT泛化能力較強(qiáng)

C、GBDT使用的是放回采樣

D、GBDT需要使用剪枝操作

答案:【GBDT使用的是放回采樣】3.單選題:以下關(guān)于AdaBoost算法說(shuō)法正確的是()。

選項(xiàng):

A、AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)

B、在訓(xùn)練過(guò)程中,若某個(gè)樣本點(diǎn)已經(jīng)被準(zhǔn)確分類,則在構(gòu)造下一個(gè)訓(xùn)練集時(shí),該樣本的權(quán)重會(huì)下降

C、在投票時(shí),分類誤差小的弱分類器權(quán)重較小

D、以上說(shuō)法都不對(duì)

答案:【AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)】4.單選題:以下關(guān)于隨機(jī)森林(RandomForest)說(shuō)法正確的是()。

選項(xiàng):

A、隨機(jī)森林由若干決策樹(shù)組成,決策樹(shù)之間存在關(guān)聯(lián)性

B、隨機(jī)森林學(xué)習(xí)過(guò)程分為選擇樣本、選擇特征、構(gòu)建決策樹(shù)三個(gè)部分

C、隨機(jī)森林算法容易陷入過(guò)擬合

D、隨機(jī)森林構(gòu)建決策樹(shù)時(shí),是有放回的選取訓(xùn)練數(shù)據(jù)

答案:【隨機(jī)森林構(gòu)建決策樹(shù)時(shí),是有放回的選取訓(xùn)練數(shù)據(jù)】5.單選題:以下關(guān)于集成學(xué)習(xí)特性說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、集成學(xué)習(xí)需要各個(gè)弱分類器之間具備一定的差異性

B、弱分類器的錯(cuò)誤率不能高于0.5

C、集成多個(gè)線性分類器也無(wú)法解決非線性分類問(wèn)題

D、當(dāng)訓(xùn)練數(shù)據(jù)集較大時(shí),可分為多個(gè)子集,分別進(jìn)行訓(xùn)練分類器再合成

答案:【集成多個(gè)線性分類器也無(wú)法解決非線性分類問(wèn)題】6.單選題:在隨機(jī)森林里,你生成了幾百顆樹(shù)(T1,T2…..Tn),然后對(duì)這些樹(shù)的結(jié)果進(jìn)行綜合,下面關(guān)于隨機(jī)森林中每顆樹(shù)的說(shuō)法正確的是?()

選項(xiàng):

A、每棵樹(shù)是通過(guò)數(shù)據(jù)集的子集和特征的子集構(gòu)建的

B、每棵樹(shù)是通過(guò)所有的特征構(gòu)建的

C、每棵樹(shù)是通過(guò)所有的數(shù)據(jù)構(gòu)建的

D、以上都不對(duì)

答案:【每棵樹(shù)是通過(guò)數(shù)據(jù)集的子集和特征的子集構(gòu)建的】7.單選題:GBDT算法的描述,不正確的是()

選項(xiàng):

A、決策樹(shù)+Boosting=GBDT

B、GBDT算法主要是用了Boosting方法

C、GBDT與AdaBoost的對(duì)比,都是Boosting家族成員,使用弱分類器;都使用前向分步算法

D、梯度提升算法通過(guò)迭代地選擇一個(gè)梯度方向上的基函數(shù)來(lái)逐漸逼近局部極小值

答案:【梯度提升算法通過(guò)迭代地選擇一個(gè)梯度方向上的基函數(shù)來(lái)逐漸逼近局部極小值】8.單選題:以下那種算法不是集成學(xué)習(xí)算法()

選項(xiàng):

A、隨機(jī)森林

B、AdaBoost

C、XGBoost

D、決策樹(shù)

答案:【決策樹(shù)】9.單選題:隨機(jī)森林和GBDT的描述不正確的是()

選項(xiàng):

A、兩者都是由多棵樹(shù)組成,最終的結(jié)果都是由多棵樹(shù)一起決定

B、兩者都是使用了Boosting思想

C、隨機(jī)森林最終是多棵樹(shù)進(jìn)行多數(shù)表決(回歸問(wèn)題是取平均),而GBDT是加權(quán)融合

D、隨機(jī)森林每次迭代的樣本是從全部訓(xùn)練集中有放回抽樣形成的,而GBDT每次使用全部樣本

答案:【兩者都是使用了Boosting思想】10.單選題:LightGBM與XGBoost相比,主要的優(yōu)勢(shì)不包括()

選項(xiàng):

A、訓(xùn)練速度更快

B、內(nèi)存占用更低

C、僅支持決策樹(shù)作為基模型

D、采用直方圖優(yōu)化特征分裂

答案:【僅支持決策樹(shù)作為基模型】11.單選題:Adboost的優(yōu)點(diǎn)不包括()

選項(xiàng):

A、分類精度高

B、對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重

C、可以用各種回歸分類模型來(lái)構(gòu)建弱學(xué)習(xí)器,非常靈活

D、不容易發(fā)生過(guò)擬合

答案:【對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重】12.單選題:關(guān)于Bagging方法,以下說(shuō)法錯(cuò)誤的是()

選項(xiàng):

A、對(duì)各弱分類器的訓(xùn)練可以通過(guò)并行方式完成

B、最終分類結(jié)果是由各弱分類器以一定的方式投票決定的

C、由于各分類器是獨(dú)立的,弱分類器的訓(xùn)練數(shù)據(jù)也是相互獨(dú)立的

D、對(duì)各弱分類器的訓(xùn)練可以通過(guò)串行方式進(jìn)行

答案:【對(duì)各弱分類器的訓(xùn)練可以通過(guò)串行方式進(jìn)行】13.單選題:在隨機(jī)森林中,樹(shù)的隨機(jī)性主要體現(xiàn)在:

選項(xiàng):

A、隨機(jī)選擇訓(xùn)練數(shù)據(jù)和特征

B、隨機(jī)選擇超參數(shù)

C、隨機(jī)選擇模型類型

D、隨機(jī)選擇訓(xùn)練算法

答案:【隨機(jī)選擇訓(xùn)練數(shù)據(jù)和特征】14.單選題:Stacking方法與其他集成方法的主要不同是什么?

選項(xiàng):

A、僅使用一層模型

B、使用多層次的模型組合

C、他只適用于線性模型

D、無(wú)需求預(yù)測(cè)任務(wù)的存在

答案:【使用多層次的模型組合】15.單選題:XGBoost主要依賴于以下哪種數(shù)據(jù)結(jié)構(gòu)?

選項(xiàng):

A、矩陣

B、樹(shù)結(jié)構(gòu)

C、圖結(jié)構(gòu)

D、數(shù)據(jù)框

答案:【樹(shù)結(jié)構(gòu)】16.單選題:LightGBM采用了哪種特有的算法來(lái)處理大規(guī)模數(shù)據(jù)?

選項(xiàng):

A、梯度提升

B、基于直方圖的方法

C、隨機(jī)森林

D、支持向量機(jī)

答案:【基于直方圖的方法】17.單選題:XGBoost中的“Shrinkage”通常指的是:

選項(xiàng):

A、提高學(xué)習(xí)率

B、隨機(jī)選擇特征

C、對(duì)每棵樹(shù)的輸出進(jìn)行縮放

D、增加模型深度

答案:【對(duì)每棵樹(shù)的輸出進(jìn)行縮放】18.單選題:集成學(xué)習(xí)中的“Bagging”主要是通過(guò)什么方式減少方差?

選項(xiàng):

A、使用不同的特征子集

B、使用不同的模型架構(gòu)

C、多次抽樣訓(xùn)練數(shù)據(jù),生成多個(gè)模型

D、只使用單一模型

答案:【多次抽樣訓(xùn)練數(shù)據(jù),生成多個(gè)模型】19.多選題:下面關(guān)于隨機(jī)森林和梯度提升集成方法的說(shuō)法哪個(gè)是正確的?(多選)()

選項(xiàng):

A、隨機(jī)森林是基于Bagging的集成方法,通過(guò)并行訓(xùn)練多個(gè)決策樹(shù)并取多數(shù)投票(分類)或平均(回歸)得到結(jié)果

B、梯度提升是基于Boosting的集成方法,通過(guò)串行訓(xùn)練多個(gè)弱學(xué)習(xí)器,每個(gè)一個(gè)學(xué)習(xí)器糾正前一個(gè)的錯(cuò)誤

C、隨機(jī)森林對(duì)異常值更魯棒,梯度提升對(duì)異常值更敏感

D、兩者都能評(píng)估特征重要性E.隨機(jī)森林訓(xùn)練速度通??煊谔荻忍嵘?,因?yàn)榭刹⑿杏?jì)算

答案:【隨機(jī)森林是基于Bagging的集成方法,通過(guò)并行訓(xùn)練多個(gè)決策樹(shù)并取多數(shù)投票(分類)或平均(回歸)得到結(jié)果、梯度提升是基于Boosting的集成方法,通過(guò)串行訓(xùn)練多個(gè)弱學(xué)習(xí)器,讓后一個(gè)學(xué)習(xí)器糾正前一個(gè)的錯(cuò)誤、隨機(jī)森林對(duì)異常值更魯棒,梯度提升對(duì)異常值更敏感、兩者都能評(píng)估特征重要性、隨機(jī)森林訓(xùn)練速度通常快于梯度提升,因?yàn)榭刹⑿杏?jì)算】20.多選題:集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。

選項(xiàng):

A、隨機(jī)森林

B、AdaBoost

C、SVM

D、GBDT

答案:【隨機(jī)森林;AdaBoost;GBDT】21.多選題:GBDT由哪三個(gè)概念組成:()

選項(xiàng):

A、梯度下降(GradientDescent)

B、決策樹(shù)(DecisionTree)

C、集成學(xué)習(xí)(EnsembleLearning)

D、隨機(jī)森林(RandomForest)E.正則化(Regularization)

答案:【梯度下降(GradientDescent)、決策樹(shù)(DecisionTree)、集成學(xué)習(xí)(EnsembleLearning)】22.多選題:LightGBM與XGBoost相比,主要有以下幾個(gè)改進(jìn):(多選)()

選項(xiàng):

A、采用直方圖優(yōu)化(HistogramOptimization),減少特征分裂時(shí)的計(jì)算量

B、支持帶深度限制的按葉子生長(zhǎng)(Leaf-wise)策略,提升模型精度

C、引入特征并行與數(shù)據(jù)并行,加快大規(guī)模數(shù)據(jù)的訓(xùn)練速度

D、默認(rèn)使用L1和L2正則化,增強(qiáng)模型泛化能力(提示:XGBoost也支持正則化,非LightGBM獨(dú)有改進(jìn))E.對(duì)缺失值處理更高效,可自動(dòng)學(xué)習(xí)缺失值的分裂方向

答案:【采用直方圖優(yōu)化(HistogramOptimization),減少特征分裂時(shí)的計(jì)算量、支持帶深度限制的按葉子生長(zhǎng)(Leaf-wise)策略,提升模型精度、引入特征并行與數(shù)據(jù)并行,加快大規(guī)模數(shù)據(jù)的訓(xùn)練速度、對(duì)缺失值處理更高效,可自動(dòng)學(xué)習(xí)缺失值的分裂方向】23.單選題:隨機(jī)森林和GBDT都是使用了Bagging思想。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】24.單選題:LightGBM在建樹(shù)過(guò)程中,采用基于最大深度的Leaf-wise的垂直生長(zhǎng)算法。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】25.單選題:集成學(xué)習(xí)的數(shù)據(jù)不需要?dú)w一化或者標(biāo)準(zhǔn)化。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】26.單選題:XGBoost對(duì)損失函數(shù)做了二階泰勒展開(kāi),GBDT只用了一階導(dǎo)數(shù)信息,并且XGBoost還支持自定義損失函數(shù),只要損失函數(shù)一階、二階可導(dǎo)。()

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】27.單選題:對(duì)于大規(guī)模數(shù)據(jù)集,LightGBM通常比XGBoost更快。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】人工神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)課后測(cè)驗(yàn)1.單選題:感知機(jī)的輸出值的范圍是什么?

選項(xiàng):

A、0到1

B、-1到1

C、0到無(wú)窮大

D、任何實(shí)數(shù)

答案:【-1到1】2.單選題:以下哪項(xiàng)是感知機(jī)的缺陷?

選項(xiàng):

A、可以處理線性可分問(wèn)題

B、無(wú)法處理非線性可分問(wèn)題

C、計(jì)算效率高

D、簡(jiǎn)單易實(shí)現(xiàn)

答案:【無(wú)法處理非線性可分問(wèn)題】3.單選題:反向傳播算法的主要目的是:

選項(xiàng):

A、更新輸入數(shù)據(jù)

B、訓(xùn)練模型并優(yōu)化權(quán)重

C、初始化網(wǎng)絡(luò)參數(shù)

D、增加網(wǎng)絡(luò)深度

答案:【訓(xùn)練模型并優(yōu)化權(quán)重】4.單選題:在神經(jīng)元中,激活函數(shù)的主要作用是什么?

選項(xiàng):

A、增加模型復(fù)雜性

B、引入非線性

C、減少計(jì)算時(shí)間

D、處理缺失值

答案:【引入非線性】5.單選題:神經(jīng)網(wǎng)絡(luò)算法有時(shí)會(huì)出現(xiàn)過(guò)擬合的情況,那么采取以下哪些方法解決過(guò)擬合更為可行()。

選項(xiàng):

A、為參數(shù)選取多組初始值,分別訓(xùn)練,再選取一組作為最優(yōu)值

B、增大學(xué)習(xí)的步長(zhǎng)

C、減少訓(xùn)練數(shù)據(jù)集中數(shù)據(jù)的數(shù)量

D、設(shè)置一個(gè)正則項(xiàng)減小模型的復(fù)雜度

答案:【設(shè)置一個(gè)正則項(xiàng)減小模型的復(fù)雜度】6.單選題:Minsky在上世紀(jì)60年代末指出了神經(jīng)網(wǎng)絡(luò)算法的哪種缺點(diǎn),使得神經(jīng)網(wǎng)絡(luò)算法陷入低潮()。

選項(xiàng):

A、早期的神經(jīng)網(wǎng)絡(luò)算法需要訓(xùn)練的參數(shù)太多

B、早期的神經(jīng)網(wǎng)絡(luò)算法無(wú)法收斂

C、早期的神經(jīng)網(wǎng)絡(luò)算法無(wú)法處理非線性學(xué)習(xí)問(wèn)題

D、早期的神經(jīng)網(wǎng)絡(luò)的收斂速度太慢

答案:【早期的神經(jīng)網(wǎng)絡(luò)算法無(wú)法處理非線性學(xué)習(xí)問(wèn)題】7.單選題:為避免BP算法在迭代過(guò)程中出現(xiàn)局部極小值的問(wèn)題,那么采取以下哪種方法可行()。

選項(xiàng):

A、盡量減小迭代的學(xué)習(xí)率

B、在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低

C、令初始值為較大的值

D、以上做法都不可行

答案:【在每一輪迭代中都賦予一定的概率接受次優(yōu)解,但是概率隨迭代不斷降低】8.單選題:BP算法總結(jié)錯(cuò)誤的是()。

選項(xiàng):

A、算法只要知道上一層神經(jīng)元的閾值梯度,就能計(jì)算當(dāng)前層神經(jīng)元的閾值梯度和連接權(quán)值梯度

B、當(dāng)前層的連接權(quán)值梯度,取決于當(dāng)前層神經(jīng)元閾值梯度和上一層神經(jīng)元輸出

C、隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)

D、隱層閾值梯度取決于隱層神經(jīng)元輸出、輸出層閾值梯度和隱層與輸出層的連接權(quán)值

答案:【隱層的閾值梯度只跟本層的神經(jīng)元輸出值有關(guān)】9.單選題:以下關(guān)于學(xué)習(xí)率說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、學(xué)習(xí)率的選擇不能太大也不能太小

B、學(xué)習(xí)率太大會(huì)導(dǎo)致無(wú)法收斂

C、學(xué)習(xí)率太小會(huì)使得算法陷入局部極小點(diǎn)

D、學(xué)習(xí)率必須是固定不變的

答案:【學(xué)習(xí)率必須是固定不變的】10.單選題:關(guān)于BP算法反向傳播的說(shuō)法正確的是()。

選項(xiàng):

A、BP算法反向傳播的預(yù)測(cè)誤差值一般由真實(shí)標(biāo)簽值和預(yù)測(cè)標(biāo)簽值的差計(jì)算得來(lái)

B、BP算法反向傳播的目的是只對(duì)權(quán)值進(jìn)行更新

C、BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌t

D、BP算法更新量與步長(zhǎng)關(guān)系不大

答案:【BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌t】11.單選題:以下關(guān)于Sigmoid的特點(diǎn)說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、Sigmoid函數(shù)計(jì)算量小

B、可以將函數(shù)值的范圍壓縮到[0,1]

C、函數(shù)處處連續(xù)

D、趨向無(wú)窮的地方,函數(shù)變化很小,容易出現(xiàn)梯度消失的現(xiàn)象

答案:【Sigmoid函數(shù)計(jì)算量小】12.單選題:關(guān)于BP算法信號(hào)前向傳播的說(shuō)法正確的是()。

選項(xiàng):

A、A.BP算法信號(hào)傳播的順序是輸出層、隱層、輸入層。

B、

B、BP算法信號(hào)前向傳播的計(jì)算量跟輸入層神經(jīng)元數(shù)目無(wú)關(guān)

C、

C、BP算法在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)

D、

D、BP算法只有在隱層才有激活函數(shù)

答案:【

C、BP算法在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)】13.單選題:以下關(guān)于極限學(xué)習(xí)機(jī)(ELM)說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、ELM有多個(gè)隱藏層

B、ELM學(xué)習(xí)速度非???,因?yàn)樾枰碌淖兞繑?shù)目很少

C、ELM隱藏層的權(quán)值是初始時(shí)隨機(jī)賦值的,在迭代中不對(duì)其進(jìn)行更新

D、ELM也分輸入層、隱藏層和輸出層三層

答案:【ELM有多個(gè)隱藏層】14.單選題:關(guān)于BP算法優(yōu)缺點(diǎn)的說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、BP算法不能用于處理非線性分類問(wèn)題

B、BP算法訓(xùn)練時(shí)間較長(zhǎng)

C、BP算法容易陷入局部最小值

D、BP算法訓(xùn)練時(shí)候可能由于權(quán)值調(diào)整過(guò)大使得激活函數(shù)達(dá)到飽和

答案:【BP算法不能用于處理非線性分類問(wèn)題】15.單選題:關(guān)于BP算法特點(diǎn)描述錯(cuò)誤的是()。

選項(xiàng):

A、計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化

B、輸入信號(hào)順著輸入層、隱層、輸出層依次傳播

C、預(yù)測(cè)誤差需逆向傳播,順序是輸出層、隱層、輸入層

D、各個(gè)神經(jīng)元根據(jù)預(yù)測(cè)誤差對(duì)權(quán)值進(jìn)行調(diào)整

答案:【計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化】16.單選題:以下關(guān)于感知器說(shuō)法錯(cuò)誤的是:()。

選項(xiàng):

A、感知器是最簡(jiǎn)單的前饋式人工神經(jīng)網(wǎng)絡(luò)

B、感知器中的偏置只改變決策邊界的位置

C、單層感知器可以用于處理非線性學(xué)習(xí)問(wèn)題

D、可為感知器的輸出值設(shè)置閾值使其用于處理分類問(wèn)題

答案:【單層感知器可以用于處理非線性學(xué)習(xí)問(wèn)題】17.多選題:關(guān)于BP算法缺點(diǎn)的說(shuō)法正確的是()。

選項(xiàng):

A、BP算法更新沒(méi)有明確的公式,需要不斷試湊,才能決定隱層節(jié)點(diǎn)數(shù)量

B、BP算法涉及參數(shù)數(shù)量很多,因此更新速度慢

C、BP算法迭代速度不快,即使提高學(xué)習(xí)率也無(wú)濟(jì)于事

D、BP算法很容易陷入局部極小值問(wèn)題

答案:【BP算法更新沒(méi)有明確的公式,需要不斷試湊,才能決定隱層節(jié)點(diǎn)數(shù)量;BP算法涉及參數(shù)數(shù)量很多,因此更新速度慢;BP算法很容易陷入局部極小值問(wèn)題】18.多選題:關(guān)于BP算法優(yōu)點(diǎn)說(shuō)法正確的是()。

選項(xiàng):

A、BP算法能夠自適應(yīng)學(xué)習(xí)

B、BP算法有很強(qiáng)的非線性映射能力

C、BP算法反向傳播采用鏈?zhǔn)椒▌t,推導(dǎo)過(guò)程嚴(yán)謹(jǐn)

D、BP算法泛化能力不強(qiáng)

答案:【BP算法能夠自適應(yīng)學(xué)習(xí);BP算法有很強(qiáng)的非線性映射能力;BP算法反向傳播采用鏈?zhǔn)椒▌t,推導(dǎo)過(guò)程嚴(yán)謹(jǐn)】19.多選題:一般的多層感知器包含幾種類型層次的神經(jīng)元()。

選項(xiàng):

A、輸入層

B、輸出層

C、卷積層

D、隱藏層

答案:【輸入層;輸出層;隱藏層】20.多選題:隱藏層中常用的激活函數(shù)有(多選)()。

選項(xiàng):

A、Sigmoid

B、Cos

C、Tanh

D、ReLU

答案:【Sigmoid;Tanh;ReLU】21.單選題:感知機(jī)的基本組成是神經(jīng)元。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】22.單選題:BP算法陷入局部極小值的問(wèn)題可通過(guò)更換激活函數(shù)解決。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【錯(cuò)誤】23.單選題:BP算法的正向傳播是為獲取訓(xùn)練誤差。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】24.單選題:BP算法的反向傳播是為了對(duì)權(quán)值進(jìn)行調(diào)整。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】25.單選題:BP算法“喜新厭舊”,在學(xué)習(xí)新樣本后,會(huì)把舊樣本逐漸遺忘。

選項(xiàng):

A、正確

B、錯(cuò)誤

答案:【正確】支持向量機(jī)支持向量機(jī)課后測(cè)驗(yàn)1.單選題:SVM普遍使用的準(zhǔn)則描述不正確的是:()(n為特征數(shù),m為訓(xùn)練樣本數(shù)。)

選項(xiàng):

A、如果相較于m而言,n要大許多,即訓(xùn)練集數(shù)據(jù)量不夠支持我們訓(xùn)練一個(gè)復(fù)雜的非線性模型,我們選用邏輯回歸模型或者不帶核函數(shù)的支持向量機(jī)。

B、如果n較小,而且m大小中等,例如n在1-1000之間,而m在10-10000之間,使用高斯核函數(shù)的支持向量機(jī)。

C、支持向量機(jī)理論上不能處理太多的特征。

D、如果n較小,而m較大,例如n在1-1000之間,而m大于50000,則使用支持向量機(jī)會(huì)非常慢,解決方案是創(chuàng)造、增加更多的特征,然后使用邏輯回歸或不帶核函數(shù)的支持向量機(jī)。

答案:【支持向量機(jī)理論上不能處理太多的特征。】2.單選題:SVM原理描述不正確的是()。

選項(xiàng):

A、當(dāng)訓(xùn)練樣本線性可分時(shí),通過(guò)硬間隔最大化,學(xué)習(xí)一個(gè)線性分類器,即線性可分支持向量機(jī)

B、當(dāng)訓(xùn)練數(shù)據(jù)近似線性可分時(shí),引入松弛變量,通過(guò)軟間隔最大化,學(xué)習(xí)一個(gè)線性分類器,即線性支持向量機(jī)

C、當(dāng)訓(xùn)練數(shù)據(jù)線性不可分時(shí),通過(guò)使用核技巧及軟間隔最大化,學(xué)習(xí)非線性支持向量機(jī)

D、SVM的基本模型是在特征空間中尋找間隔最小化的分離超平面的線性分類器

答案:【SVM的基本模型是在特征空間中尋找間隔最小化的分離超平面的線性分類器】3.單選題:支持向量機(jī)的主要目標(biāo)是:

選項(xiàng):

A、最小化訓(xùn)練誤差

B、最大化邊界間隔

C、降低模型復(fù)雜性

D、增加特征數(shù)量

答案:【最大化邊界間隔】4.單選題:支持向量機(jī)的損失函數(shù)通常是:

選項(xiàng):

A、均方誤差

B、交叉熵

C、Hinge損失

D、指數(shù)損失

答案:【Hinge損失】5.單選題:在支持向量機(jī)中,支持向量是指:

選項(xiàng):

A、離決策邊界最遠(yuǎn)的樣本

B、決策邊界上的樣本

C、隨機(jī)選擇的樣本

D、所有樣本

答案:【決策邊界上的樣本】6.單選題:SVM的主要缺點(diǎn)之一是:

選項(xiàng):

A、適用范圍廣

B、對(duì)于高維數(shù)據(jù)表現(xiàn)良好

C、計(jì)算復(fù)雜度高

D、易于理解和實(shí)現(xiàn)

答案:【計(jì)算復(fù)雜度高】7.單選題:以下哪種情況更適合使用SVM?

選項(xiàng):

A、大量噪聲數(shù)據(jù)

B、特征數(shù)量遠(yuǎn)大于樣本數(shù)量

C、數(shù)據(jù)線性可分且規(guī)模較小

D、類別不平衡明顯

答案:【數(shù)據(jù)線性可分且規(guī)模較小】8.單選題:關(guān)于支持向量機(jī)中硬間隔和軟間隔的說(shuō)法錯(cuò)誤的是()。

選項(xiàng):

A、硬間隔要求所有樣本都能被超平面正確分隔,適用于線性可分?jǐn)?shù)據(jù)

B、軟間隔允許部分樣本被錯(cuò)誤分類或落在間隔內(nèi),適用于近似線性可分?jǐn)?shù)據(jù)

C、硬間隔通過(guò)引入松弛變量(SlackVariable)提高模型魯棒性(提示:松弛變量是軟間隔的核心機(jī)制)

D、軟間隔的目標(biāo)函數(shù)會(huì)增加對(duì)松弛變量的懲罰項(xiàng),平衡分類精度與模型泛化能力

答案:【硬間隔通過(guò)引入松弛變量(SlackVariable)提高模型魯棒性】9.單選題:對(duì)于在原空間中線性不可分問(wèn)題,支持向量機(jī)()。

選項(xiàng):

A、在原空間中尋找非線性函數(shù)的劃分?jǐn)?shù)據(jù)

B、無(wú)法處理

C、在原空間中尋找線性函數(shù)劃分?jǐn)?shù)據(jù)

D、將數(shù)據(jù)映射到核空間中

答案:【將數(shù)據(jù)映射到核空間中】10.單選題:一個(gè)正例(2,3),一個(gè)負(fù)例(0,-1),下面哪個(gè)是SVM超平面?()

選項(xiàng):

A、2x-y=0

B、x+y-2=0

C、x-y+1=0

D、3x+2y-5=0

答案:【2x-y=0】11.單選題:SVM中的代價(jià)參數(shù)C表示什么?

選項(xiàng):

A、交叉驗(yàn)證的次數(shù)

B、用到的核函數(shù)

C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡

D、以上都不對(duì)

答案:【在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡】12.單選題:SVM算法的性能取決于:()

選項(xiàng):

A、核函數(shù)的選擇

B、核函數(shù)的參數(shù)

C、軟間隔參數(shù)C

D、以上所有

答案:【以上所有】13.單選題:在SVM中,margin的含義是()

選項(xiàng):

A、差額

B、損失誤差

C、間隔

D、幅度

答案:【間隔】14.單選題:線性SVM和一般線性分類器的區(qū)別主要是:()。

選項(xiàng):

A、是否進(jìn)行了空間映射

B、是否確保間隔最大化

C、是否能處理線性不可分問(wèn)題

D、訓(xùn)練誤差通常較低

答案:【是否確保間隔最大化】15.單選題:SVM算法的最小時(shí)間復(fù)雜度是O(n^2)?;谶@一點(diǎn),以下哪種規(guī)格的數(shù)據(jù)集并不適用于該算法?()

選項(xiàng):

A、大數(shù)據(jù)集

B、小數(shù)據(jù)集

C、中數(shù)據(jù)集

D、不受數(shù)據(jù)集大小的影響

答案:【大數(shù)據(jù)集】16.單選題:如果一個(gè)樣本空間線性可分,那么,我們能找到()個(gè)平面來(lái)劃分樣本。

選項(xiàng):

A、不確定

B、1

C、無(wú)數(shù)

D、2

答案:【無(wú)數(shù)】17.單選題:關(guān)于各類核函數(shù)的優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:()。

選項(xiàng):

A、線性核計(jì)算簡(jiǎn)單,可解釋性強(qiáng)

B、高斯核能夠應(yīng)對(duì)較為復(fù)雜的數(shù)據(jù)

C、多項(xiàng)式核需要多次特征轉(zhuǎn)換

D、高斯核計(jì)算簡(jiǎn)單,不容易過(guò)擬合

答案:【高斯核計(jì)算簡(jiǎn)單,不容易過(guò)擬合】18.多選題:關(guān)于SVM的描述正確的是:()

選項(xiàng):

A、支持向量機(jī)模型定義在特征空間上的間隔最大的線性分類器

B、支持向量機(jī)可以通過(guò)核技巧,這使之成為實(shí)質(zhì)上的非線性分類器

C、支持向量機(jī)的學(xué)習(xí)策略就是間隔最大化

D、支持向量機(jī)訓(xùn)練時(shí)候,數(shù)據(jù)不需要?dú)w一化或者標(biāo)準(zhǔn)化

答案:【支持向量機(jī)模型定義在特征空間上的間隔最大的線性分類器;支持向量機(jī)可以通過(guò)核技巧,這使之成為實(shí)質(zhì)上的非線性分類器;支持向量機(jī)的學(xué)習(xí)策略就是間隔最大化】19.多選題:下面關(guān)于支持向量機(jī)的描述正確的是()。

選項(xiàng):

A、是一種監(jiān)督學(xué)習(xí)的方法

B、可用于多分類的問(wèn)題

C、支持非線性的核函數(shù)

D、是一種生成模型

答案:【是一種監(jiān)督學(xué)習(xí)的方法;可用于多分類的問(wèn)題;支持非線性的核函數(shù)】20.多選題:支持向量機(jī)有哪些常用的核函數(shù)()。

選項(xiàng):

A、高斯核

B、拉普拉斯核

C、線性核

D、多項(xiàng)式核

答案:【高斯核;線性核;多項(xiàng)式核】21.多選題:以下關(guān)于支持向量機(jī)的說(shuō)法正確的是()。

選項(xiàng):

A、SVM的核心是找到能最大化兩類樣本間隔的超平面

B、核函數(shù)可將線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分

C、硬間隔SVM適用于線性可分?jǐn)?shù)據(jù),不允許樣本分類錯(cuò)誤

D、軟間隔SVM通過(guò)引入松弛變量,允許少量樣本落在間隔內(nèi)或分類錯(cuò)誤E.SVM在處理小樣本、高維數(shù)據(jù)時(shí)表現(xiàn)較好,但對(duì)大規(guī)模數(shù)據(jù)訓(xùn)練效率較低

答案:【SVM的核心是找到能最大化兩類樣本間隔的超平面、核函數(shù)可將線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分、硬間隔SVM適用于線性可分?jǐn)?shù)據(jù),不允許樣本分類錯(cuò)誤、軟間隔SVM通過(guò)引入松弛變量,允許少量樣本落在間隔內(nèi)或分類錯(cuò)誤、SVM在處理小樣本、高維數(shù)據(jù)時(shí)表現(xiàn)較好,但對(duì)大規(guī)模數(shù)據(jù)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論