機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學(xué)_第1頁
機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學(xué)_第2頁
機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學(xué)_第3頁
機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學(xué)_第4頁
機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學(xué)_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋長春理工大學(xué)第一章單元測試

下列方法為科學(xué)推理的兩大手段之一的是()。

A:監(jiān)督B:描述C:假設(shè)D:歸納

答案:歸納下列為統(tǒng)計(jì)學(xué)習(xí)的代表性技術(shù)的是()。

A:支持向量機(jī)B:BP算法C:決策樹D:感知機(jī)

答案:支持向量機(jī)根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可大致分為()。

A:分類學(xué)習(xí)B:多分類學(xué)習(xí)C:監(jiān)督學(xué)習(xí)D:無監(jiān)督學(xué)習(xí)

答案:監(jiān)督學(xué)習(xí);無監(jiān)督學(xué)習(xí)我們想要預(yù)測的值是離散的則把此類學(xué)習(xí)任務(wù)稱為回歸。()

A:對B:錯(cuò)

答案:錯(cuò)我們想要預(yù)測的是連續(xù)值則把此類學(xué)習(xí)任務(wù)稱為分類。()

A:錯(cuò)B:對

答案:錯(cuò)對于一個(gè)只涉及兩個(gè)類別的二分類任務(wù),通常我們稱其中一個(gè)為正類,另一個(gè)為反類。()

A:錯(cuò)B:對

答案:對學(xué)得模型后可以使用模型進(jìn)行預(yù)測的過程稱為“測試”,被預(yù)測的樣本稱為“測試樣本”。()

A:對B:錯(cuò)

答案:對在《人工智能手冊》一書中,將機(jī)器學(xué)習(xí)劃分為“機(jī)械學(xué)習(xí)”,“示教學(xué)習(xí)”,“類比學(xué)習(xí)”,“歸納學(xué)習(xí)”四種。()

A:對B:錯(cuò)

答案:對核方法是機(jī)器學(xué)習(xí)中統(tǒng)計(jì)學(xué)習(xí)的一種。()

A:對B:錯(cuò)

答案:對假設(shè)樣本空間Z和假設(shè)空間H都是離散的,令P(h|X,?a)代表算法?a基于訓(xùn)練數(shù)據(jù)X產(chǎn)生假設(shè)h的概率,再領(lǐng)f代表我們希望學(xué)習(xí)的真實(shí)目標(biāo)函數(shù)。那么?a在訓(xùn)練集之外的所有樣本上的誤差為。()

A:錯(cuò)B:對

答案:錯(cuò)

第二章單元測試

下面對誤差的有關(guān)說法正確的是()。

A:學(xué)習(xí)器在訓(xùn)練集上的誤差是泛化誤差B:將分類錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例稱為誤差C:學(xué)習(xí)器實(shí)際預(yù)測輸出與樣本的真實(shí)輸出之間的差異稱為誤差D:學(xué)習(xí)器在新樣本的上的誤差是訓(xùn)練誤差

答案:學(xué)習(xí)器實(shí)際預(yù)測輸出與樣本的真實(shí)輸出之間的差異稱為誤差下列對分類閾值相關(guān)概念描述正確的是()。

A:根據(jù)實(shí)值或概率的預(yù)測結(jié)果對樣本進(jìn)行排序,最可能的排在最后B:小于閾值為反類C:根據(jù)實(shí)值或概率的預(yù)測結(jié)果對樣本進(jìn)行排序,最不可能的排在前面D:大于閾值為反類

答案:小于閾值為反類下列說法正確的是()。

A:將查準(zhǔn)率為縱軸,查全率為橫軸作圖就是P-R曲線B:查準(zhǔn)率P=C:查準(zhǔn)率高時(shí),查全率也很高D:TP+FP+TN+FN=樣例總數(shù)

答案:將查準(zhǔn)率為縱軸,查全率為橫軸作圖就是P-R曲線;TP+FP+TN+FN=樣例總數(shù)我們把分類錯(cuò)誤的樣本數(shù)占總數(shù)的比例稱為錯(cuò)誤率。()

A:錯(cuò)B:對

答案:對學(xué)習(xí)器在訓(xùn)練集上的誤差稱為訓(xùn)練誤差或經(jīng)驗(yàn)誤差。()

A:錯(cuò)B:對

答案:對有這樣一個(gè)樹葉訓(xùn)練樣本學(xué)習(xí)器,最后他的分類結(jié)果誤以為綠色的都是樹葉,他這屬于過擬合模型。()

A:對B:錯(cuò)

答案:錯(cuò)有這樣一個(gè)樹葉訓(xùn)練樣本學(xué)習(xí)器,最后他的分類結(jié)果誤以為樹葉必須都有鋸齒,他這屬于過擬合模型。()

A:對B:錯(cuò)

答案:對若一個(gè)學(xué)習(xí)器的ROC曲線被另一個(gè)學(xué)習(xí)器完全包住,則必然是后者的性能優(yōu)于前者。()

A:錯(cuò)B:對

答案:對對于一個(gè)二分類問題,可根據(jù)樣例情況的真實(shí)類別和學(xué)習(xí)器預(yù)測類別的組合劃分為真正例,假正例,真反例和假反例。()

A:錯(cuò)B:對

答案:對平衡點(diǎn)就是一個(gè)度量,他是查準(zhǔn)率=查全率時(shí)的取值。()

A:對B:錯(cuò)

答案:對

第三章單元測試

構(gòu)建一個(gè)最簡單的線性回歸模型需要幾個(gè)系數(shù)(只有一個(gè)特征)()

A:2B:4C:3D:1

答案:2回歸問題和分類問題的區(qū)別是?()

A:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的B:回歸問題有標(biāo)簽,分類問題沒有C:回歸問題與分類問題在輸入屬性值上要求不同D:回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的

答案:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的以下關(guān)于分類問題的說法正確的是?()

A:分類屬于非監(jiān)督學(xué)習(xí)B:回歸問題在一定條件下可被轉(zhuǎn)化為多分類問題C:分類屬于監(jiān)督學(xué)習(xí)D:二分類問題可以轉(zhuǎn)化成回歸問題

答案:分類屬于監(jiān)督學(xué)習(xí)線性回歸能完成的任務(wù)是()

A:預(yù)測連續(xù)值B:預(yù)測離散值C:聚類D:分類

答案:預(yù)測連續(xù)值為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?()

A:直方圖B:散點(diǎn)圖C:餅狀圖D:柱形圖

答案:散點(diǎn)圖下面哪些問題用到的是分類算法?()

A:根據(jù)房屋大小、衛(wèi)生間數(shù)量等特征預(yù)估房價(jià)B:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?C:根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?D:身高1.85m,體重100kg的男人穿什么尺碼的T恤?

答案:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?;根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?;身高1.85m,體重100kg的男人穿什么尺碼的T恤?對數(shù)幾率回歸與多元回歸分析有哪些不同之處?()

A:多元回歸的預(yù)測結(jié)果是數(shù)值B:多元回歸用來實(shí)現(xiàn)回歸問題C:對數(shù)幾率回歸用來實(shí)現(xiàn)分類問題D:對數(shù)幾率回歸用來預(yù)測事件發(fā)生的概率

答案:多元回歸的預(yù)測結(jié)果是數(shù)值;多元回歸用來實(shí)現(xiàn)回歸問題;對數(shù)幾率回歸用來實(shí)現(xiàn)分類問題;對數(shù)幾率回歸用來預(yù)測事件發(fā)生的概率對數(shù)幾率回歸的輸入特征一定是離散的。()

A:對B:錯(cuò)

答案:錯(cuò)多元線性回歸也可以用最小二乘法求解最優(yōu)參數(shù)。()

A:錯(cuò)B:對

答案:對對數(shù)幾率回歸可以用來做線性回歸問題。()

A:錯(cuò)B:對

答案:錯(cuò)

第四章單元測試

對決策樹進(jìn)行剪枝處理的主要目的是什么()。

A:避免欠擬合B:避免過擬合,降低泛化能力C:提高對訓(xùn)練集的學(xué)習(xí)能力D:避免過擬合,提升泛化能力

答案:避免過擬合,提升泛化能力關(guān)于決策樹結(jié)點(diǎn)劃分指標(biāo)描述正確的是()。

A:類別非純度越大越好B:信息增益率越小越好C:信息增益越大越好D:基尼指數(shù)越大越好

答案:信息增益越大越好在我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時(shí)間,可以采用()。

A:增加樹的深度B:增加學(xué)習(xí)率C:減少樹的數(shù)量D:減少樹的深度

答案:減少樹的深度下列關(guān)于極大似然估計(jì),說法正確的是()。

A:如果極大似然估計(jì)存在,那么它的解一定是唯一的B:極大似然估計(jì)可能并不存在C:極大似然估計(jì)總是存在D:如果極大似然估計(jì)存在,那么它的解可能不是唯一的

答案:極大似然估計(jì)可能并不存在;如果極大似然估計(jì)存在,那么它的解可能不是唯一的在分類樹中,什么指標(biāo)可以作為二叉分裂的準(zhǔn)則()。

A:互熵B:RSSC:基尼指數(shù)D:分類錯(cuò)誤率

答案:互熵;基尼指數(shù);分類錯(cuò)誤率決策樹的適用面較廣,對于分類應(yīng)用和回歸應(yīng)用,決策樹都可以被用來構(gòu)建模型。()

A:錯(cuò)B:對

答案:對決策樹是基于樹結(jié)構(gòu)來進(jìn)行決策的,決策樹學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化能力強(qiáng)的決策樹。()

A:錯(cuò)B:對

答案:對如果對決策樹進(jìn)行剪枝可以減小決策樹的復(fù)雜度,提高決策樹的專一性能力。()

A:對B:錯(cuò)

答案:錯(cuò)預(yù)剪枝決策樹通常比后剪枝決策樹保留了更多的分支。()

A:對B:錯(cuò)

答案:錯(cuò)決策樹本身是一種貪心的策略,不一定能夠得到全局的最優(yōu)解。()

A:對B:錯(cuò)

答案:對訓(xùn)練算法的目的就是要讓模型擬合訓(xùn)練數(shù)據(jù)。()

A:錯(cuò)B:對

答案:錯(cuò)當(dāng)我們說模型訓(xùn)練結(jié)果過擬合的時(shí)候,意思是模型的泛化能力很強(qiáng)。()

A:錯(cuò)B:對

答案:錯(cuò)

第五章單元測試

一個(gè)含有2個(gè)隱層的前饋神經(jīng)網(wǎng)絡(luò),神經(jīng)元個(gè)數(shù)都為20,輸入和輸出分別有8和5個(gè)神經(jīng)元,這個(gè)網(wǎng)絡(luò)的權(quán)重和偏置數(shù)分別是多少?()

A:3000,32B:3200,45C:660,45D:16000,48

答案:660,45關(guān)于模型參數(shù)的描述,錯(cuò)誤的是?()

A:每一次Epoch都會對之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小B:訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中C:在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整的依據(jù)是基于損失函數(shù)不斷減少D:模型參數(shù)量越多越好,但沒有固定的對應(yīng)規(guī)則

答案:模型參數(shù)量越多越好,但沒有固定的對應(yīng)規(guī)則以下關(guān)于反向傳播算法,描述不正確的是()

A:該算法可用于卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練B:該算法可用于深度學(xué)習(xí)模型訓(xùn)練C:反向傳播算法是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的主要方法D:該算法不依賴于模型預(yù)測誤差

答案:該算法不依賴于模型預(yù)測誤差反向傳播算法一開始計(jì)算的是什么內(nèi)容的梯度?()

A:各個(gè)輸入樣本的平方差之和B:各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和C:預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差D:各個(gè)權(quán)重的平方差之和加上各個(gè)偏置的平方差之和

答案:預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差下面關(guān)于單個(gè)神經(jīng)元輸入輸出錯(cuò)誤的是?()

A:一個(gè)神經(jīng)元可以擁有多個(gè)輸入但只有一個(gè)輸出B:一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出C:一個(gè)神經(jīng)元只能擁有一個(gè)輸入和一個(gè)輸出D:一個(gè)神經(jīng)元只能擁有一個(gè)輸入但可以有多個(gè)輸出

答案:一個(gè)神經(jīng)元可以擁有多個(gè)輸入但只有一個(gè)輸出;一個(gè)神經(jīng)元只能擁有一個(gè)輸入和一個(gè)輸出;一個(gè)神經(jīng)元只能擁有一個(gè)輸入但可以有多個(gè)輸出下面有關(guān)神經(jīng)網(wǎng)絡(luò)的說法,正確的是?()

A:神經(jīng)網(wǎng)絡(luò)的訓(xùn)練主要是針對神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置進(jìn)行一定的調(diào)整,使得代價(jià)函數(shù)極小化B:神經(jīng)網(wǎng)絡(luò)神經(jīng)元的輸出都是傳給其他神經(jīng)元,不能再反饋回來C:均方差損失函數(shù)是神經(jīng)網(wǎng)絡(luò)常用的一種代價(jià)函數(shù)D:神經(jīng)網(wǎng)絡(luò)不同層次的神經(jīng)元可以使用不同的激活函數(shù)

答案:神經(jīng)網(wǎng)絡(luò)的訓(xùn)練主要是針對神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置進(jìn)行一定的調(diào)整,使得代價(jià)函數(shù)極小化;均方差損失函數(shù)是神經(jīng)網(wǎng)絡(luò)常用的一種代價(jià)函數(shù);神經(jīng)網(wǎng)絡(luò)不同層次的神經(jīng)元可以使用不同的激活函數(shù)激活函數(shù)通常具有以下哪些性質(zhì)?()

A:非線性B:單調(diào)性C:可微性D:計(jì)算簡單

答案:非線性;單調(diào)性;可微性;計(jì)算簡單權(quán)重和偏置都可以全零初始化。()

A:對B:錯(cuò)

答案:錯(cuò)模型訓(xùn)練時(shí)新樣本的加入會對已經(jīng)學(xué)習(xí)的結(jié)果有影響。()

A:錯(cuò)B:對

答案:對反向傳播算法傳遞的是輸入信息。()

A:對B:錯(cuò)

答案:錯(cuò)

第六章單元測試

下面有關(guān)支持向量的主要思想正確的是()。

A:最大化支持向量到超平面的距離。B:最小化支持向量到超平面的距離C:最小化所有樣本到超平面的距離D:最大化負(fù)樣本到超平面的距離

答案:最大化支持向量到超平面的距離。在支持向量機(jī)中,如果線性可分則應(yīng)該使用什么類型的核函數(shù)()。

A:徑向基函數(shù)B:二分類函數(shù)C:二次多項(xiàng)核函數(shù)D:線性核函數(shù)

答案:線性核函數(shù)在支持向量機(jī)中,以下陳述正確的是()。

A:支持向量機(jī)是一種監(jiān)督學(xué)習(xí)算法B:支持向量機(jī)只能用于二分類問題C:支持向量機(jī)通過找到最大間隔超平面來分隔數(shù)據(jù)D:在非線性可分的情況下,支持向量機(jī)可以通過使用核函數(shù)將數(shù)據(jù)映射到高維空間來找到分隔超平面

答案:支持向量機(jī)是一種監(jiān)督學(xué)習(xí)算法;支持向量機(jī)通過找到最大間隔超平面來分隔數(shù)據(jù);在非線性可分的情況下,支持向量機(jī)可以通過使用核函數(shù)將數(shù)據(jù)映射到高維空間來找到分隔超平面支持向量機(jī)形式是要求所有樣本均滿足約束,即所有樣本都必須劃分正確,這成為軟間隔。()

A:錯(cuò)B:對

答案:對支持向量機(jī)只能用于二分類問題。()

A:對B:錯(cuò)

答案:錯(cuò)在支持向量機(jī)中,我們總是需要找到一個(gè)可以完美分類所有訓(xùn)練樣本的超平面。()

A:對B:錯(cuò)

答案:錯(cuò)支持向量機(jī)中可以通過引入核函數(shù)來處理線性不可分的數(shù)據(jù)。()

A:錯(cuò)B:對

答案:對在支持向量機(jī)中,支持向量是離決策邊界最近的那些點(diǎn)。()

A:對B:錯(cuò)

答案:對支持向量機(jī)是一種無監(jiān)督學(xué)習(xí)算法。()

A:對B:錯(cuò)

答案:錯(cuò)在支持向量機(jī)中,軟間隔是為了處理線性不可分的情況。()

A:對B:錯(cuò)

答案:對

第七章單元測試

()是現(xiàn)在新出現(xiàn)的人工智能的研究方向。

A:類腦人工智能B:貝葉斯網(wǎng)絡(luò)C:深度學(xué)習(xí)D:人工神經(jīng)元網(wǎng)絡(luò)

答案:類腦人工智能下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴關(guān)系()。

A:V型結(jié)構(gòu)B:同父結(jié)構(gòu)C:順序結(jié)構(gòu)D:選擇結(jié)構(gòu)

答案:選擇結(jié)構(gòu)最小風(fēng)險(xiǎn)貝葉斯分類器將待判別的樣本分類到使得樣本的后驗(yàn)概率達(dá)到最大的那個(gè)類中。()

A:對B:錯(cuò)

答案:錯(cuò)樸素貝葉斯假定所有的特征在數(shù)據(jù)集中的作用是同樣重要和獨(dú)立的。()

A:錯(cuò)B:對

答案:對貝葉斯定理的適用條件是條件變量之間的獨(dú)立性。()

A:錯(cuò)B:對

答案:對邏輯回歸和樸素貝葉斯都有對屬性特征獨(dú)立的要求。()

A:對B:錯(cuò)

答案:錯(cuò)模型泛化能力與訓(xùn)練樣本數(shù)量無關(guān)。()

A:對B:錯(cuò)

答案:錯(cuò)

第八章單元測試

下面有關(guān)隨機(jī)森林的陳述正確的是()。

A:隨機(jī)森林只包含一個(gè)決策樹B:隨機(jī)森林不能解決分類問題C:隨機(jī)森林中的每棵樹都是在完全相同的數(shù)據(jù)集上訓(xùn)練的D:隨機(jī)森林是Bagging上的一個(gè)變體。

答案:隨機(jī)森林是Bagging上的一個(gè)變體。在Boosting算法中,以下哪個(gè)陳述是正確的()。

A:Boosting算法中的所有弱學(xué)習(xí)器的權(quán)重都是相等的B:Boosting算法試圖降低偏差C:Boosting算法是一種并行的集成學(xué)習(xí)方法D:Boosting算法中的每一個(gè)弱學(xué)習(xí)器都是獨(dú)立訓(xùn)練的

答案:Boosting算法試圖降低偏差在Bagging算法中,以下哪個(gè)陳述是正確的()。

A:Bagging是并行式集成學(xué)習(xí)方法中最著名的代表B:Bagging算法在不剪枝決策樹,神經(jīng)網(wǎng)絡(luò)等易受到樣本擾動的學(xué)習(xí)器上效果更加明顯C:Bagging中的每一個(gè)基學(xué)習(xí)器都是獨(dú)立訓(xùn)練的D:從偏差-方差角度來看,Bagging主要關(guān)注降低方差

答案:Bagging是并行式集成學(xué)習(xí)方法中最著名的代表;Bagging算法在不剪枝決策樹,神經(jīng)網(wǎng)絡(luò)等易受到樣本擾動的學(xué)習(xí)器上效果更加明顯;Bagging中的每一個(gè)基學(xué)習(xí)器都是獨(dú)立訓(xùn)練的;從偏差-方差角度來看,Bagging主要關(guān)注降低方差Bagging和Boosting都是通過改變訓(xùn)練數(shù)據(jù)的分布來生成基學(xué)習(xí)器。()

A:錯(cuò)B:對

答案:對在AdaBoost算法中每一個(gè)基學(xué)習(xí)器的權(quán)重是相等的。()

A:對B:錯(cuò)

答案:錯(cuò)隨機(jī)森林算法是一種特殊的Bagging算法,他在構(gòu)建決策樹時(shí)引入了額外的隨機(jī)性。()

A:錯(cuò)B:對

答案:對在集成學(xué)習(xí)中,基學(xué)習(xí)器的多樣性越大,集成的泛化能力就越強(qiáng)。()

A:對B:錯(cuò)

答案:對在集成學(xué)習(xí)中,只有當(dāng)基學(xué)習(xí)器的性能超過隨機(jī)猜測時(shí),集成才可能有效。()

A:對B:錯(cuò)

答案:對Boosting算法中的基學(xué)習(xí)器是串行生成的。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論