北京郵電大學(xué)《機(jī)器學(xué)習(xí)》2024 - 2025 學(xué)年第一學(xué)期期末試卷_第1頁(yè)
北京郵電大學(xué)《機(jī)器學(xué)習(xí)》2024 - 2025 學(xué)年第一學(xué)期期末試卷_第2頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余1頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

(第2頁(yè))制卷人簽名:制卷日期制卷人簽名:制卷日期:審核人簽名::審核日期:………………………………………………裝……訂……線…………………學(xué)院專(zhuān)業(yè)/班級(jí)學(xué)號(hào)姓名題號(hào)一二三四五六七八總分閱卷教師得分………………一、選擇題(總共10題,每題3分,在每小題給出的四個(gè)選項(xiàng)中,只有一項(xiàng)是符合題目要求的,請(qǐng)將正確答案的序號(hào)填在題后的括號(hào)內(nèi))1.以下哪種算法不屬于無(wú)監(jiān)督學(xué)習(xí)?()A.決策樹(shù)B.聚類(lèi)算法C.主成分分析D.自編碼器2.在K近鄰算法中,K值的選擇對(duì)模型性能有重要影響,當(dāng)K值較小時(shí),模型會(huì)()。A.更復(fù)雜,偏差小,方差大B.更簡(jiǎn)單,偏差大,方差小C.更復(fù)雜,偏差大,方差小D.更簡(jiǎn)單,偏差小,方差大3.邏輯回歸模型中,用于衡量模型對(duì)樣本分類(lèi)能力的指標(biāo)是()。A.均方誤差B.交叉熵?fù)p失C.準(zhǔn)確率D.F1值4.以下關(guān)于梯度下降法的說(shuō)法,錯(cuò)誤的是()。A.梯度下降法是一種迭代優(yōu)化算法B.梯度方向是函數(shù)值下降最快的方向C.步長(zhǎng)越大,收斂速度越快D.可能會(huì)陷入局部最優(yōu)解5.支持向量機(jī)(SVM)的核心思想是()。A.最大化分類(lèi)間隔B.最小化分類(lèi)誤差C.尋找最優(yōu)特征子集D.進(jìn)行數(shù)據(jù)降維6.對(duì)于神經(jīng)網(wǎng)絡(luò)中的激活函數(shù),以下哪種函數(shù)不是常用的激活函數(shù)?()A.Sigmoid函數(shù)B.ReLU函數(shù)C.線性函數(shù)D.Softmax函數(shù)7.在深度學(xué)習(xí)中,常用的優(yōu)化器不包括()。A.AdaGradB.RMSPropC.LASSOD.Adam8.以下哪種模型不屬于深度學(xué)習(xí)模型?()A.卷積神經(jīng)網(wǎng)絡(luò)B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.隨機(jī)森林D.生成對(duì)抗網(wǎng)絡(luò)9.數(shù)據(jù)歸一化的目的不包括()。A.加快模型收斂速度B.提高模型精度C.防止梯度消失D.使模型更易訓(xùn)練10.以下關(guān)于模型評(píng)估指標(biāo)的說(shuō)法,正確的是()。A.準(zhǔn)確率越高,模型性能越好B.召回率越高,模型性能越好C.F1值綜合考慮了準(zhǔn)確率和召回率D.均方誤差適用于分類(lèi)問(wèn)題二、多項(xiàng)選擇題(總共5題,每題5分,在每小題給出的四個(gè)選項(xiàng)中,有多項(xiàng)是符合題目要求的,請(qǐng)將所有正確答案的序號(hào)填在題后的括號(hào)內(nèi))1.以下屬于監(jiān)督學(xué)習(xí)算法的有()。A.線性回歸B.支持向量機(jī)C.樸素貝葉斯D.層次聚類(lèi)2.在決策樹(shù)構(gòu)建過(guò)程中,常用的劃分屬性選擇方法有()。A.信息增益B.信息增益率C.基尼指數(shù)D.均方誤差3.關(guān)于神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),以下說(shuō)法正確的是()。A.包含輸入層、隱藏層和輸出層B.隱藏層可以有多層C.神經(jīng)元之間通過(guò)權(quán)重連接D.每層神經(jīng)元個(gè)數(shù)必須相同4.以下哪些是處理過(guò)擬合問(wèn)題的方法?()A.增加數(shù)據(jù)量B.正則化C.剪枝D.降低模型復(fù)雜度5.在機(jī)器學(xué)習(xí)中,數(shù)據(jù)預(yù)處理的步驟通常包括()。A.數(shù)據(jù)清洗B.數(shù)據(jù)集成C.數(shù)據(jù)變換D.數(shù)據(jù)歸約三、判斷題(總共10題,每題2分,請(qǐng)判斷下列各題,正確的在題后括號(hào)內(nèi)打“√”,錯(cuò)誤的打“×”)1.無(wú)監(jiān)督學(xué)習(xí)不需要標(biāo)注數(shù)據(jù)。()2.線性回歸模型只能處理線性關(guān)系的數(shù)據(jù)。()3.決策樹(shù)的深度越大,模型的泛化能力越強(qiáng)。()4.支持向量機(jī)在處理高維數(shù)據(jù)時(shí)效果較好。()5.神經(jīng)網(wǎng)絡(luò)可以自動(dòng)提取數(shù)據(jù)的特征。()6.梯度下降法每次迭代都會(huì)使目標(biāo)函數(shù)值減小。()7.模型的訓(xùn)練誤差越小,泛化誤差也越小。()8.數(shù)據(jù)歸一化對(duì)所有模型都有必要。()9.隨機(jī)森林通過(guò)集成多個(gè)決策樹(shù)來(lái)提高模型性能。()10.深度學(xué)習(xí)模型的訓(xùn)練時(shí)間通常比傳統(tǒng)機(jī)器學(xué)習(xí)模型短。()四、簡(jiǎn)答題(總共3題,每題10分,請(qǐng)簡(jiǎn)要回答下列問(wèn)題)1.請(qǐng)簡(jiǎn)述K近鄰算法的原理,并說(shuō)明其優(yōu)缺點(diǎn)。2.邏輯回歸模型與線性回歸模型有何區(qū)別?請(qǐng)從模型目的、輸出、損失函數(shù)等方面進(jìn)行闡述。3.什么是過(guò)擬合和欠擬合?如何判斷模型是否存在過(guò)擬合或欠擬合現(xiàn)象?五、綜合題(總共2題,每題15分,請(qǐng)根據(jù)所學(xué)知識(shí),結(jié)合實(shí)際問(wèn)題進(jìn)行分析和解答)1.給定一個(gè)數(shù)據(jù)集,包含多個(gè)特征和一個(gè)目標(biāo)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論