北京師范大學(xué)《機(jī)器學(xué)習(xí)》2024 - 2025 學(xué)年第一學(xué)期期末試卷_第1頁
北京師范大學(xué)《機(jī)器學(xué)習(xí)》2024 - 2025 學(xué)年第一學(xué)期期末試卷_第2頁
免費預(yù)覽已結(jié)束,剩余1頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

(第2頁)制卷人簽名:制卷日期制卷人簽名:制卷日期:審核人簽名::審核日期:………………………………………………裝……訂……線…………………學(xué)院專業(yè)/班級學(xué)號姓名題號一二三四五六七八總分閱卷教師得分………………一、選擇題(總共10題,每題3分,每題只有一個正確答案,請將正確答案填寫在括號內(nèi))1.以下哪種算法不屬于無監(jiān)督學(xué)習(xí)?()A.決策樹B.聚類算法C.主成分分析D.自編碼器2.在支持向量機(jī)中,最大間隔超平面的作用是()。A.最大化分類間隔B.最小化分類間隔C.使模型復(fù)雜度最高D.使模型復(fù)雜度最低3.對于線性回歸模型,以下關(guān)于損失函數(shù)的說法正確的是()。A.常用的損失函數(shù)是交叉熵?fù)p失函數(shù)B.損失函數(shù)用于衡量模型預(yù)測值與真實值之間的差異C.損失函數(shù)的值越大,模型性能越好D.損失函數(shù)與模型的參數(shù)無關(guān)4.神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)的作用是()。A.增加模型的非線性B.使模型線性化C.加速模型收斂D.減少模型參數(shù)5.以下哪種方法可以用于特征選擇?()A.梯度下降B.隨機(jī)森林C.嶺回歸D.LASSO回歸6.在K近鄰算法中,K的取值對模型有什么影響?()A.K值越大,模型越復(fù)雜B.K值越小,模型越容易受到噪聲影響C.K值適中時,模型性能最佳D.K值與模型性能無關(guān)7.以下關(guān)于深度學(xué)習(xí)優(yōu)化器的說法錯誤的是()。A.Adam優(yōu)化器結(jié)合了動量和自適應(yīng)學(xué)習(xí)率B.SGD是最基本的優(yōu)化器C.優(yōu)化器用于更新模型的參數(shù)D.不同的優(yōu)化器在所有數(shù)據(jù)集上表現(xiàn)相同8.對于樸素貝葉斯分類器,其假設(shè)特征之間()。A.相互獨立B.高度相關(guān)C.部分相關(guān)D.無關(guān)聯(lián)9.在強(qiáng)化學(xué)習(xí)中,智能體通過()來學(xué)習(xí)最優(yōu)策略。A.與環(huán)境交互獲得獎勵B.觀察環(huán)境狀態(tài)C.隨機(jī)行動D.模仿其他智能體10.以下哪種模型可以用于處理序列數(shù)據(jù)?()A.卷積神經(jīng)網(wǎng)絡(luò)B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.支持向量機(jī)D.k近鄰算法二、多項選擇題(總共5題,每題5分,每題有多個正確答案,請將正確答案填寫在括號內(nèi),多選或少選均不得分)1.以下屬于監(jiān)督學(xué)習(xí)算法的有()。A.邏輯回歸B.決策樹C.支持向量機(jī)D.聚類算法E.主成分分析2.在深度學(xué)習(xí)中,常用的卷積層操作有()。A.卷積B.池化C.全連接D.激活E.歸一化3.以下哪些是評估分類模型性能的指標(biāo)?()A.準(zhǔn)確率B.召回率C.F1值D.均方誤差E.交叉熵?fù)p失4.對于模型的正則化方法,包括()。A.L1正則化B.L2正則化C.DropoutD.數(shù)據(jù)增強(qiáng)E.增加訓(xùn)練數(shù)據(jù)5.在強(qiáng)化學(xué)習(xí)中,智能體的組成部分包括()。A.策略B.環(huán)境C.獎勵函數(shù)D.狀態(tài)E.動作三、判斷題(總共10題,每題2分,請判斷對錯,在括號內(nèi)填寫“√”或“×”)1.無監(jiān)督學(xué)習(xí)不需要標(biāo)注數(shù)據(jù)。()2.決策樹只能處理數(shù)值型特征。()3.神經(jīng)網(wǎng)絡(luò)層數(shù)越多,模型性能一定越好。()4.梯度下降算法一定會收斂到全局最優(yōu)解。()5.特征縮放可以提高模型的訓(xùn)練速度和性能。()6.樸素貝葉斯分類器對缺失值敏感。()7.在強(qiáng)化學(xué)習(xí)中,智能體的目標(biāo)是最大化長期獎勵。()8.深度學(xué)習(xí)模型的訓(xùn)練過程就是調(diào)整參數(shù)使損失函數(shù)最小化的過程。()9.支持向量機(jī)中的核函數(shù)可以將低維數(shù)據(jù)映射到高維空間。()10.聚類算法的結(jié)果是固定的,不受初始聚類中心的影響。()四、簡答題(總共3題,每題15分,請簡要回答問題)1.請簡述梯度下降算法的原理,并說明梯度的作用。2.什么是過擬合和欠擬合?如何解決這兩個問題?3.請解釋卷積神經(jīng)網(wǎng)絡(luò)中卷積層和池化層的作用。五、論述題(總共2題,每題20

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論