2025 年大學(xué)人工智能(機器學(xué)習(xí)基礎(chǔ))下學(xué)期單元測試卷_第1頁
2025 年大學(xué)人工智能(機器學(xué)習(xí)基礎(chǔ))下學(xué)期單元測試卷_第2頁
2025 年大學(xué)人工智能(機器學(xué)習(xí)基礎(chǔ))下學(xué)期單元測試卷_第3頁
2025 年大學(xué)人工智能(機器學(xué)習(xí)基礎(chǔ))下學(xué)期單元測試卷_第4頁
2025 年大學(xué)人工智能(機器學(xué)習(xí)基礎(chǔ))下學(xué)期單元測試卷_第5頁
已閱讀5頁,還剩5頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

2025年大學(xué)人工智能(機器學(xué)習(xí)基礎(chǔ))下學(xué)期單元測試卷

(考試時間:90分鐘滿分100分)班級______姓名______一、單項選擇題(總共10題,每題3分,每題只有一個正確答案,請將正確答案填寫在括號內(nèi))1.以下關(guān)于機器學(xué)習(xí)的說法,錯誤的是()A.機器學(xué)習(xí)是一門多領(lǐng)域交叉學(xué)科B.它致力于研究如何通過計算的手段,利用經(jīng)驗來改善系統(tǒng)自身的性能C.機器學(xué)習(xí)只能處理線性可分的數(shù)據(jù)D.機器學(xué)習(xí)包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)等多種類型2.在監(jiān)督學(xué)習(xí)中,若輸出變量的取值是離散的,通常稱這種學(xué)習(xí)任務(wù)為()A.回歸問題B.分類問題C.聚類問題D.降維問題3.決策樹學(xué)習(xí)中,用于選擇劃分屬性的準則是()A.信息增益B.基尼指數(shù)C.均方誤差D.A和B4.支持向量機(SVM)的主要思想是()A.最大化分類間隔B.最小化分類間隔C.最大化樣本點到超平面的距離D.最小化樣本點到超平面的距離5.以下哪個算法不屬于無監(jiān)督學(xué)習(xí)算法()A.K近鄰算法B.樸素貝葉斯算法C.主成分分析算法D.層次聚類算法6.在K近鄰算法中,K值的選擇對分類結(jié)果有重要影響。當(dāng)K值較小時,模型()A.對噪聲數(shù)據(jù)更魯棒B.學(xué)習(xí)的近似誤差更小C.學(xué)習(xí)的估計誤差更小D.分類的邊界更平滑7.神經(jīng)網(wǎng)絡(luò)中,以下哪種激活函數(shù)具有“軟飽和”特性()A.Sigmoid函數(shù)B.ReLU函數(shù)C.Tanh函數(shù)D.以上都不是8.梯度下降法是一種常用優(yōu)化算法,其目的是()A.最大化目標函數(shù)B.最小化目標函數(shù)C.尋找目標函數(shù)的駐點D.尋找目標函數(shù)的鞍點9.在隨機梯度下降中,每次更新模型參數(shù)時()A.使用全部訓(xùn)練數(shù)據(jù)B.使用一個隨機選擇的訓(xùn)練樣本C.使用固定數(shù)量的訓(xùn)練樣本D.使用逐漸增加數(shù)量的訓(xùn)練樣本10.以下關(guān)于模型評估指標的說法,正確的是()A.在分類問題中,準確率越高模型越好B.在回歸問題中,均方誤差越小模型越好C.F1值是精確率和召回率的調(diào)和平均數(shù),F(xiàn)1值越大模型越差D.ROC曲線下的面積越大,模型性能越差二、多項選擇題(總共5題,每題5分,每題至少有兩個正確答案,請將正確答案填寫在括號內(nèi))1.以下屬于機器學(xué)習(xí)中常用的性能度量的有()A.錯誤率與精度B.查準率與查全率C.F1值D.均方誤差E.交叉熵2.決策樹的剪枝策略包括()A.預(yù)剪枝B.后剪枝C.深度優(yōu)先搜索剪枝D.廣度優(yōu)先搜索剪枝E.隨機剪枝3.樸素貝葉斯分類器的基本假設(shè)是()A.屬性之間相互獨立B.屬性之間存在強相關(guān)性C.每個屬性同等重要D.屬性的取值服從某種概率分布E.不同屬性對分類結(jié)果的影響相同4.以下哪些算法可用于特征選擇()A.主成分分析B.信息增益C.卡方檢驗D.支持向量機E.決策樹5.關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(CNN),正確的說法有()A.卷積層通過卷積核提取圖像特征B.池化層用于減少數(shù)據(jù)維度C.全連接層將提取的特征進行分類D.CNN主要用于處理結(jié)構(gòu)化數(shù)據(jù)E.CNN在圖像識別等領(lǐng)域有廣泛應(yīng)用三、判斷題(總共10題,每題2分,請判斷對錯,在括號內(nèi)打“√”或“×”)1.機器學(xué)習(xí)的核心是讓計算機自動從數(shù)據(jù)中學(xué)習(xí)模式和規(guī)律。()2.在監(jiān)督學(xué)習(xí)中,訓(xùn)練數(shù)據(jù)既有特征向量又有對應(yīng)的標簽。()3.決策樹的每個內(nèi)部節(jié)點對應(yīng)一個屬性上的測試。()4.支持向量機的最優(yōu)分類超平面一定存在且唯一。()5.無監(jiān)督學(xué)習(xí)不需要人工標注的數(shù)據(jù)。()6.K近鄰算法是一種基于距離度量的分類算法。()7.神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元是對生物神經(jīng)元的簡單模擬。()8.梯度下降法中,學(xué)習(xí)率越大,算法收斂速度越快。()9.模型評估時,測試集只能用于評估模型性能,不能用于訓(xùn)練模型。()10.深度學(xué)習(xí)模型的訓(xùn)練過程就是不斷調(diào)整模型參數(shù)以最小化損失函數(shù)的過程。()四、簡答題(總共3題,每題10分,請簡要回答問題)1簡述監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)的區(qū)別。2請說明決策樹算法中信息增益的計算方法及作用。3解釋什么是過擬合和欠擬合,并說明如何避免這兩種情況。五、綜合題(總共1題,每題20分,請詳細解答問題)假設(shè)我們有一個數(shù)據(jù)集,包含以下特征和標簽:特征:身高(cm)、體重(kg)、年齡(歲)標簽:是否喜歡運動(是/否)請設(shè)計一個簡單的機器學(xué)習(xí)模型(可以是決策樹、樸素貝葉斯等)來預(yù)測一個人是否喜歡運動,并說明你的建模步驟和理由。答案:一、單項選擇題1.C2.B3.D4.A5.B6.B7.A8.B9.B10.B二、多項選擇題1.ABCDE2.AB3.AD4.ABCE5.ABCE三、判斷題1.√2.√3.√4.×5.√6.√7.√8.×9.√10.√四、簡答題1.監(jiān)督學(xué)習(xí)是從標注數(shù)據(jù)中學(xué)習(xí)預(yù)測模型,數(shù)據(jù)包含特征和對應(yīng)的標簽,模型學(xué)習(xí)特征與標簽之間的關(guān)系,用于預(yù)測未知數(shù)據(jù)的標簽。無監(jiān)督學(xué)習(xí)是從無標注數(shù)據(jù)中學(xué)習(xí)數(shù)據(jù)的內(nèi)在結(jié)構(gòu)或分布,不依賴標簽信息,主要用于數(shù)據(jù)降維、聚類等任務(wù)。2.信息增益的計算方法:對于數(shù)據(jù)集D,其信息熵為H(D),對于屬性a,根據(jù)屬性a的取值將D劃分為若干子集Dv,每個子集Dv的信息熵為H(Dv),則屬性a的信息增益為Gain(D,a)=H(D)-∑|Dv|/|D|H(Dv)。信息增益用于選擇劃分屬性,增益越大,該屬性對樣本分類的貢獻越大。3.過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但在測試集上表現(xiàn)很差,模型過于復(fù)雜,包含了過多噪聲和無關(guān)特征。欠擬合是指模型在訓(xùn)練集和測試集上表現(xiàn)都不好,模型過于簡單,沒有捕捉到數(shù)據(jù)的重要特征。避免過擬合可采用正則化、剪枝、增加數(shù)據(jù)等方法;避免欠擬合可增加模型復(fù)雜度、選擇更合適的特征、調(diào)整超參數(shù)等。五、綜合題建模步驟:1.數(shù)據(jù)預(yù)處理:對身高、體重、年齡等特征進行歸一化處理,消除不同特征量綱的影響。2.選擇模型:考慮到數(shù)據(jù)維度較低且問題相對簡單,選擇決策樹模型。3.訓(xùn)練模型:使用訓(xùn)練數(shù)據(jù)訓(xùn)練決策樹模型,讓模型學(xué)習(xí)特征與是否喜歡運動之間的關(guān)系。4.評估模型:使用測試數(shù)據(jù)評估模型

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論