(2025年)《人工智能基礎(chǔ)》期末考試試卷附答案_第1頁
(2025年)《人工智能基礎(chǔ)》期末考試試卷附答案_第2頁
(2025年)《人工智能基礎(chǔ)》期末考試試卷附答案_第3頁
(2025年)《人工智能基礎(chǔ)》期末考試試卷附答案_第4頁
(2025年)《人工智能基礎(chǔ)》期末考試試卷附答案_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

(2025年)《人工智能基礎(chǔ)》期末考試試卷附答案一、單項選擇題(每題2分,共30分)1.下列關(guān)于人工智能(AI)的定義中,最符合當前學界共識的是()。A.能夠模擬人類思維的機械裝置B.通過算法實現(xiàn)特定任務(wù)的自動化系統(tǒng)C.研究如何讓機器具備感知、推理、學習和決策能力的學科D.基于大數(shù)據(jù)統(tǒng)計的模式識別技術(shù)2.符號主義學派的核心觀點是()。A.智能源于神經(jīng)元網(wǎng)絡(luò)的連接強度B.智能的本質(zhì)是符號操作與邏輯推理C.智能通過強化與環(huán)境的交互習得D.智能依賴于大規(guī)模數(shù)據(jù)的統(tǒng)計規(guī)律3.以下不屬于機器學習三要素的是()。A.模型假設(shè)空間B.數(shù)據(jù)預處理方法C.損失函數(shù)設(shè)計D.優(yōu)化算法選擇4.在監(jiān)督學習中,若訓練數(shù)據(jù)存在類別不平衡(如正樣本占95%),最可能導致的問題是()。A.模型對負樣本的識別能力不足B.訓練時間顯著增加C.模型過擬合正樣本特征D.梯度消失現(xiàn)象加劇5.卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,卷積層的主要作用是()。A.降低特征維度B.提取局部空間特征C.增強非線性表達能力D.實現(xiàn)全局信息融合6.下列激活函數(shù)中,能夠緩解梯度消失問題的是()。A.Sigmoid函數(shù)B.Tanh函數(shù)C.ReLU函數(shù)D.線性函數(shù)7.關(guān)于Transformer模型中的自注意力機制,正確的描述是()。A.僅關(guān)注序列中相鄰位置的信息B.通過查詢(Query)、鍵(Key)、值(Value)的點積計算注意力權(quán)重C.必須依賴循環(huán)結(jié)構(gòu)處理序列數(shù)據(jù)D.對長序列的建模能力弱于RNN8.強化學習中的“獎勵延遲”問題指的是()。A.環(huán)境反饋的獎勵信號存在隨機噪聲B.某些動作的長期影響需要經(jīng)過多步才能體現(xiàn)C.智能體無法區(qū)分不同動作對應(yīng)的獎勵D.獎勵函數(shù)設(shè)計過于復雜導致訓練不穩(wěn)定9.知識圖譜的核心組成是()。A.實體、關(guān)系、屬性三元組B.大規(guī)模文本語料庫C.深度神經(jīng)網(wǎng)絡(luò)模型D.規(guī)則推理引擎10.下列屬于多模態(tài)學習任務(wù)的是()。A.圖像分類(僅輸入圖像)B.文本情感分析(僅輸入文本)C.視頻描述提供(輸入視頻,輸出文本)D.語音識別(輸入語音,輸出文本)11.AI倫理中“算法公平性”的核心要求是()。A.算法運行速度對所有用戶一致B.算法決策結(jié)果不依賴于無關(guān)的敏感屬性(如性別、種族)C.算法必須公開所有參數(shù)和代碼D.算法輸出結(jié)果可被完全解釋12.在貝葉斯分類器中,后驗概率P(C|X)的計算基于()。A.先驗概率P(C)和似然概率P(X|C)B.先驗概率P(X)和似然概率P(C|X)C.后驗概率P(X)和先驗概率P(C)D.聯(lián)合概率P(X,C)和邊緣概率P(X)13.支持向量機(SVM)的最優(yōu)超平面選擇依據(jù)是()。A.最小化訓練誤差B.最大化分類間隔C.最小化模型復雜度D.最大化預測準確率14.下列不屬于提供式模型的是()。A.隱馬爾可夫模型(HMM)B.變分自編碼器(VAE)C.條件隨機場(CRF)D.提供對抗網(wǎng)絡(luò)(GAN)15.關(guān)于大語言模型(如GPT-4)的訓練,錯誤的描述是()。A.主要依賴監(jiān)督微調(diào)(SFT)階段提升對話能力B.預訓練階段使用海量無標注文本C.獎勵模型(RM)用于強化學習(RLHF)中的獎勵信號提供D.參數(shù)量越大,模型性能一定越好二、填空題(每空1分,共15分)1.人工智能的三大主要學派是符號主義、連接主義和__________。2.機器學習中,將數(shù)據(jù)劃分為訓練集、驗證集和測試集的目的是__________。3.決策樹的劃分標準常用__________(如信息增益、基尼系數(shù))。4.神經(jīng)網(wǎng)絡(luò)中,__________層的作用是將高維特征映射到樣本標簽空間。5.Transformer模型的核心結(jié)構(gòu)包括__________和前饋神經(jīng)網(wǎng)絡(luò)。6.強化學習中的智能體與環(huán)境交互的四要素是狀態(tài)、動作、獎勵和__________。7.知識表示的常見方法有邏輯表示法、產(chǎn)生式規(guī)則、__________和語義網(wǎng)絡(luò)。8.過擬合的本質(zhì)是模型對__________的擬合過于精確,導致泛化能力下降。9.遷移學習的關(guān)鍵是找到源域和目標域之間的__________。10.對抗樣本是指通過微小擾動__________輸入數(shù)據(jù),導致模型做出錯誤預測的樣本。11.大模型的“涌現(xiàn)能力”指的是當模型參數(shù)規(guī)模超過__________時,突然獲得的未顯式訓練的能力。12.多模態(tài)學習的挑戰(zhàn)包括不同模態(tài)的__________對齊和語義融合。13.AI安全中的“對抗攻擊”可分為白盒攻擊(已知模型參數(shù))和__________攻擊(未知模型參數(shù))。14.評估分類模型性能的常用指標有準確率、精確率、召回率和__________(如F1分數(shù))。15.自然語言處理中的“詞嵌入”技術(shù)將離散的詞語映射到__________空間,捕捉語義相關(guān)性。三、簡答題(每題6分,共30分)1.簡述監(jiān)督學習、無監(jiān)督學習和半監(jiān)督學習的區(qū)別,并各舉一個典型應(yīng)用場景。2.解釋神經(jīng)網(wǎng)絡(luò)中“梯度消失”現(xiàn)象的成因及兩種緩解方法。3.對比RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))和Transformer在處理序列數(shù)據(jù)時的優(yōu)缺點。4.說明知識圖譜在智能問答系統(tǒng)中的作用,并舉例說明其工作流程。5.列舉AI倫理需要關(guān)注的三個核心問題,并分別簡述其含義。四、算法分析題(每題10分,共20分)1.給定數(shù)據(jù)集:樣本特征X={x1,x2}(x1為“天氣”,取值{晴,雨};x2為“溫度”,取值{高,低}),標簽Y={去跑步,不去跑步}。具體數(shù)據(jù)如下:(晴,高)→去跑步(晴,低)→去跑步(雨,高)→不去跑步(雨,低)→不去跑步計算特征x1(天氣)的信息增益(假設(shè)初始熵H(Y)=1)。2.某簡單神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為:輸入層2個神經(jīng)元(x1=0.5,x2=0.8),隱藏層2個神經(jīng)元(使用Sigmoid激活函數(shù),權(quán)重w1=0.3,w2=0.4,w3=0.2,w4=0.6),輸出層1個神經(jīng)元(使用Sigmoid激活函數(shù),權(quán)重w5=0.5,w6=0.7)。計算該網(wǎng)絡(luò)的前向傳播輸出值(保留4位小數(shù))。五、綜合應(yīng)用題(15分)設(shè)計一個基于深度學習的智能垃圾分類系統(tǒng),要求:(1)描述系統(tǒng)的主要模塊(至少4個);(2)說明各模塊的功能及關(guān)鍵技術(shù);(3)列舉需要考慮的挑戰(zhàn)(至少3個)及應(yīng)對策略。答案一、單項選擇題1.C2.B3.B4.A5.B6.C7.B8.B9.A10.C11.B12.A13.B14.C15.D二、填空題1.行為主義(或進化主義)2.評估模型泛化能力(或防止過擬合)3.不純度指標4.全連接(或輸出)5.多頭自注意力機制6.策略(或策略函數(shù))7.框架表示法(或面向?qū)ο蟊硎痉ǎ?.訓練數(shù)據(jù)噪聲(或訓練數(shù)據(jù)特定特征)9.共同特征空間(或可遷移知識)10.非對抗性(或正常)11.某個閾值(或臨界規(guī)模)12.特征(或語義)13.黑盒14.ROC曲線(或AUC值,或Fβ分數(shù))15.連續(xù)低維(或連續(xù)稠密)三、簡答題1.區(qū)別:監(jiān)督學習使用帶標簽數(shù)據(jù)訓練,目標是學習輸入-輸出映射(如圖像分類);無監(jiān)督學習使用無標簽數(shù)據(jù),目標是發(fā)現(xiàn)數(shù)據(jù)內(nèi)在結(jié)構(gòu)(如聚類);半監(jiān)督學習結(jié)合少量標簽和大量無標簽數(shù)據(jù)(如利用無標簽數(shù)據(jù)輔助訓練,如圖像分割中的弱監(jiān)督學習)。2.成因:深層網(wǎng)絡(luò)中,Sigmoid/Tanh激活函數(shù)的導數(shù)在輸入較大或較小時接近0,反向傳播時梯度逐層衰減,導致淺層網(wǎng)絡(luò)參數(shù)更新緩慢。緩解方法:使用ReLU及其變體(如LeakyReLU);采用殘差網(wǎng)絡(luò)(ResNet)跳過部分層,直接傳遞梯度。3.RNN優(yōu)點:通過循環(huán)結(jié)構(gòu)捕捉序列時序依賴;缺點:長序列時梯度消失/爆炸,并行計算能力差。Transformer優(yōu)點:自注意力機制直接建模全局依賴,支持并行計算;缺點:計算復雜度隨序列長度平方增長,對時序信息的顯式建模較弱。4.作用:提供實體間的語義關(guān)系,支持復雜問題的推理。流程示例:用戶提問“蘋果的創(chuàng)始人是誰?”,系統(tǒng)通過實體識別提取“蘋果”“創(chuàng)始人”,在知識圖譜中查找“蘋果”實體的“創(chuàng)始人”關(guān)系,返回“史蒂夫·喬布斯”。5.①算法公平性:避免決策結(jié)果因性別、種族等敏感屬性產(chǎn)生偏見;②隱私保護:防止訓練數(shù)據(jù)中的個人信息泄露(如通過模型反演攻擊);③可解釋性:模型決策過程需可被人類理解,避免“黑箱”問題。四、算法分析題1.計算步驟:天氣為“晴”時,樣本數(shù)2,均為“去跑步”,熵H(Y|x1=晴)=0;天氣為“雨”時,樣本數(shù)2,均為“不去跑步”,熵H(Y|x1=雨)=0;條件熵H(Y|x1)=(2/4)0+(2/4)0=0;信息增益=H(Y)-H(Y|x1)=1-0=1。2.前向傳播計算:隱藏層神經(jīng)元h1輸入:0.5×0.3+0.8×0.4=0.15+0.32=0.47,激活后h1=1/(1+e^-0.47)≈0.6150;隱藏層神經(jīng)元h2輸入:0.5×0.2+0.8×0.6=0.10+0.48=0.58,激活后h2=1/(1+e^-0.58)≈0.6405;輸出層輸入:0.6150×0.5+0.6405×0.7=0.3075+0.44835=0.75585,激活后輸出=1/(1+e^-0.75585)≈0.6801。五、綜合應(yīng)用題(1)主要模塊:數(shù)據(jù)采集與預處理、特征提取模型、分類器、后處理與反饋。(2)功能及技術(shù):數(shù)據(jù)采集與預處理:通過攝像頭采集垃圾圖像,使用圖像增強(旋轉(zhuǎn)、翻轉(zhuǎn))增加數(shù)據(jù)多樣性,歸一化處理(調(diào)整亮度、尺寸);關(guān)鍵技術(shù):數(shù)據(jù)增強、圖像歸一化。特征提取模型:采用卷積神經(jīng)網(wǎng)絡(luò)(如ResNet-50)提取圖像的顏色、紋理、形狀特征;關(guān)鍵技術(shù):遷移學習(基于預訓練模型微調(diào))。分類器:全連接層將特征映射到具體類別(如可回收物、廚余垃圾等);關(guān)鍵技術(shù):Softmax激活函數(shù)、交叉

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論