2025年《人工智能導(dǎo)論》計算機專業(yè)模擬試題卷及答案_第1頁
2025年《人工智能導(dǎo)論》計算機專業(yè)模擬試題卷及答案_第2頁
2025年《人工智能導(dǎo)論》計算機專業(yè)模擬試題卷及答案_第3頁
2025年《人工智能導(dǎo)論》計算機專業(yè)模擬試題卷及答案_第4頁
2025年《人工智能導(dǎo)論》計算機專業(yè)模擬試題卷及答案_第5頁
已閱讀5頁,還剩16頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

2025年《人工智能導(dǎo)論》計算機專業(yè)模擬試題卷及答案一、單項選擇題(每題2分,共20分)1.在深度學(xué)習(xí)中,下列哪種技術(shù)最常用于緩解過擬合現(xiàn)象?A.增加網(wǎng)絡(luò)深度B.減小學(xué)習(xí)率C.DropoutD.使用ReLU激活函數(shù)答案:C解析:Dropout通過隨機“關(guān)閉”部分神經(jīng)元,迫使網(wǎng)絡(luò)學(xué)習(xí)更魯棒的特征,從而有效降低過擬合。增加深度可能加劇過擬合;減小學(xué)習(xí)率僅影響收斂速度;ReLU是激活函數(shù),與過擬合無直接因果關(guān)系。2.若某卷積層輸入尺寸為32×32×3,采用64個5×5卷積核,步長為1,零填充為2,則輸出特征圖尺寸為:A.32×32×64B.28×28×64C.30×30×64D.34×34×64答案:A解析:輸出尺寸公式為(N?F+2P)/S+1,代入得(32?5+4)/1+1=32;通道數(shù)等于卷積核數(shù)量64,故為32×32×64。3.在強化學(xué)習(xí)中,Qlearning更新公式Q(s,a)←Q(s,a)+α[r+γmax_{a′}Q(s′,a′)?Q(s,a)]中的γ通常稱為:A.學(xué)習(xí)率B.折扣因子C.探索率D.獎勵衰減系數(shù)答案:B解析:γ∈[0,1]用于衡量未來獎勵的當(dāng)前價值,越大表示越重視長期回報,官方術(shù)語為“折扣因子”。4.下列關(guān)于Transformer自注意力機制的描述,錯誤的是:A.查詢向量Q與鍵向量K的點積決定權(quán)重B.縮放點積注意力需除以√d_kC.多頭注意力可并行計算不同子空間信息D.自注意力無法捕捉序列位置信息,因此無需位置編碼答案:D解析:自注意力本身對位置無感知,必須依賴位置編碼(正弦或?qū)W習(xí)式)注入順序信息,故D錯誤。5.在生成對抗網(wǎng)絡(luò)(GAN)訓(xùn)練中,若判別器D過快收斂到0或1,會導(dǎo)致生成器G梯度消失,此現(xiàn)象稱為:A.模式崩塌B.梯度爆炸C.飽和問題D.納什失衡答案:C解析:D輸出飽和后,G獲得的梯度?log(1?D(G(z)))趨近0,無法有效更新,稱為飽和問題;模式崩塌指G只生成單一模式。6.使用BERT進(jìn)行中文文本分類時,若標(biāo)簽空間為“體育、科技、財經(jīng)”,則最終輸出層通常采用:A.均方誤差損失B.交叉熵?fù)p失C.合頁損失D.負(fù)對數(shù)似然損失答案:B解析:多類分類任務(wù)使用Softmax+交叉熵?fù)p失,與負(fù)對數(shù)似然數(shù)學(xué)形式等價,但行業(yè)標(biāo)準(zhǔn)表述為交叉熵。7.在聯(lián)邦學(xué)習(xí)框架中,客戶端上傳本地模型參數(shù)至服務(wù)器,服務(wù)器執(zhí)行:A.平均聚合B.加權(quán)平均聚合C.FedAvg算法D.以上皆可答案:D解析:FedAvg即加權(quán)平均(按數(shù)據(jù)量加權(quán)),平均聚合是其特例,故D最全面。8.若某決策樹采用基尼系數(shù)作為劃分標(biāo)準(zhǔn),則節(jié)點基尼系數(shù)越小表示:A.樣本量越少B.類別分布越均衡C.類別分布越純D.信息增益越大答案:C解析:基尼系數(shù)衡量不純度,越小越純;信息增益基于熵,與基尼無直接數(shù)值關(guān)系。9.在目標(biāo)檢測模型YOLOv5中,用于預(yù)測物體中心點坐標(biāo)的激活函數(shù)是:A.SigmoidB.ReLUC.TanhD.Linear答案:A解析:中心點偏移需歸一化到0~1,Sigmoid可將網(wǎng)絡(luò)輸出壓縮至該區(qū)間;寬高采用指數(shù)激活確保正值。10.下列關(guān)于圖神經(jīng)網(wǎng)絡(luò)(GNN)消息傳遞機制的描述,正確的是:A.節(jié)點特征僅在第一層傳遞B.邊特征無法參與聚合C.消息函數(shù)必須可微D.圖卷積網(wǎng)絡(luò)(GCN)采用均值聚合答案:C解析:消息傳遞需端到端訓(xùn)練,消息函數(shù)必須可微;GCN實際為歸一化加和,非簡單均值;邊特征可通過注意力權(quán)重等方式參與。二、多項選擇題(每題3分,共15分;多選少選均不得分)11.以下哪些技術(shù)可直接用于解決梯度消失問題?A.殘差連接B.LayerNormalizationC.L2正則化D.門控機制(如LSTM)答案:A、B、D解析:殘差連接提供恒等映射捷徑;LayerNorm穩(wěn)定前向分布;LSTM用門控保留長期信息;L2正則僅抑制權(quán)重幅度,不直接緩解梯度消失。12.關(guān)于VisionTransformer(ViT),下列說法正確的是:A.將圖像分塊后線性投影為tokenB.完全摒棄卷積操作C.在小型數(shù)據(jù)集上通常優(yōu)于CNND.需引入類別token(CLS)用于分類答案:A、B、D解析:ViT分塊+線性投影,無卷積;CLStoken聚合全局信息;小型數(shù)據(jù)易過擬合,需大量數(shù)據(jù)或蒸餾預(yù)訓(xùn)練,故C錯誤。13.以下屬于無監(jiān)督學(xué)習(xí)算法的是:A.kmeansB.DBSCANC.PCAD.Apriori答案:A、B、C解析:Apriori為關(guān)聯(lián)規(guī)則算法,雖無標(biāo)簽但屬數(shù)據(jù)挖掘非機器學(xué)習(xí)主流分類;PCA降維、kmeans聚類、DBSCAN密度聚類均為無監(jiān)督。14.在模型壓縮技術(shù)中,哪些方法可能導(dǎo)致模型精度下降?A.知識蒸餾B.權(quán)重量化(INT8)C.通道剪枝D.權(quán)重共享答案:B、C、D解析:知識蒸餾通過教師指導(dǎo)學(xué)生,可保持甚至提升精度;量化、剪枝、共享均引入信息損失,可能下降。15.關(guān)于A搜索算法,下列描述正確的是:A.啟發(fā)函數(shù)h(n)可允許高估B.若h(n)≡0,則退化為DijkstraC.保證找到最優(yōu)解的條件是h(n)可采納D.時間復(fù)雜度與啟發(fā)函數(shù)質(zhì)量相關(guān)答案:B、C、D解析:A要求h(n)不高于真實代價(可采納),高估則失去最優(yōu)性;h=0時僅g(n)起作用即Dijkstra;好的啟發(fā)可大幅減少擴展節(jié)點。三、填空題(每空2分,共20分)16.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,LSTM通過________門控制前一時刻細(xì)胞狀態(tài)的遺忘程度,通過________門決定當(dāng)前候選信息的更新比例。答案:遺忘(forget)、輸入(input)解析:ft=σ(Wf·[ht?1,xt]+bf)控制遺忘;it=σ(Wi·[ht?1,xt]+bi)控制更新。17.若某卷積層采用深度可分離卷積(DepthwiseSeparableConvolution),則其計算量約為標(biāo)準(zhǔn)卷積的________分之一。答案:1/(N+1/κ^2),其中N為輸出通道數(shù),κ為核尺寸;近似答“8~9”亦可。解析:深度卷積計算量DK·DK·M·DF·DF,點卷積1×1×M·N·DF·DF,總和≈標(biāo)準(zhǔn)卷積的1/N+1/DK^2,MobileNetv1中DK=3,N=512時約1/9。18.Transformer中,縮放點積注意力的輸出維度與________向量的維度相同。答案:Value解析:Attention(Q,K,V)=softmax(QK^T/√d_k)V,輸出維度由V的列數(shù)決定。19.在聯(lián)邦學(xué)習(xí)場景下,若某客戶端數(shù)據(jù)NonIID且采用FedProx算法,則其目標(biāo)函數(shù)需增加________正則項,以限制本地模型與全局模型的________差異。答案:L2、參數(shù)解析:FedProx在本地?fù)p失后加(μ/2)||w?w_global||^2,抑制偏離。20.若使用F1score評估二分類模型,當(dāng)精確率P=0.8,召回率R=0.5時,F(xiàn)1=________。答案:0.615(保留三位小數(shù))解析:F1=2PR/(P+R)=2×0.8×0.5/1.3≈0.615。21.在深度強化學(xué)習(xí)算法DDPG中,策略網(wǎng)絡(luò)被稱為________網(wǎng)絡(luò),價值網(wǎng)絡(luò)被稱為________網(wǎng)絡(luò)。答案:Actor、Critic解析:Actor輸出確定性動作,Critic評估Q值。22.若某GAN采用Wasserstein損失,則判別器最后一層需去掉________激活函數(shù),以輸出實數(shù)值。答案:Sigmoid解析:WGAN判別器擬合Wasserstein距離,需無界輸出,故去Sigmoid。23.在知識圖譜嵌入模型TransE中,關(guān)系r被視為頭實體h到尾實體t的________向量,得分函數(shù)為________。答案:平移、h+r≈t(或||h+r?t||)解析:TransE假設(shè)h+r≈t,得分||h+r?t||_L1/L2越小越合理。24.若使用混合精度訓(xùn)練(FP16+FP32),需動態(tài)調(diào)整損失縮放比例以防止________下溢。答案:梯度解析:FP16表示范圍小,梯度易下溢,損失縮放可放大梯度回傳后再縮放。25.在AutoML框架中,________算法通過早期停止與架構(gòu)/超參數(shù)聯(lián)合優(yōu)化,可在有限GPU時間內(nèi)發(fā)現(xiàn)高效CNN結(jié)構(gòu)。答案:EfficientNeuralArchitectureSearch(ENAS)解析:ENAS采用參數(shù)共享與控制器RNN,顯著降低搜索成本。四、判斷題(每題1分,共10分;正確打“√”,錯誤打“×”)26.梯度下降法在凸優(yōu)化問題上保證收斂到全局最優(yōu)。答案:√解析:凸函數(shù)無局部極小,梯度下降滿足條件下必達(dá)全局最優(yōu)。27.使用ReLU激活的深層網(wǎng)絡(luò)一定不會出現(xiàn)梯度消失。答案:×解析:ReLU在負(fù)半軸梯度為0,若初始化不當(dāng)導(dǎo)致大量神經(jīng)元死亡,仍會出現(xiàn)有效梯度消失。28.在BERT預(yù)訓(xùn)練中,MaskedLM任務(wù)隨機遮蔽15%的token,其中80%用[MASK]、10%用隨機token、10%不變。答案:√解析:為緩解預(yù)訓(xùn)練與微調(diào)不一致,采用該混合策略。29.kmeans算法對初始聚類中心敏感,可能陷入局部最優(yōu)。答案:√解析:kmeans目標(biāo)函數(shù)非凸,不同初始化得不同結(jié)果,常用kmeans++改進(jìn)。30.圖卷積網(wǎng)絡(luò)(GCN)中,鄰接矩陣自環(huán)(selfloop)的引入可降低節(jié)點自身特征在聚合時被稀釋的問題。答案:√解析:自環(huán)使節(jié)點自身特征保留,聚合時權(quán)重歸一化更穩(wěn)定。31.在目標(biāo)檢測評估中,mAP@0.5表示IoU閾值為0.5時的平均精確率,數(shù)值越高模型定位越準(zhǔn)確。答案:√解析:mAP@0.5僅考慮IoU≥0.5的預(yù)測,閾值固定,越高說明定位越準(zhǔn)。32.使用批量歸一化(BN)后,可完全取消Dropout而不會過擬合。答案:×解析:BN有一定正則效果,但無法完全替代Dropout,復(fù)雜網(wǎng)絡(luò)仍需額外正則。33.在強化學(xué)習(xí)中,策略梯度方法可直接優(yōu)化隨機策略,適用于連續(xù)動作空間。答案:√解析:REINFORCE、PPO等策略梯度天然支持連續(xù)動作,無需離散化。34.模型剪枝中的“權(quán)重剪枝”與“結(jié)構(gòu)化剪枝”在硬件加速方面效果等效。答案:×解析:權(quán)重剪枝產(chǎn)生稀疏矩陣,需專用稀疏庫;結(jié)構(gòu)化剪枝直接刪除通道/濾波器,適配常規(guī)BLAS庫,加速更易。35.在VisionTransformer中,位置編碼采用二維正弦函數(shù)可更好保持圖像空間結(jié)構(gòu)。答案:√解析:相對一維,二維正弦編碼保留xy位置關(guān)系,提升檢測分割任務(wù)性能。五、簡答題(每題8分,共24分)36.闡述BatchNormalization與LayerNormalization在計算維度上的差異,并說明為何Transformer選用后者。答案:(1)BN沿批量維度(N)計算均值方差,即對同一通道不同樣本歸一化;LN沿特征維度(C)計算,即對同一樣本不同特征歸一化。(2)Transformer輸入為變長序列,批量維度可能為1(推理),BN統(tǒng)計量不穩(wěn)定;此外,序列不同位置語義差異大,LN能針對單個樣本內(nèi)部特征做歸一化,更穩(wěn)定。(3)LN無批量依賴,適合在線學(xué)習(xí)與聯(lián)邦場景;實驗表明LN在文本任務(wù)收斂更快,精度更高。37.描述DDPG算法中經(jīng)驗回放(ExperienceReplay)與目標(biāo)網(wǎng)絡(luò)(TargetNetwork)的作用,并指出若移除二者之一會帶來何種影響。答案:經(jīng)驗回放:存儲(s,a,r,s′)四元組并隨機采樣,打破序列相關(guān)性,穩(wěn)定訓(xùn)練,避免catastrophicforgetting。目標(biāo)網(wǎng)絡(luò):延遲更新參數(shù)(軟更新τ?1),提供相對穩(wěn)定的目標(biāo)Q值,防止振蕩。若移除經(jīng)驗回放:樣本高度相關(guān),訓(xùn)練方差大,Q網(wǎng)絡(luò)發(fā)散,難以收斂。若移除目標(biāo)網(wǎng)絡(luò):每次迭代目標(biāo)Q值隨Critic變化,形成“移動靶”,Q估計過度樂觀,策略梯度噪聲大,訓(xùn)練不穩(wěn)定甚至發(fā)散。38.解釋“模式崩塌(ModeCollapse)”在GAN中的表現(xiàn)形式,并列舉兩種緩解方法及原理。答案:表現(xiàn)形式:生成器G只輸出少數(shù)或單一模式,多樣性喪失,例如MNIST僅生成數(shù)字“1”,盡管真實數(shù)據(jù)含0–9。緩解方法:(1)minibatchdiscrimination:判別器D額外輸入樣本與批次內(nèi)其他樣本的相似度特征,迫使G生成彼此差異大的樣本。(2)WGANGP:用Wasserstein距離替代JS散度,并添加梯度懲罰,使D提供光滑梯度,G獲得有效信號覆蓋全模式。原理:前者增加多樣性約束;后者改善目標(biāo)函數(shù)形狀,避免梯度消失與飽和。六、計算與推導(dǎo)題(共31分)39.(10分)給定一個全連接層,輸入x∈?^d,權(quán)重W∈?^{k×d},偏置b∈?^k,激活函數(shù)為ReLU。(1)寫出前向傳播公式y(tǒng)=ReLU(Wx+b);(2)設(shè)損失L對y的梯度為g=?L/?y∈?^k,推導(dǎo)?L/?W;(3)若d=512,k=1024,批量大小N=64,計算一次反向傳播中W的梯度存儲所需顯存(字節(jié)),假設(shè)采用FP32。答案:(2)由鏈?zhǔn)椒▌t,?L/?W=g·x^T,其中g(shù)為k×1,x為d×1,結(jié)果?L/?W為k×d。(3)梯度張量尺寸與W相同,即1024×512×4B=2097152B≈2MB。40.(10分)考慮一個二分類任務(wù),正負(fù)樣本比為1:9,總樣本10000。模型預(yù)測結(jié)果如下:TP=800,F(xiàn)P=400,TN=8600,F(xiàn)N=200。(1)計算精確率P、召回率R、F1;(2)采用宏平均(Macroaverage)計算F1,并分析是否適合用準(zhǔn)確率評估。答案:(1)P=TP/(TP+FP)=800/1200=0.667;R=TP/(TP+FN)=800/1000=0.8;F1=2PR/(P+R)=0.727。(2)宏平均需分別計算正負(fù)類:正類:P_pos=0.667,R_pos=0.8,F(xiàn)1_pos=0.727;負(fù)類:P_neg=TN/(TN+FN)=8600/8800=0.977,R_neg=TN/(TN+FP)=8600/9000=0.956,F(xiàn)1_neg=0.966;MacroF1=(0.727+0.966)/2=0.847。準(zhǔn)確率Acc=(800+8600)/10000=0.94,雖高但掩蓋正類識別不足,樣本不平衡時應(yīng)采用F1或AUC。41.(11分)給定一個簡化的Transformer塊,含一個多頭注意力子層和一個前饋子層,均采用殘差連接與LayerNorm。設(shè)輸入序列長度L=100,隱層d=512,注意力頭數(shù)h=8,前饋中間維度4d=2048。(1)計算一次前向傳播中,多頭注意力部分的浮點乘法次數(shù);(2)若使用混合精度(FP16計算、FP32主副本),理論上峰值顯存節(jié)省比例是多少?(忽略激活重計算與臨時緩存)答案:(1)Q,K,V投影:3·L·d·d=3×100×512×512=78643200;注意力權(quán)重:QK^T為L×d·d×L→100×512·512×100,但可拆分為h=8頭,每頭d_k=64,實際計算量8·(100×64)·(64×100)=8×100×64×100=5120000;加權(quán)求和:權(quán)重·V為8·(100×100)·(100×64)=8×100×100×64=5120000;輸出投影:L·d·d=100×512×512=26214400;總計≈78.6M+5.1M+5.1M+26.2M=115M次乘法。(2)主副本顯存:參數(shù)+激活+梯度。參數(shù)部分:注意力4d^2+前饋8d^2=12×512^2≈3.15M參數(shù),F(xiàn)P32占12.6MB;

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論