版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
北京工業(yè)大學2025年計算機學院(人工智能)試題及答案一、單項選擇題(每題2分,共20分)1.在深度學習中,若使用ReLU激活函數(shù),下列關于梯度消失現(xiàn)象的描述正確的是A.ReLU完全消除梯度消失,因其導數(shù)恒為1B.ReLU在負區(qū)間梯度為0,仍可能出現(xiàn)“神經(jīng)元死亡”導致的梯度流中斷C.ReLU在正區(qū)間梯度呈指數(shù)衰減,故依然存在梯度消失D.ReLU僅對卷積層有效,對全連接層無影響答案:B解析:ReLU在x<0時導數(shù)為0,若某神經(jīng)元輸出長期為負,則其梯度恒為0,權重永不更新,稱為“神經(jīng)元死亡”。雖然正區(qū)間梯度恒為1,但若網(wǎng)絡層數(shù)極深,仍可能因死亡神經(jīng)元阻斷梯度流,間接造成訓練困難。2.在Transformer架構中,ScaledDotProductAttention的縮放因子為A.1/d_kB.1/√d_kC.√d_kD.d_k答案:B解析:為防止d_k較大時點積方差過大導致softmax梯度飽和,Transformer引入縮放因子1/√d_k,使注意力分布更平滑,梯度更穩(wěn)定。3.下列關于Bagging與Boosting的對比,錯誤的是A.Bagging可并行訓練,Boosting需串行B.Bagging主要降低方差,Boosting主要降低偏差C.Bagging對異常值敏感,Boosting對異常值魯棒D.隨機森林屬于Bagging,XGBoost屬于Boosting答案:C解析:Boosting通過迭代調(diào)整樣本權重,對異常值敏感;Bagging通過Bootstrap采樣平均,對異常值魯棒。故C項說反。4.在PyTorch中,若模型已調(diào)用model.cuda(),而輸入張量仍留在CPU,則運行時會A.自動把張量遷移到GPUB.拋出RuntimeError:ExpectedobjectofdevicetypecudaC.靜默降級為CPU計算D.觸發(fā)PyTorch自動混合精度答案:B解析:PyTorch要求設備一致,否則會顯式報錯,提示期望cuda卻得到cpu。5.在A搜索中,若啟發(fā)函數(shù)h(n)滿足h(n)≡0,則A退化為A.廣度優(yōu)先搜索B.深度優(yōu)先搜索C.一致代價搜索(Dijkstra)D.迭代加深搜索答案:C解析:當h(n)=0時,f(n)=g(n),A僅根據(jù)已付出代價擴展節(jié)點,等價于Dijkstra算法。6.在聯(lián)邦學習場景下,客戶端上傳本地模型梯度而非原始數(shù)據(jù),主要目的是A.降低服務器內(nèi)存占用B.提高模型精度C.保護用戶隱私D.減少通信輪次答案:C解析:梯度上傳避免原始數(shù)據(jù)泄露,配合安全聚合可進一步防止推理攻擊。7.若對圖像進行隨機旋轉(zhuǎn)增強,旋轉(zhuǎn)角度在[30°,30°]均勻采樣,則該變換的雅可比行列式A.恒為1B.恒為0C.與旋轉(zhuǎn)角θ成線性關系D.與圖像內(nèi)容有關答案:A解析:二維剛體旋轉(zhuǎn)的雅可比行列式為1,體積(面積)保持不變,故概率密度無需重歸一化。8.在Python中,下列代碼輸出為importnumpyasnpa=np.array([1,2,3])b=ab+=1print(a)A.[123]B.[234]C.[012]D.拋出ValueError答案:B解析:b與a共享內(nèi)存,原地加法修改同一數(shù)組。9.在BERT預訓練中,MaskedLanguageModel任務掩碼比例為15%,其中80%用[MASK],10%用隨機詞,10%不變。如此設計的主要考慮是A.減少預訓練與微調(diào)階段的不匹配B.降低計算量C.增加負樣本D.緩解過擬合答案:A解析:微調(diào)階段無[MASK]標記,若預訓練全部用[MASK],則出現(xiàn)分布偏移。部分保留原詞可緩解Mismatch。10.在深度強化學習中,使用ExperienceReplay的主要作用是A.降低環(huán)境交互成本B.打破樣本間時序相關性C.提高獎勵稀疏場景的探索D.實現(xiàn)onpolicy訓練答案:B解析:ReplayBuffer隨機采樣打破序列相關性,使神經(jīng)網(wǎng)絡訓練滿足獨立同分布假設,穩(wěn)定收斂。二、多項選擇題(每題3分,共15分,多選少選均不得分)11.下列技術可用于緩解卷積神經(jīng)網(wǎng)絡過擬合A.DropoutB.BatchNormalizationC.L2權重衰減D.數(shù)據(jù)增強E.增加通道數(shù)答案:ABCD解析:增加通道數(shù)會擴大模型容量,反而可能加劇過擬合。12.關于圖卷積網(wǎng)絡GCN,下列說法正確的是A.頻域GCN需對拉普拉斯矩陣做特征分解B.空域GCN可直接聚合鄰居特征C.鄰接矩陣自環(huán)添加可緩解節(jié)點特征平滑過快D.GCN無法處理有向圖E.GraphSAGE采用采樣鄰居策略,可歸納式學習答案:ABCE解析:GCN可通過不對稱鄰接處理有向圖,D錯誤。13.在CUDA編程中,以下操作會導致隱式同步A.cudaMemcpy從設備到主機B.cudaDeviceSynchronize()C.cudaMalloc()D.訪問頁鎖定主機內(nèi)存E.線程塊內(nèi)__syncthreads()答案:ABC解析:__syncthreads()為塊內(nèi)同步,非主機端隱式同步。14.下列屬于無監(jiān)督學習算法A.kmeansB.PCAC.DBSCAND.AprioriE.CRF答案:ABCD解析:CRF為判別式概率圖模型,需標注序列,屬于監(jiān)督學習。15.在模型壓縮領域,可獲得稀疏權重的方法包括A.magnitudepruningB.variationaldropoutC.lotterytickethypothesis迭代剪枝D.knowledgedistillationE.weightclustering答案:ABC解析:蒸餾與聚類降低位寬或參數(shù)量,但不直接產(chǎn)生稀疏掩碼。三、填空題(每空2分,共20分)16.若某卷積層輸入尺寸為112×112×64,采用128個3×3卷積核,padding=1,stride=2,則輸出尺寸為________×________×________。答案:56×56×128解析:O=(I+2P?K)/S+1=(112+2?3)/2+1=56。17.在Python3.10中,表達式(lambdax:xifxelse[0])([])的值為________。答案:[0]解析:空列表為False,觸發(fā)else分支。18.在Transformer中,若隱藏維度d_model=512,多頭注意力頭數(shù)h=8,則每個頭的維度d_k=________。答案:64解析:512/8=64。19.在強化學習中,MDP五元組表示為(S,A,P,R,________)。答案:γ(折扣因子)20.若某算法時間復雜度為O(nlogn),在輸入規(guī)模擴大4倍時,理論運行時間約增大________倍。答案:4×log?4=8解析:T(4n)/T(n)=4log(4n)/logn≈4(1+log4/logn),當n較大時log4可忽略,近似8。21.在C++中,聲明一個指向常量整數(shù)的指針語法為________。答案:constintp;22.在Linux系統(tǒng)調(diào)用中,用于創(chuàng)建子進程的函數(shù)為________。答案:fork()23.若浮點數(shù)采用IEEE754單精度,二進制表示為11000001101000000000000000000000,則其十進制真值為________。答案:?(1.01)?×2^(131?127)=?1.25×16=?20解析:符號位1,指數(shù)131,尾數(shù)1.01?。24.在PyTorch里,將張量x從float32轉(zhuǎn)換為bfloat16的函數(shù)為________。答案:x.to(torch.bfloat16)25.在圖論中,n個節(jié)點的無向完全圖邊數(shù)為________。答案:n(n?1)/2四、判斷題(每題1分,共10分,正確寫“T”,錯誤寫“F”)26.梯度下降法在凸函數(shù)上一定能找到全局最優(yōu)解。答案:T解析:凸函數(shù)無局部極小,步長合適必收斂。27.在卷積神經(jīng)網(wǎng)絡中,空洞卷積可以擴大感受野而不增加參數(shù)量。答案:T28.使用ReLU激活的網(wǎng)絡一定不會出現(xiàn)梯度爆炸。答案:F解析:權重初始化過大仍可導致前向輸出指數(shù)增長,引發(fā)爆炸。29.在Python中,list的append操作平均時間復雜度為O(1)。答案:T解析:攤還分析,偶爾擴容O(n),均攤O(1)。30.在BERT中,NSP任務用于判斷兩個句子是否相鄰,已被RoBERTa證明對下游任務無益并移除。答案:T31.在CUDA中,warp大小為16。答案:F解析:warp大小為32。32.對于任意隨機變量X,有E[X2]≥(E[X])2。答案:T解析:方差非負。33.在kfold交叉驗證中,k越大必然導致偏差越小、方差越大。答案:F解析:k增大訓練集比例升高,偏差減小,但估計方差取決于數(shù)據(jù)劃分,未必單調(diào)增。34.使用混合精度訓練時,損失縮放(lossscaling)是為了防止梯度下溢。答案:T35.在圖神經(jīng)網(wǎng)絡中,過度深層的網(wǎng)絡會導致節(jié)點表示趨于相同,稱為oversmoothing。答案:T五、簡答題(每題8分,共24分)36.描述BatchNormalization在前向傳播與反向傳播中的數(shù)學過程,并解釋其如何緩解內(nèi)部協(xié)變量偏移(InternalCovariateShift)。答案:前向:對minibatchB={x?…x_m},計算μ_B=1/m∑x_i,σ2_B=1/m∑(x_i?μ_B)2,歸一化x?_i=(x_i?μ_B)/√(σ2_B+ε),再線性變換y_i=γx?_i+β。反向:鏈式法則,需計算?L/?γ=∑?L/?y_i·x?_i,?L/?β=∑?L/?y_i,以及?L/?x_i通過x?_i、μ_B、σ2_B復合求導。緩解ICS:歸一化使每層輸入分布保持穩(wěn)定,γ、β保留表達能力,降低對參數(shù)初值與學習率的敏感度,平滑損失曲面,允許更大學習率,加速收斂。37.對比RNN、LSTM、GRU在捕捉長距離依賴時的機制差異,并給出各自主要公式。答案:RNN:h_t=tanh(W_hh_{t?1}+W_xx_t),梯度連乘導致指數(shù)衰減或爆炸。LSTM:引入輸入門i_t=σ(W_i·[h_{t?1},x_t]+b_i),遺忘門f_t,輸出門o_t,候選記憶c?_t=tanh(W_c·[h_{t?1},x_t]+b_c),記憶細胞c_t=f_t⊙c_{t?1}+i_t⊙c?_t,隱藏狀態(tài)h_t=o_t⊙tanh(c_t)。門控機制允許信息長期保存。GRU:合并細胞與隱藏狀態(tài),更新門z_t=σ(W_z·[h_{t?1},x_t]),重置門r_t,候選h?_t=tanh(W·[r_t⊙h_{t?1},x_t]),最終h_t=(1?z_t)⊙h_{t?1}+z_t⊙h?_t。參數(shù)更少,計算量降低,性能與LSTM接近。38.解釋什么是“梯度累積”,并給出在GPU顯存受限時,如何用梯度累積實現(xiàn)等價于大批次的訓練流程與偽代碼。答案:梯度累積:將大批次數(shù)據(jù)拆分為若干小批次,前向反向多次,累加梯度,最后一次性更新參數(shù),等價于大批次。偽代碼:```model.zero_grad()accum_steps=4fori,(x,y)inenumerate(loader):loss=model(x,y)/accum_stepsloss.backward()if(i+1)%accum_steps==0:optimizer.step()model.zero_grad()```通過1/accum_steps縮放損失,確保梯度平均,內(nèi)存峰值降低為原來的1/4。六、編程與計算題(共41分)39.(10分)手寫一個NumPy實現(xiàn)的單通道2D卷積前向傳播函數(shù),要求支持任意stride、padding,禁止調(diào)用np.convolve或外部庫。答案:```pythondefconv2d(x,w,b,stride,pad):x_padded=np.pad(x,((pad,pad),(pad,pad)),'constant')H,W=x_padded.shapeKh,Kw=w.shapeSh,Sw=strideifisinstance(stride,tuple)else(stride,stride)Oh=(HKh)//Sh+1Ow=(WKw)//Sw+1out=np.empty((Oh,Ow))foriinrange(Oh):forjinrange(Ow):patch=x_padded[iSh:iSh+Kh,jSw:jSw+Kw]out[i,j]=np.sum(patchw)+breturnout```解析:四重循環(huán)最內(nèi)層用廣播乘法累加,復雜度O(Oh·Ow·Kh·Kw)。40.(10分)給定一個無向圖,節(jié)點數(shù)n≤10?,邊數(shù)m≤2×10?,邊權為正。求1號節(jié)點到所有節(jié)點的最短距離,若不可達輸出?1。請寫出完整C++代碼,使用優(yōu)先隊列優(yōu)化的Dijkstra,時間復雜度O(mlogn)。答案:```cppinclude<bits/stdc++.h>usingnamespacestd;typedeflonglongll;constllINF=1e18;intmain(){ios::sync_with_stdio(false);cin.tie(nullptr);intn,m;cin>>n>>m;vector<vector<pair<int,int>>>g(n+1);for(inti=0;i<m;i++){intu,v,w;cin>>u>>v>>w;g[u].emplace_back(v,w);g[v].emplace_back(u,w);}vector<ll>dist(n+1,INF);priority_queue<pair<ll,int>,vector<pair<ll,int>>,greater<>>pq;dist[1]=0;pq.push({0,1});while(!pq.empty()){auto[d,u]=pq.top();pq.pop();if(d>dist[u])continue;for(auto[v,w]:g[u]){if(dist[v]>d+w){dist[v]=d+w;pq.push({dist[v],v});}}}for(inti=1;i<=n;i++){cout<<(dist[i]==INF?1:dist[i])<<(i==n?'\n':'');}return0;}```41.(10分)在PyTorch中實現(xiàn)自定義autograd函數(shù),完成矩陣的冪運算:Y=X^p(逐元素),要求正確實現(xiàn)前向與反向,支持任意實數(shù)p。答案:```pythonimporttorchclassPow(torch.autogr
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年貴州工貿(mào)職業(yè)學院輔導員考試筆試真題匯編附答案
- 2025年貴州機電職業(yè)技術學院輔導員招聘備考題庫附答案
- 2026學年上學期二年級語文核心綜合測試卷
- 2025年西安飛機工業(yè)公司職工工學院輔導員考試筆試真題匯編附答案
- 2025年甘肅政法大學輔導員考試筆試題庫附答案
- 2026臺州市科技館編外招聘2人參考題庫完美版
- 2025年浙江經(jīng)濟管理職工大學輔導員招聘考試真題匯編附答案
- 六年級上學期語文單元模擬卷2026
- 單位食堂付款申請書范文
- 顧客服務流程與規(guī)范
- 2026年公平競爭審查知識競賽考試題庫及答案(一)
- 置業(yè)顧問2025年度工作總結及2026年工作計劃
- 金華市軌道交通控股集團有限公司招聘筆試題庫2026
- 2025年國考科技部英文面試題庫及答案
- 2026年AI輔助教學設計工具應用指南與課程優(yōu)化技巧
- 2026屆陜西省西安市高新一中化學高二上期末聯(lián)考試題含答案
- 2025年專用設備市場前景分析
- 浙江金華市軌道交通控股集團運營有限公司招聘筆試題庫2025
- 2025《義務教育體育與健康課程標準(2022年版)》測試題庫及答案
- 土方工程施工安全管理規(guī)范
- 《心臟瓣膜病診療指南》
評論
0/150
提交評論