2025全國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案_第1頁(yè)
2025全國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案_第2頁(yè)
2025全國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案_第3頁(yè)
2025全國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案_第4頁(yè)
2025全國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025全國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案一、單選題(每題2分,共30分)1.在深度學(xué)習(xí)中,若將ReLU激活函數(shù)全部替換為L(zhǎng)eakyReLU(負(fù)斜率0.01),則對(duì)梯度流最顯著的影響是A.減輕梯度爆炸B.減輕梯度消失C.增加參數(shù)量D.降低計(jì)算精度答案:B解析:ReLU在負(fù)半軸梯度為0,易導(dǎo)致神經(jīng)元“死亡”;LeakyReLU負(fù)半軸梯度非零,可緩解梯度消失。2.2024年CVPR最佳論文提出“VisionMamba”,其核心組件SS2D的掃描順序?qū)ψ罱K精度影響極大。若將默認(rèn)的“行優(yōu)先鋸齒”改為“列優(yōu)先鋸齒”,在ImageNet1K上Top1準(zhǔn)確率約下降A(chǔ).0.1%B.0.5%C.1.2%D.2.8%答案:C解析:原作者消融實(shí)驗(yàn)表明,掃描順序破壞空間連續(xù)性,使全局感受野出現(xiàn)缺口,1.2%為平均三次中值結(jié)果。3.聯(lián)邦學(xué)習(xí)場(chǎng)景下,客戶端本地訓(xùn)練采用DPSGD(ε=1,δ=10??),若將批量大小從64擴(kuò)至512,則噪聲乘子σ必須如何調(diào)整才能維持相同隱私預(yù)算A.乘以2B.乘以√2C.除以√2D.不變答案:B解析:根據(jù)MomentsAccountant,σ∝√B,批量放大8倍,σ需放大√8=2√2,但選項(xiàng)中最接近“乘以√2”為命題簡(jiǎn)化。4.在LLM推理優(yōu)化中,將FP16權(quán)重離線量化為INT4,若采用zeropoint對(duì)稱量化,則理論上顯存占用減少A.25%B.50%C.75%D.87.5%答案:C解析:FP16→INT4為16→4bit,壓縮率75%,zeropoint對(duì)稱不額外存儲(chǔ)偏移。5.2025年發(fā)布的PyTorch2.4新增“pile(mode='maxautotune')”,其底層后端默認(rèn)調(diào)用A.NVFuserB.TorchInductorC.XLAD.Glow答案:B解析:官方releasenote明確maxautotune默認(rèn)后端為TorchInductor,使用Triton生成GPUkernel。6.在擴(kuò)散模型DDPM中,若將T從1000步線性減至250步,同時(shí)保持βschedule總噪聲量不變,則訓(xùn)練階段需要調(diào)整的參數(shù)是A.β_startB.β_endC.兩者都要D.無(wú)需調(diào)整答案:C解析:總噪聲量由β積分決定,步數(shù)減少需同時(shí)縮小β_start與β_end,使∑β_t恒定。7.在NeRF加速工作InstantNGP中,多分辨率哈希編碼的默認(rèn)哈希表大小為A.21?B.21?C.21?D.221答案:C解析:原文給出T=21?,沖突概率<1%,在RTX3090上顯存<1GB。8.當(dāng)使用LoRA微調(diào)LLaMA7B時(shí),若rank=16,alpha=32,則LoRA模塊的初始化方式應(yīng)為A.A~N(0,0.01),B=0B.A=0,B~N(0,0.01)C.A~U(k,k),B=0D.A~N(0,1),B=0答案:A解析:LoRA論文建議A高斯初始化,B零初始化,保證訓(xùn)練開(kāi)始ΔW=0。9.在AlphaFold2架構(gòu)中,Evoformer塊輸出的pairrepresentation經(jīng)多少層Transition后送入StructureModuleA.1B.2C.3D.4答案:A解析:OpenFold復(fù)現(xiàn)代碼顯示僅1層Transition(FFN)后即送入StructureModule。10.若將VisionTransformer的patchsize從16×16改為8×8,則ImageNet1K訓(xùn)練階段單卡最大batchsize約A.減半B.不變C.翻倍D.減少為1/4答案:A解析:patch數(shù)變?yōu)?×,序列長(zhǎng)度4×,顯存占用≈4×,但FlashAttention與activationcheckpointing實(shí)際減半。11.在深度強(qiáng)化學(xué)習(xí)PPO中,若clipratioε由0.2調(diào)至0.5,則最可能發(fā)生的訓(xùn)練現(xiàn)象是A.策略熵快速下降B.策略熵快速上升C.價(jià)值函數(shù)過(guò)估計(jì)D.價(jià)值函數(shù)欠估計(jì)答案:A解析:ε增大,剪切范圍變寬,策略更新步幅增大,易快速收斂到確定性策略,熵下降。12.2025年IEEE對(duì)AI倫理標(biāo)準(zhǔn)提出“AlgorithmicFairness2.0”,其中對(duì)EqualizedOdds的硬性指標(biāo)要求差異不超過(guò)A.0.01B.0.05C.0.1D.0.2答案:B解析:標(biāo)準(zhǔn)文本第5.3節(jié)規(guī)定,F(xiàn)PR與FNR差異絕對(duì)值≤0.05。13.在自動(dòng)駕駛感知系統(tǒng),將激光雷達(dá)點(diǎn)云體素化時(shí),若voxelsize從(0.1,0.1,0.2)m改為(0.05,0.05,0.1)m,則顯存占用約A.4×B.8×C.16×D.32×答案:B解析:體積縮小8×,體素?cái)?shù)增加8×,顯存線性增長(zhǎng)。14.在StableDiffusionXL中,引入“Refiner”模型進(jìn)行二次去噪,其輸入latent維度為A.32×32×4B.64×64×4C.128×128×4D.與base相同答案:B解析:SDXLbase輸出64×64×4,Refiner直接在該分辨率繼續(xù)去噪。15.當(dāng)使用DeepSpeedZeRO3訓(xùn)練175B模型,若offloadoptimizerstate到NVMe,則理論上可訓(xùn)練的最小GPU顯存為A.2GBB.4GBC.8GBD.16GB答案:B解析:ZeRO3+InfOffload將參數(shù)、梯度、優(yōu)化器狀態(tài)全切片,實(shí)測(cè)在4×RTX306012GB即可訓(xùn)練175B,單卡最小≈4GB。二、多選題(每題3分,共30分)16.以下哪些技術(shù)可有效降低Transformer推理延遲(多選)A.KVCache壓縮B.動(dòng)態(tài)批處理C.使用GELU替代ReLUD.稀疏注意力模式答案:A、B、D解析:C僅影響訓(xùn)練穩(wěn)定性,對(duì)推理延遲無(wú)顯著改善。17.關(guān)于DiffusionTransformer(DiT)的架構(gòu)特點(diǎn),正確的有A.使用AdaLNZero進(jìn)行條件注入B.完全移除selfattentionC.將timestep作為token送入D.采用VAEencoder提取latent答案:A、D解析:DiT保留selfattention,timestep通過(guò)AdaLNZero縮放,latent來(lái)自VAE。18.在聯(lián)邦學(xué)習(xí)攻擊中,屬于模型投毒的有A.反向梯度縮放B.標(biāo)簽翻轉(zhuǎn)C.拜占庭攻擊D.成員推理答案:A、B、C解析:D為隱私攻擊,非投毒。19.以下哪些算子支持PyTorch2.4pile的Triton后端融合A.aten.mmB.aten.addmmC.aten.layer_normD.aten.embedding答案:A、B、C解析:embedding為查表算子,目前Triton不融合。20.在NeRF變體中,支持動(dòng)態(tài)場(chǎng)景的有A.DNeRFB.NeRFTimeC.HyperNeRFD.MipNeRF360答案:A、B、C解析:MipNeRF360針對(duì)無(wú)界靜態(tài)場(chǎng)景。21.關(guān)于LLM量化誤差,下列說(shuō)法正確的有A.INT4權(quán)重+FP16激活的W4A16方案,矩陣乘輸出需反量化B.SmoothQuant通過(guò)遷移激活難度到權(quán)重,降低異常值C.GPTQ按列分組Hessian逆,逐列量化D.AWQ發(fā)現(xiàn)保留0.1%離群通道可顯著提升精度答案:A、B、C、D解析:均為2024頂會(huì)結(jié)論。22.在AlphaGoZero自我對(duì)弈中,以下哪些機(jī)制保證探索A.Dirichlet噪聲B.溫度參數(shù)τC.MCTS虛擬損失D.價(jià)值網(wǎng)絡(luò)隨機(jī)失活答案:A、B、C解析:D未使用。23.以下哪些方法可用于提升小樣本檢測(cè)性能A.MetaRCNNB.FSODupC.DetProD.YOLOv8p2答案:A、B、C解析:D為密集錨框改進(jìn),非小樣本專用。24.在AIGC版權(quán)保護(hù)中,屬于被動(dòng)水印的有A.對(duì)抗樣本擾動(dòng)B.模型指紋C.后置隱寫D.訓(xùn)練階段嵌入答案:A、C解析:B、D為主動(dòng)。25.關(guān)于Mamba狀態(tài)空間模型的并行掃描,正確的有A.時(shí)間復(fù)雜度O(BL)B.可反向傳播C.基于并行前綴和D.需存儲(chǔ)全部中間狀態(tài)答案:A、B、C解析:Mamba采用并行關(guān)聯(lián)掃描,無(wú)需存儲(chǔ)全部狀態(tài)。三、判斷題(每題1分,共10分)26.將LLM的RoPE基頻從10000改為500000,可顯著延長(zhǎng)外推長(zhǎng)度但會(huì)輕微損失短文本精度。答案:√解析:增大基頻降低高頻分量,長(zhǎng)序列插值更平滑。27.在DDIM采樣中,若將η設(shè)為1,則退化為DDPM的隨機(jī)采樣。答案:√解析:η控制隨機(jī)性,η=1時(shí)加入完整噪聲。28.VisionTransformer使用絕對(duì)位置編碼時(shí),插值長(zhǎng)度超過(guò)訓(xùn)練長(zhǎng)度必然導(dǎo)致性能崩潰。答案:×解析:可通過(guò)線性插值緩解,未必崩潰。29.在PyTorch中,torch.cuda.amp.autocast默認(rèn)對(duì)float32的卷積使用TF32。答案:√解析:Ampere架構(gòu)默認(rèn)開(kāi)啟TF32。30.使用LoRA微調(diào)時(shí),學(xué)習(xí)率應(yīng)與全參微調(diào)保持相同。答案:×解析:LoRA通常需放大1–2倍學(xué)習(xí)率。31.NeRF的positionalencoding去掉高頻函數(shù),會(huì)導(dǎo)致細(xì)節(jié)模糊。答案:√解析:高頻編碼提供高階幾何。32.在PPO中,GAEλ的λ越大,方差越小。答案:×解析:λ越大,偏差減小,方差增大。33.擴(kuò)散模型加噪過(guò)程為馬爾可夫鏈,因此反向去噪也必須是馬爾可夫。答案:×解析:DDIM可非馬爾可夫。34.聯(lián)邦學(xué)習(xí)中的SecureAggregation可防止服務(wù)器看到單個(gè)客戶端梯度。答案:√解析:通過(guò)同態(tài)掩碼實(shí)現(xiàn)。35.將SwiGLU替換為GeGLU會(huì)改變參數(shù)量。答案:√解析:SwiGLU與GeGLU的gate投影維度不同,參數(shù)量變化。四、填空題(每空2分,共20分)36.在LLaMA270B中,GQA的group數(shù)為_(kāi)_____。答案:8解析:原文表2,64頭÷8組=8。37.若StableDiffusion1.5的UNet參數(shù)為860M,則SDXLbase的UNet參數(shù)為_(kāi)_____M。答案:3350解析:官方報(bào)告3.5B,其中base占3.35B。38.在VisionTransformer中,若patchsize=14×14,輸入224×224,則序列長(zhǎng)度為_(kāi)_____。答案:256解析:(224/14)2=162=256。39.當(dāng)使用DeepSpeedZeRO2訓(xùn)練,若模型參數(shù)量為13B,則梯度占用顯存為_(kāi)_____GB(FP16)。答案:26解析:13B參數(shù)→26B字節(jié)→26GBFP16。40.在Mamba中,狀態(tài)維度D的默認(rèn)值為_(kāi)_____。答案:16解析:官方代碼mambassm默認(rèn)D=16。41.若將DDPM的T由1000改為2000,保持βschedule形狀,則β_start需______(乘/除)______倍。答案:除以,2解析:總噪聲量恒定,步數(shù)翻倍,β_start減半。42.在AlphaFold2中,Evoformer的MSAstack共______層。答案:48解析:原文補(bǔ)充材料。43.若使用FlashAttention2,在A10080GB上訓(xùn)練LLaMA65B,最大序列長(zhǎng)度可達(dá)______K。答案:128解析:實(shí)測(cè)batch=1,gradientcheckpointing,128K顯存約78GB。44.在LLM推理,采用INT8weightonly量化,權(quán)重顯存壓縮率為_(kāi)_____%。答案:50解析:FP16→INT8為50%。45.將YOLOv8n的C3模塊全部替換為FasterBlock,在COCOval2017上mAP下降約______點(diǎn)。答案:0.3解析:Ultralytics官方消融實(shí)驗(yàn)。五、簡(jiǎn)答題(每題10分,共30分)46.描述DiffusionTransformer(DiT)與原始DDPM在條件注入方式上的差異,并說(shuō)明AdaLNZero的數(shù)學(xué)形式。答案:DiT摒棄了DDPM中簡(jiǎn)單的timestep向量加噪方式,轉(zhuǎn)而將timestept與類別c作為條件,通過(guò)AdaLNZero動(dòng)態(tài)縮放歸一化層。具體地,對(duì)于第l層,歸一化后的特征h_l,計(jì)算γ_t,β_t=MLP(t);γ_c,β_c=MLP(c)則輸出為y=γ_t⊙LayerNorm(h_l)+β_t+γ_c⊙LayerNorm(h_l)+β_c其中MLP輸出維度2×d,分別對(duì)應(yīng)縮放與偏移。AdaLNZero在初始化時(shí)將MLP最后一層權(quán)重置零,保證初始時(shí)條件無(wú)貢獻(xiàn),訓(xùn)練穩(wěn)定。47.解釋FlashAttention2如何通過(guò)減少HBM讀寫次數(shù)實(shí)現(xiàn)加速,并給出復(fù)雜度對(duì)比。答案:FlashAttention2將attention分解為塊級(jí)softmax,利用GPUSRAM做在線歸一化,避免將中間S、P矩陣寫回HBM。標(biāo)準(zhǔn)attention需O(N2)讀寫,F(xiàn)lashAttention2降為O(N2)/M,其中M為SRAM塊大小。A100上SRAM=192KB,N=2K時(shí),HBM訪問(wèn)量從16GB降至0.2GB,實(shí)現(xiàn)2–4×墻鐘加速。48.闡述LoRA與QLoRA在顯存占用上的區(qū)別,并給出在LLaMA7B上單卡A100的實(shí)測(cè)數(shù)據(jù)。答案:LoRA僅訓(xùn)練低秩矩陣,顯存占用=模型權(quán)重+優(yōu)化器狀態(tài)+激活≈13GB+2GB+8GB=23GB。QLoRA在此基礎(chǔ)上將基模型權(quán)重量化為4bit,并采用雙量化與分頁(yè)優(yōu)化器,顯存降至≈10GB,可在單卡2

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論