版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年國(guó)大學(xué)生人工智能知識(shí)競(jìng)賽題庫(kù)及答案一、單選題(每題2分,共40分。每題只有一個(gè)正確答案,錯(cuò)選、多選均不得分)1.在Transformer架構(gòu)中,用于將輸入序列中任意兩個(gè)位置直接關(guān)聯(lián)起來(lái)的核心機(jī)制是A.卷積核滑動(dòng)B.循環(huán)隱狀態(tài)傳遞C.自注意力權(quán)重矩陣D.池化下采樣答案:C解析:自注意力通過(guò)Q、K、V計(jì)算得到權(quán)重矩陣,實(shí)現(xiàn)任意位置token的直接交互,卷積與循環(huán)均不具備全局一步直達(dá)能力。2.下列關(guān)于聯(lián)邦學(xué)習(xí)(FederatedLearning)的說(shuō)法,錯(cuò)誤的是A.中央服務(wù)器始終掌握各客戶(hù)端原始數(shù)據(jù)B.采用安全聚合協(xié)議可防止模型更新泄露C.FedAvg算法通過(guò)加權(quán)平均聚合本地梯度D.差分隱私可在上傳梯度時(shí)添加噪聲答案:A解析:聯(lián)邦學(xué)習(xí)核心即“數(shù)據(jù)不動(dòng)模型動(dòng)”,原始數(shù)據(jù)保留在本地,服務(wù)器僅接收加密或噪聲化后的梯度。3.在StableDiffusion文生圖流程中,文本編碼器通常采用A.CLIP的TextEncoderB.BERTBaseChineseC.VisionTransformerD.SwinTransformer答案:A解析:StableDiffusion使用CLIPtextencoder將提示詞映射到共享語(yǔ)義空間,再與UNet噪聲預(yù)測(cè)網(wǎng)絡(luò)交互。4.若某深度網(wǎng)絡(luò)使用Swish激活函數(shù),其導(dǎo)數(shù)在x=0處的值為A.0B.0.5C.1D.σ(1)答案:B解析:Swish(x)=x·σ(x),求導(dǎo)得σ(x)+x·σ(x)(1σ(x)),代入x=0得σ(0)=0.5,故導(dǎo)數(shù)為0.5。5.在A(yíng)lphaGoZero的自我對(duì)弈中,用于指導(dǎo)MCTS搜索的神經(jīng)網(wǎng)絡(luò)輸出包含A.局面勝率v與策略概率πB.僅局面勝率vC.僅策略概率πD.動(dòng)作價(jià)值Q與獎(jiǎng)勵(lì)R答案:A解析:網(wǎng)絡(luò)輸出(v,π),其中v評(píng)估勝率,π提供先驗(yàn)概率,共同指導(dǎo)樹(shù)搜索。6.當(dāng)使用LoRA對(duì)大模型做參數(shù)高效微調(diào)時(shí),可訓(xùn)練參數(shù)量通常約為原模型的A.0.1%–1%B.10%–20%C.50%D.100%答案:A解析:LoRA引入低秩分解矩陣,秩r常取4–64,可訓(xùn)練參數(shù)量級(jí)≈2×r×d_model,占比遠(yuǎn)小于1%。7.在DiffusionModel訓(xùn)練階段,網(wǎng)絡(luò)通常擬合的是A.原始圖像x?B.噪聲εC.均值μD.方差Σ答案:B解析:DDPM訓(xùn)練目標(biāo)為預(yù)測(cè)添加到x?的高斯噪聲ε,損失函數(shù)為MSE(ε_(tái)θ(x_t,t),ε)。8.下列關(guān)于VisionTransformer(ViT)的敘述,正確的是A.只能在ImageNet上訓(xùn)練,不能遷移B.patchembedding后不再使用位置編碼C.分類(lèi)頭采用CLStoken輸出D.必須使用卷積下采樣答案:C解析:ViT在序列前添加可學(xué)習(xí)的CLStoken,經(jīng)Transformer后取該token做分類(lèi),位置編碼為絕對(duì)或二維正弦。9.在強(qiáng)化學(xué)習(xí)中,當(dāng)策略梯度算法引入基線(xiàn)(baseline)后,梯度方差A(yù).一定增大B.一定減小C.不變D.可能增大或減小答案:B解析:基線(xiàn)不改變梯度期望,但可減小方差,證明見(jiàn)Sutton教材PolicyGradientTheoremwithBaseline。10.若某卷積層輸入為32×32×64,采用64個(gè)3×3卷積核,padding=1,stride=2,則輸出尺寸為A.16×16×64B.15×15×64C.32×32×64D.64×64×64答案:A解析:O=(I+2PK)/S+1=(32+23)/2+1=16,通道數(shù)等于卷積核數(shù)64。11.在PyTorch中,以下代碼執(zhí)行后x.grad的值為```pythonx=torch.tensor(2.0,requires_grad=True)y=x3y.backward()```A.4B.6C.8D.12答案:D解析:dy/dx=3x2,x=2時(shí)導(dǎo)數(shù)為12,x.grad自動(dòng)累加該值。12.當(dāng)使用混合精度訓(xùn)練時(shí),梯度縮放(GradientScaling)的主要目的是A.減小內(nèi)存占用B.避免下溢C.加速通信D.提高batchsize答案:B解析:float16梯度易下溢,縮放后回傳,更新前再反縮放,保持?jǐn)?shù)值穩(wěn)定。13.在GPT系列模型中,Decoderonly架構(gòu)利用的注意力掩碼為A.全1矩陣B.下三角矩陣C.上三角矩陣D.對(duì)角為0其余為1答案:B解析:自回歸生成需防止信息向右泄露,掩碼屏蔽未來(lái)位置,呈下三角。14.若某模型在ImageNet上Top1準(zhǔn)確率為76.1%,使用CutMix數(shù)據(jù)增強(qiáng)后,理論上最可能A.提升泛化,準(zhǔn)確率上升B.提升泛化,準(zhǔn)確率下降C.過(guò)擬合,準(zhǔn)確率上升D.無(wú)影響答案:A解析:CutMix通過(guò)混合圖像與標(biāo)簽,增加樣本多樣性,通常提升驗(yàn)證集準(zhǔn)確率。15.在知識(shí)蒸餾中,當(dāng)教師模型輸出為軟標(biāo)簽,溫度參數(shù)T→∞時(shí),softmax輸出趨近A.onehotB.均勻分布C.高斯分布D.伯努利分布答案:B解析:T→∞使logits差異縮小,softmax輸出趨近均勻分布。16.下列關(guān)于RMSprop的表述,正確的是A.使用梯度一階動(dòng)量B.分母為梯度平方的指數(shù)移動(dòng)平均C.學(xué)習(xí)率隨時(shí)間線(xiàn)性下降D.需要手動(dòng)設(shè)置全局步長(zhǎng)答案:B解析:RMSprop用梯度平方的EMA調(diào)整學(xué)習(xí)率,不含一階動(dòng)量,與Adam不同。17.在NeRF神經(jīng)輻射場(chǎng)中,體渲染積分沿射線(xiàn)采樣點(diǎn)的顏色加權(quán)依據(jù)是A.僅透明度αB.僅顏色cC.透明度α與累積透射率TD.僅深度z答案:C解析:顏色貢獻(xiàn)為T(mén)(i)·α(i)·c(i),T(i)表示射線(xiàn)到達(dá)該點(diǎn)的存活概率。18.當(dāng)使用A算法求解路徑規(guī)劃時(shí),若啟發(fā)函數(shù)h(n)滿(mǎn)足h(n)≤h(n),則稱(chēng)該啟發(fā)函數(shù)A.可采納B.一致C.松弛D.單調(diào)答案:A解析:可采納性即不高估實(shí)際代價(jià),保證A找到最優(yōu)解。19.在對(duì)比學(xué)習(xí)SimCLR框架中,損失函數(shù)NTXent的“NT”指A.NormalizedTemperaturescaledB.NegativeTransferC.NeuralTangentD.NoiseTolerant答案:A解析:NTXent即歸一化溫度縮放交叉熵,溫度系數(shù)τ控制分布尖銳度。20.若某GPU顯存為24GB,混合精度訓(xùn)練下,使用DeepSpeedZeRO3可將模型參數(shù)上限提升至A.24GBB.48GBC.120GBD.無(wú)上限答案:C解析:ZeRO3將參數(shù)、梯度、優(yōu)化器狀態(tài)全分片,理論上可訓(xùn)練大于顯存5倍的模型,24GB×5≈120GB。二、多選題(每題3分,共30分。每題有兩個(gè)或兩個(gè)以上正確答案,多選、少選、錯(cuò)選均不得分)21.下列技術(shù)可有效緩解LLM推理時(shí)顯存占用的是A.KVCacheB.GradientCheckpointingC.FlashAttentionD.Int8WeightonlyQuantization答案:ACD解析:KVCache復(fù)用鍵值,F(xiàn)lashAttention重排計(jì)算減少峰值,Int8量化降低權(quán)重體積;Checkpointing用于訓(xùn)練而非推理。22.關(guān)于Diffusion與GAN的對(duì)比,正確的有A.Diffusion訓(xùn)練階段無(wú)需判別器B.GAN生成速度通??煊贒DPMC.Diffusion可逆過(guò)程保證似然計(jì)算D.GAN模式坍塌風(fēng)險(xiǎn)低于Diffusion答案:ABC解析:Diffusion為最大似然訓(xùn)練,無(wú)判別器;需多步去噪,生成慢;DDPM可計(jì)算證據(jù)下界;GAN更易模式坍塌。23.在聯(lián)邦學(xué)習(xí)中,參與方可能面臨的攻擊包括A.模型投毒B.成員推理C.屬性推理D.梯度泄露答案:ABCD解析:投毒影響全局模型,成員/屬性推理從輸出反推數(shù)據(jù),梯度泄露可重建輸入。24.下列屬于Transformer位置編碼方案的有A.絕對(duì)正弦B.相對(duì)位置偏置C.RoPE旋轉(zhuǎn)式D.ALiBi斜率偏置答案:ABCD解析:四種方案均被不同模型采用,ALiBi在BLOOM中表現(xiàn)優(yōu)異。25.當(dāng)使用PyTorchLightning時(shí),其自動(dòng)支持的功能有A.多卡DDP訓(xùn)練B.混合精度C.檢查點(diǎn)保存D.超參搜索答案:ABC解析:Lightning封裝DDP、AMP、Checkpoint;超參搜索需集成Optuna等外部庫(kù)。26.在自動(dòng)駕駛感知系統(tǒng)中,多傳感器融合的優(yōu)點(diǎn)包括A.提升冗余度B.降低單一傳感器失效風(fēng)險(xiǎn)C.增加算法延遲D.擴(kuò)大感知范圍答案:ABD解析:融合不會(huì)必然增加延遲,合理設(shè)計(jì)可并行處理。27.下列關(guān)于NeRF變體的描述,正確的有A.InstantNGP采用多分辨率哈希編碼B.MipNerf解決抗鋸齒C.NeRF++處理無(wú)界場(chǎng)景D.PixelNeRF僅需一張輸入視圖答案:ABC解析:PixelNeRF需少量視圖,非嚴(yán)格單張;其余均正確。28.在模型壓縮技術(shù)中,屬于“訓(xùn)練后量化”P(pán)TQ的方法有A.動(dòng)態(tài)量化B.靜態(tài)量化C.QAT量化感知訓(xùn)練D.LLM.int8()答案:ABD解析:QAT需重訓(xùn)練,PTQ無(wú)需。29.下列指標(biāo)可用于評(píng)估生成模型多樣性的有A.InceptionScoreB.FIDC.LPIPSD.Precision與Recall答案:AD解析:IS與Recall反映多樣性,F(xiàn)ID側(cè)重真實(shí)分布距離,LPIPS為感知相似度。30.在RLHF(人類(lèi)反饋強(qiáng)化學(xué)習(xí))中,獎(jiǎng)勵(lì)模型訓(xùn)練階段使用的損失函數(shù)可包含A.交叉熵B.排序損失C.均方誤差D.對(duì)比損失答案:BD解析:獎(jiǎng)勵(lì)模型通常采用BradleyTerry排序損失或?qū)Ρ葥p失,不直接回歸絕對(duì)分?jǐn)?shù)。三、判斷題(每題1分,共10分。正確打“√”,錯(cuò)誤打“×”)31.VisionTransformer的patchsize越小,模型參數(shù)一定越少。答案:×解析:patch越小則序列越長(zhǎng),Transformer塊數(shù)不變情況下參數(shù)量不變,但計(jì)算量增大。32.在DDPM中,前向加噪過(guò)程q(x_t|x_{t1})被設(shè)計(jì)為馬爾可夫鏈。答案:√解析:DDPM前向過(guò)程為逐步添加高斯噪聲的馬爾可夫鏈。33.使用ReLU激活的神經(jīng)網(wǎng)絡(luò),其損失曲面一定是凸的。答案:×解析:即使ReLU分段線(xiàn)性,多層復(fù)合后曲面非凸,存在多個(gè)局部極小。34.在聯(lián)邦學(xué)習(xí)中,F(xiàn)edProx通過(guò)添加近端項(xiàng)μ‖ww_k‖2可緩解客戶(hù)端漂移。答案:√解析:近端項(xiàng)限制本地更新遠(yuǎn)離全局模型,減小異構(gòu)性帶來(lái)的漂移。35.混合精度訓(xùn)練時(shí),F(xiàn)P16可表示的數(shù)值范圍大于FP32。答案:×解析:FP16動(dòng)態(tài)范圍約10??–10?,F(xiàn)P32約10?3?–103?,后者更大。36.對(duì)比學(xué)習(xí)中的InfoNCE損失可看作多分類(lèi)交叉熵的特例。答案:√解析:InfoNCE將正樣本視為一類(lèi),負(fù)樣本為其余類(lèi),與溫度縮放交叉熵形式一致。37.在NeRF體渲染中,若某采樣點(diǎn)透明度α=0,則該點(diǎn)顏色對(duì)像素?zé)o貢獻(xiàn)。答案:√解析:α=0表示完全透射,顏色權(quán)重為0。38.GPT3的參數(shù)量大于GPT4。答案:×解析:GPT4公開(kāi)報(bào)告未給出確切值,但業(yè)界估計(jì)其參數(shù)量級(jí)高于GPT3的175B。39.使用GroupNorm時(shí),batchsize大小對(duì)統(tǒng)計(jì)量無(wú)影響。答案:√解析:GroupNorm沿通道分組計(jì)算均值方差,與batch維無(wú)關(guān)。40.在目標(biāo)檢測(cè)中,YOLOv8的C2f模塊引入了Split與Concat操作,可視為跨階段部分連接。答案:√解析:C2f將特征拆分后跨階段融合,增強(qiáng)梯度流并減少計(jì)算。四、填空題(每空2分,共20分)41.在Transformer中,若隱藏維度d_model=512,注意力頭數(shù)h=8,則每個(gè)頭的維度為_(kāi)_____。答案:64解析:512/8=64。42.若學(xué)習(xí)率調(diào)度器為cosineannealing,初始lr=0.1,周期T=100,則第50步的lr為_(kāi)_____。答案:0.05解析:cosine下降曲線(xiàn)在T/2處為中間值0.05。43.在PyTorch中,將模型移至CUDA的函數(shù)調(diào)用為model.______()。答案:cuda解析:model.cuda()。44.若BatchNorm的γ初始化為0,則該層輸出恒為_(kāi)_____。答案:0解析:y=γ(xμ)/σ+β,γ=0則y=β,但β通常初始0,故輸出0。45.在A(yíng)算法中,若啟發(fā)函數(shù)h(n)=0,則算法退化為_(kāi)_____算法。答案:Dijkstra解析:h(n)=0即僅g(n)決定優(yōu)先級(jí),等價(jià)Dijkstra。46.若使用INT8量化,權(quán)重由FP32→INT8,理論壓縮比為_(kāi)_____倍。答案:4解析:32/8=4。47.在SimCLR中,批量大小為N,則每張圖片的正樣本數(shù)為_(kāi)_____(不含自身)。答案:1解析:僅其增強(qiáng)視圖視為正樣本,其余2N2為負(fù)。48.若卷積層dilation=2,3×3核等效感受野為_(kāi)_____×______。答案:5×5解析:dilation=2在3×3核中間插入空洞,等效5×5。49.在BERT預(yù)訓(xùn)練中,MaskedLM的掩碼比例約為_(kāi)_____%。答案:15解析:原文掩碼15%token。50.若使用FSDP(FullyShardedDataParallel),則優(yōu)化器狀態(tài)被______到各GPU。答案:分片/shard解析:FSDP將參數(shù)、梯度、優(yōu)化器狀態(tài)全分片。五、簡(jiǎn)答題(每題10分,共30分)51.描述FlashAttention如何通過(guò)重排計(jì)算降低顯存峰值,并給出與傳統(tǒng)Attention的復(fù)雜度對(duì)比。答案:FlashAttention將Attention計(jì)算從O(N2)內(nèi)存降至O(N)分塊,核心思想為“onlinesoftmax”與“tiling”。傳統(tǒng)實(shí)現(xiàn)需物化N×N得分矩陣S與概率矩陣P,顯存O(N2)。FlashAttention將Q、K、V按塊加載到SRAM,逐塊計(jì)算softmax的歸一化因子,迭代更新輸出,無(wú)需存儲(chǔ)大矩陣;僅保存最終輸出O(N)與塊級(jí)中間變量。計(jì)算復(fù)雜度仍為O(N2),但顯存峰值由O(N2)降至O(N),使得長(zhǎng)序列訓(xùn)練可行。實(shí)驗(yàn)顯示在N=4K時(shí)顯存節(jié)省約7倍,速度提升2–4倍。52.解釋QLoRA如何在單卡48GBGPU上微調(diào)65B參數(shù)模型,并列出關(guān)鍵創(chuàng)新點(diǎn)。答案:QLoRA結(jié)合4bitNormalFloat(NF4)量化、雙重量化與LoRA微調(diào)。首先,NF4基于正態(tài)分布分位數(shù)量化權(quán)重到4bit,保持信息熵最優(yōu);其次,雙重量化對(duì)4bit的量化常數(shù)再做8bit量化,節(jié)省0.4bit/參數(shù);第三,使用分頁(yè)優(yōu)化器(pagedoptimizer)將優(yōu)化器狀態(tài)在CPU與GPU間換頁(yè)。65B模型參數(shù)占32.5GB(4bit),激活與KVcache占<10GB,LoRA低秩適配器僅約100M可訓(xùn)練參數(shù),顯存峰值<45GB,故可在48GB單卡完成微調(diào)。關(guān)鍵創(chuàng)新:NF4數(shù)據(jù)類(lèi)型、雙重量化、分頁(yè)優(yōu)化器。53.對(duì)比分析Diffusion與GAN在文本生成圖像任務(wù)上的優(yōu)缺點(diǎn),并給出實(shí)驗(yàn)證據(jù)。答案:Diffusion優(yōu)點(diǎn):1.訓(xùn)練穩(wěn)定,無(wú)模式坍塌,F(xiàn)ID在MSCOCO30K上達(dá)8.1(StableDiffusionv2.1);2.似然可計(jì)算,覆蓋多樣;3.易于引入條件(CLIP引導(dǎo))。缺點(diǎn):1.需多步(50步)去噪,生成慢,RTX4090上512×512圖約3s;2.對(duì)提示詞敏感,需精心調(diào)參。GAN優(yōu)點(diǎn):1.單步生成,StyleGANT在512×512分辨率下10ms;2.潛在空間編輯成熟。缺點(diǎn):1.模式坍塌,文本條件GAN在COCO上FID僅12–15;2.訓(xùn)練難,需精心設(shè)計(jì)判別器與正則化。文獻(xiàn)《OnDistillationofGuidedDiffusionModels》顯示,將Diffusion蒸餾為兩步網(wǎng)絡(luò),生成時(shí)間降至0.2s,F(xiàn)ID
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 企業(yè)人力資源管理師變革管理測(cè)試考核試卷含答案
- 山石工沖突解決評(píng)優(yōu)考核試卷含答案
- 鋼琴共鳴盤(pán)制作工崗前技能評(píng)估考核試卷含答案
- 2024年都昌縣幼兒園教師招教考試備考題庫(kù)附答案
- 2024年邵陽(yáng)通航職業(yè)技術(shù)學(xué)院輔導(dǎo)員招聘考試真題匯編附答案
- 2024年鄂州市遴選公務(wù)員筆試真題匯編附答案
- 2025安徽淮北市總工會(huì)社會(huì)化工會(huì)工作者招聘9人備考題庫(kù)附答案
- 2025年云南省公務(wù)員考試行測(cè)常識(shí)判斷題及1套完整答案
- 2025年企業(yè)市場(chǎng)調(diào)研流程手冊(cè)
- 2025年航空公司航班運(yùn)營(yíng)與安全手冊(cè)
- 2025年大學(xué)大四(預(yù)防醫(yī)學(xué))環(huán)境衛(wèi)生學(xué)階段測(cè)試試題及答案
- 文物安全保護(hù)責(zé)任書(shū)范本
- 產(chǎn)房護(hù)士長(zhǎng)年度工作業(yè)績(jī)總結(jié)與展望
- 【初中 歷史】2025-2026學(xué)年統(tǒng)編版八年級(jí)上學(xué)期歷史總復(fù)習(xí) 課件
- 2025~2026學(xué)年黑龍江省哈爾濱市道里區(qū)第七十六中學(xué)校九年級(jí)上學(xué)期9月培優(yōu)(四)化學(xué)試卷
- 2025年律師事務(wù)所黨支部書(shū)記年終述職報(bào)告
- 中國(guó)腦小血管病診治指南2025
- 中國(guó)零排放貨運(yùn)走廊創(chuàng)新實(shí)踐經(jīng)驗(yàn)、挑戰(zhàn)與建議
- 宋代插花課件
- 2025年度耳鼻喉科工作總結(jié)及2026年工作計(jì)劃
- 2024年執(zhí)業(yè)藥師《藥學(xué)專(zhuān)業(yè)知識(shí)(一)》試題及答案
評(píng)論
0/150
提交評(píng)論