版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年全省職業(yè)技能競(jìng)賽(人工智能訓(xùn)練師賽項(xiàng))備賽試題庫(kù)(含答案)一、單選題(每題1分,共30分)1.在PyTorch中,若模型在GPU上訓(xùn)練,下列哪段代碼可將張量x從CPU遷移到GPU?A.x.cuda()B.x.to("cuda:0")C.x.gpu()D.x.device("gpu")答案:B解析:PyTorch使用`.to("cuda:0")`或`.cuda()`均可,但官方推薦`.to()`以支持設(shè)備字符串,兼容性更好;C、D為無(wú)效API。2.使用Adam優(yōu)化器時(shí),若beta1=0.9、beta2=0.999,則二階矩估計(jì)的偏差修正項(xiàng)在t=2步時(shí)為:A.1/(10.9992)B.1/(10.999)C.10.9992D.10.999答案:A解析:二階矩偏差修正分母為1beta2^t,t=2時(shí)為10.9992,取倒數(shù)即A。3.在Transformer中,ScaledDotProductAttention的縮放因子為:A.1/d_kB.1/√d_kC.√d_kD.d_k答案:B解析:防止點(diǎn)積過(guò)大進(jìn)入softmax飽和區(qū),需除以√d_k。4.聯(lián)邦學(xué)習(xí)場(chǎng)景下,客戶端上傳的參數(shù)最可能是:A.原始訓(xùn)練數(shù)據(jù)B.模型權(quán)重梯度C.完整模型權(quán)重D.驗(yàn)證集準(zhǔn)確率答案:B解析:聯(lián)邦學(xué)習(xí)強(qiáng)調(diào)數(shù)據(jù)不出域,上傳梯度或加密后的權(quán)重更新。5.在YOLOv8中,若輸入圖像640×640,下采樣倍數(shù)為32,則特征圖尺寸為:A.20×20B.40×40C.80×80D.160×160答案:A解析:640/32=20。6.使用混合精度訓(xùn)練時(shí),lossscaling的主要目的是:A.加速收斂B.防止梯度下溢C.減少顯存D.提高學(xué)習(xí)率答案:B解析:fp16動(dòng)態(tài)范圍小,乘以scale因子可避免梯度下溢。7.在DiffusionModel前向加噪過(guò)程中,若T=1000,β_t線性遞增,則q(x_t|x_{t1})的方差:A.固定為β_tB.固定為1β_tC.固定為α_tD.固定為α_t的累積乘積答案:A解析:前向過(guò)程方差即為β_t。8.當(dāng)使用LoRA微調(diào)LLM時(shí),可訓(xùn)練參數(shù)集中在:A.Embedding層B.Attention矩陣的旁路低秩分解C.LayerNormD.輸出頭答案:B解析:LoRA將ΔW分解為低秩矩陣BA,僅訓(xùn)練B、A。9.在深度強(qiáng)化學(xué)習(xí)中,RainbowDQN未采用以下哪項(xiàng)改進(jìn)?A.DoubleDQNB.DuelingNetworkC.PolicyGradientD.PrioritizedReplay答案:C解析:Rainbow整合六項(xiàng),PolicyGradient不在其列。10.當(dāng)使用TensorRT加速時(shí),F(xiàn)P16模式相對(duì)FP32的顯存占用約:A.不變B.減半C.翻倍D.減少75%答案:B解析:FP16數(shù)據(jù)大小為FP32一半。11.在CLIP模型中,圖像編碼器最后一層輸出經(jīng)什么操作得到embedding?A.GlobalAvgPoolB.L2歸一化C.SoftmaxD.LayerNorm答案:B解析:圖文對(duì)比學(xué)習(xí)需L2歸一化后計(jì)算余弦相似度。12.若學(xué)習(xí)率調(diào)度器為CosineAnnealingLR,T_max=10,則第5輪學(xué)習(xí)率為:A.lr_max×0.5B.lr_max×(1+cos(π/2))/2C.lr_max×(1+cos(π))/2D.lr_max×cos(π/2)答案:B解析:cos(5π/10)=cos(π/2)=0,代入公式得0.5。13.在數(shù)據(jù)并行DP模式下,若batch=32、GPU=4,則每張卡實(shí)際處理樣本:A.32B.16C.8D.4答案:C解析:32/4=8。14.使用Kaiming初始化時(shí),若激活函數(shù)為ReLU,則方差增益為:A.1B.2C.√2D.0.5答案:B解析:He初始化考慮ReLU負(fù)半軸為0,增益取2。15.在NLP任務(wù)中,若詞匯表大小為50000,Embedding維度512,則參數(shù)量為:A.50000×512B.50000×512×2C.50000+512D.50000/512答案:A解析:純Lookup表,無(wú)共享。16.當(dāng)使用EarlyStopping時(shí),若patience=5,monitor='val_loss',則連續(xù)幾次不下降觸發(fā)停止?A.4B.5C.6D.3答案:B解析:patience即容忍次數(shù)。17.在VisionTransformer中,位置編碼常用:A.絕對(duì)正弦B.可學(xué)習(xí)1D向量C.相對(duì)旋轉(zhuǎn)D.無(wú)需位置編碼答案:B解析:ViT默認(rèn)1D可學(xué)習(xí)位置編碼。18.若模型參數(shù)量1.2B,使用Adam+FP32,則顯存約:A.4.8GBB.9.6GBC.14.4GBD.19.2GB答案:C解析:參數(shù)量×12字節(jié)(參數(shù)4+動(dòng)量4+二階4)≈14.4GB。19.在StableDiffusion中,文本編碼器采用:A.BERTB.CLIPTextEncoderC.T5D.GPT2答案:B解析:SD1.x使用CLIPViTL/14文本塔。20.當(dāng)使用F1score評(píng)估多分類時(shí),宏平均與微平均差異主要在于:A.是否加權(quán)樣本B.是否加權(quán)類別C.是否考慮混淆矩陣D.是否使用softmax答案:B解析:宏平均對(duì)每個(gè)類別平等,微平均全局統(tǒng)計(jì)。21.在模型蒸餾中,溫度T→∞時(shí),softmax輸出趨向:A.onehotB.均勻分布C.零向量D.原logits答案:B解析:溫度越高分布越平滑,極限均勻。22.若使用混合專家MoE,Top2gating,則每次激活參數(shù)量約為總專家參數(shù)的:A.100%B.50%C.2/k(k為專家數(shù))D.固定128M答案:C解析:Top2即激活2個(gè)專家,比例2/k。23.在AutoML中,NASNet搜索空間屬于:A.鏈?zhǔn)浇Y(jié)構(gòu)B.單元級(jí)重復(fù)C.隨機(jī)連線D.全連接答案:B解析:NASNet搜索Normal+Reduction單元,堆疊重復(fù)。24.當(dāng)使用梯度累積時(shí),accum_steps=4,則等效batch擴(kuò)大:A.2倍B.4倍C.8倍D.不變答案:B解析:顯式擴(kuò)大batch。25.在圖像分割中,若DiceLoss=0.25,則IoU約為:A.0.25B.0.2C.0.17D.0.33答案:C解析:Dice=2IoU/(1+IoU),反解IoU≈0.17。26.當(dāng)使用DeepSpeedZero3時(shí),優(yōu)化器狀態(tài)分片后顯存減少約:A.1/NB.2/NC.4/ND.不變答案:A解析:Zero3對(duì)參數(shù)、梯度、優(yōu)化器狀態(tài)全分片,線性減少。27.在語(yǔ)音合成Tacotron2中,位置敏感注意力機(jī)制主要解決:A.長(zhǎng)序列遺忘B.單調(diào)對(duì)齊C.語(yǔ)速變化D.音色遷移答案:B解析:強(qiáng)制單調(diào),避免重復(fù)或跳過(guò)。28.若使用RandAugment,默認(rèn)n=2、m=9,則單張圖最大變換次數(shù):A.2B.9C.11D.18答案:A解析:n即選擇變換個(gè)數(shù)。29.在模型部署階段,若使用ONNX導(dǎo)出動(dòng)態(tài)軸,應(yīng)設(shè)置:A.dynamic_axes={'input':{0:'batch'}}B.dynamic_axes={'input':0}C.input_names=['batch']D.opset_version=7答案:A解析:字典指定軸名。30.當(dāng)使用AUCROC評(píng)估,若正負(fù)樣本比1:99,則隨機(jī)分類器AUC期望:A.0.5B.0.99C.0.01D.1答案:A解析:隨機(jī)分類器ROC對(duì)角線,AUC=0.5。二、多選題(每題2分,共20分,多選少選均不得分)31.下列哪些操作可有效緩解目標(biāo)檢測(cè)中小目標(biāo)漏檢?A.增大輸入分辨率B.引入FPNC.使用CopyPaste數(shù)據(jù)增強(qiáng)D.降低NMS閾值答案:A、B、C解析:D降低閾值會(huì)增加誤檢。32.關(guān)于Transformer自注意力時(shí)間復(fù)雜度,正確的是:A.序列長(zhǎng)度n,復(fù)雜度O(n2d)B.稀疏注意力可降至O(n√n)C.FlashAttention降低顯存但復(fù)雜度不變D.線性注意力可做到O(nd)答案:A、B、C、D解析:線性注意力通過(guò)核技巧近似。33.在聯(lián)邦學(xué)習(xí)中,以下哪些屬于隱私威脅?A.模型逆向攻擊B.成員推理攻擊C.梯度泄露D.參數(shù)聚合答案:A、B、C解析:D為正常流程。34.使用混合專家MoE時(shí),可能出現(xiàn)的問(wèn)題包括:A.專家崩塌B.負(fù)載不均C.通信開(kāi)銷D.顯存爆炸答案:A、B、C、D解析:均需通過(guò)auxiliaryloss、Topk、專家并行緩解。35.在LLM推理加速中,以下哪些技術(shù)可行?A.KVCacheB.動(dòng)態(tài)批處理C.投機(jī)解碼D.量化到INT4答案:A、B、C、D解析:均為工業(yè)界主流方案。36.下列屬于無(wú)監(jiān)督圖像分割方法的是:A.Kmeans聚類B.Felzenszwalb算法C.GrabCutD.MaskRCNN答案:A、B、C解析:D為全監(jiān)督。37.在深度偽造檢測(cè)中,有效的線索包括:A.眨眼頻率異常B.顏色直方圖不一致C.面部landmark抖動(dòng)D.壓縮偽影答案:A、B、C、D解析:多模態(tài)特征融合。38.關(guān)于DiffusionModel采樣加速,正確的是:A.DDIM可確定性采樣B.DPMSolver多步加速C.蒸餾減少步數(shù)D.提高β_schedule即可無(wú)限加速答案:A、B、C解析:D盲目提高會(huì)失真。39.在模型壓縮中,通道剪枝的關(guān)鍵挑戰(zhàn):A.如何評(píng)估通道重要性B.如何保持結(jié)構(gòu)規(guī)整C.如何恢復(fù)精度D.如何增加FLOPs答案:A、B、C解析:D與目標(biāo)相反。40.使用DeepSpeed訓(xùn)練時(shí),以下哪些優(yōu)化可同時(shí)開(kāi)啟?A.Zero2B.梯度累積C.FP16D.Pipeline并行答案:A、B、C、D解析:正交優(yōu)化,可疊加。三、判斷題(每題1分,共10分,正確打“√”,錯(cuò)誤打“×”)41.在PyTorch中,`torch.no_grad()`會(huì)關(guān)閉自動(dòng)求導(dǎo)并節(jié)省顯存。答案:√解析:上下文管理器禁用梯度計(jì)算。42.BatchNorm在推理階段仍更新running_mean。答案:×解析:推理時(shí)固定,訓(xùn)練才更新。43.使用LabelSmoothing后,交叉熵?fù)p失可能為負(fù)值。答案:×解析:平滑后目標(biāo)分布非零,損失仍≥0。44.在VisionTransformer中,移除CLStoken仍可進(jìn)行圖像分類。答案:√解析:可全局平均池化。45.混合精度訓(xùn)練一定導(dǎo)致模型精度下降。答案:×解析:配合lossscaling可無(wú)損。46.聯(lián)邦學(xué)習(xí)中的SecureAggregation可防止服務(wù)器看到單個(gè)用戶梯度。答案:√解析:同態(tài)加密或秘密共享。47.RandAugment策略空間大小與ImageNetC無(wú)關(guān)。答案:×解析:ImageNetC為魯棒性測(cè)試集,策略空間固定。48.在YOLOv8中,AnchorFree機(jī)制意味著無(wú)需任何先驗(yàn)框。答案:√解析:中心點(diǎn)+回歸偏移。49.使用TensorRTINT8量化時(shí)必須進(jìn)行校準(zhǔn)。答案:√解析:需代表性數(shù)據(jù)計(jì)算縮放因子。50.當(dāng)使用AUCPR評(píng)估時(shí),正負(fù)樣本比例變化會(huì)影響基線。答案:√解析:PR曲線受先驗(yàn)影響。四、填空題(每題2分,共20分)51.在Transformer中,若d_model=512,h=8,則每個(gè)頭的維度為_(kāi)_____。答案:64解析:512/8=64。52.若使用Cosine學(xué)習(xí)率衰減,初始lr=0.1,最小lr=0.001,則衰減倍數(shù)為_(kāi)_____。答案:100解析:0.1/0.001=100。53.在StableDiffusion中,UNet輸入通道數(shù)為_(kāi)_____(含條件)。答案:9解析:4latent+4context+1timestep。54.當(dāng)使用FocalLoss,γ=2時(shí),易分類樣本權(quán)重相對(duì)CE縮小約______倍(pt=0.9)。答案:100解析:(10.9)2=0.01。55.若模型大小1.3B,使用INT8量化后,權(quán)重文件約______GB。答案:1.3解析:1.3B×1Byte≈1.3GB。56.在LLM評(píng)估中,衡量模型知識(shí)邊界的指標(biāo)縮寫為_(kāi)_____。答案:MMLU解析:MassiveMultitaskLanguageUnderstanding。57.當(dāng)使用DeepSpeedZero3,N=64GPU,則每卡存儲(chǔ)參數(shù)量占比為_(kāi)_____。答案:1/64解析:全分片。58.在圖像分割中,若預(yù)測(cè)mask概率0.8,gt=1,則BCE損失為_(kāi)_____(ln取自然對(duì)數(shù))。答案:0.223解析:ln(0.8)≈0.223。59.若使用RandAugment,變換幅度m=10,則旋轉(zhuǎn)最大角度為_(kāi)_____度。答案:30解析:m=10對(duì)應(yīng)30°。60.在聯(lián)邦學(xué)習(xí)FedAvg中,本地epoch增大可能導(dǎo)致模型______。答案:漂移解析:數(shù)據(jù)非獨(dú)立同分布引起客戶端漂移。五、簡(jiǎn)答題(每題5分,共30分)61.描述FlashAttention的核心思想及其對(duì)長(zhǎng)序列訓(xùn)練的實(shí)際收益。答案:FlashAttention通過(guò)分塊(tiling)將注意力計(jì)算拆分為可在SRAM中完成的小塊,避免實(shí)例化大的n×n注意力矩陣,從而將顯存復(fù)雜度從O(n2)降至O(n)。收益:1)顯存節(jié)省,可在A100上訓(xùn)練n=16k的Transformer;2)運(yùn)行速度提升24×,因減少HBM讀寫;3)精度無(wú)損,保持softmax數(shù)值穩(wěn)定性。62.說(shuō)明LoRA低秩適應(yīng)為何能在大模型微調(diào)中減少顯存占用,并給出參數(shù)壓縮比公式。答案:LoRA將可訓(xùn)練矩陣ΔW分解為B∈?^{d×r}、A∈?^{r×k},原始參數(shù)量dk,現(xiàn)變?yōu)?d+k)r。壓縮比=dk/((d+k)r)。當(dāng)r?min(d,k)時(shí),比接近dk/(dr+kr)=dk/(r(d+k)),可縮小數(shù)十倍;凍結(jié)原權(quán)重,僅需存儲(chǔ)低秩矩陣與梯度,優(yōu)化器狀態(tài)也同比例減少,顯存占用下降。63.列舉三種無(wú)監(jiān)督語(yǔ)音合成方法,并比較其優(yōu)缺點(diǎn)。答案:1)GlowTTS結(jié)合Flow,無(wú)需對(duì)齊,優(yōu)點(diǎn):自然度好,缺點(diǎn):計(jì)算量大;2)VITS使用VAE+GAN,端到端,優(yōu)點(diǎn):實(shí)時(shí)性好,缺點(diǎn):訓(xùn)練不穩(wěn)定;3)YourTTS基于SpeakerEncoder,優(yōu)點(diǎn):零樣本,缺點(diǎn):音色相似度依賴數(shù)據(jù)。64.解釋DINOv2自監(jiān)督訓(xùn)練中的“動(dòng)量教師”機(jī)制,并說(shuō)明為何能避免崩潰解。答案:DINOv2維護(hù)一個(gè)動(dòng)量更新的教師網(wǎng)絡(luò),權(quán)重θ_t←mθ_t+(1m)θ_s,學(xué)生θ_s通過(guò)梯度更新。教師輸出經(jīng)Centering與Sharpness處理,學(xué)生用交叉熵匹配教師。動(dòng)量提供一致性目標(biāo),Centering防止所有輸出相同,Sharpness增加峰值,共同避免崩潰。65.給出一種在邊緣端部署YOLOv8nano的完整優(yōu)化鏈路,含量化、剪枝、編譯。答案:1)訓(xùn)練后量化:使用Ultralytics自帶`exportformat=engineint8=True`,用100張校準(zhǔn)圖;2)通道剪枝:基于BN層γ排序,剪30%通道,微調(diào)50epoch;3)TensorRT編譯:開(kāi)啟FP16+INT8混用,設(shè)置workspace=2GB,maxBatch=8;4)部署:JetsonOrinNano,時(shí)鐘maxn,推理速度從30FPS提升至120FPS,mAP下降<1%。66.說(shuō)明在聯(lián)邦學(xué)習(xí)場(chǎng)景下如何利用SecureAggregation抵御半誠(chéng)實(shí)服務(wù)器,并給出基于秘密共享的加法流程。答案:客戶端i對(duì)本地梯度g_i生成隨機(jī)數(shù)r_i,滿足Σr_i=0;發(fā)送g_i+r_i到服務(wù)器;服務(wù)器聚合得到Σ(g_i+r_i)=Σg_i;因r_i和為零,服務(wù)器無(wú)法獲知單個(gè)g_i。使用Shamir(t,n)秘密共享,可容忍t1客戶端掉線,保證隱私與魯棒。六、計(jì)算題(每題10分,共30分)67.給定一個(gè)Transformer塊,d_model=1024,序列長(zhǎng)度n=2048,batch=4,heads=16,計(jì)算標(biāo)準(zhǔn)自注意力與FlashAttention的顯存占用差值(單位GB,保留兩位小數(shù))。答案:標(biāo)準(zhǔn):QKV投影輸出4×2048×1024×3×4Byte=0.75GB;注意力矩陣4×16×2048×2048×4Byte=8GB;合計(jì)≈8.75GB。Flash:無(wú)需存儲(chǔ)大矩陣,僅分塊中間結(jié)果,假設(shè)塊大小128,需4×16×128×128×4Byte×(Q+K+V+Softmax)=0.13GB。差值:8.750.13=8.62GB。68.若使用LoRA微調(diào)GPT3175B,r=16,僅對(duì)Attention的QKV投影做適應(yīng),求可訓(xùn)練參數(shù)量及占比。答案:GPT3Attention參數(shù)量=96層×3投影×12288×12288≈43B。LoRA每投影參數(shù)量=2×12288×16=393k,總=96×3×393k≈113M。占比=113M/175B≈0.065%。69.在StableDiffusionv2.1中,UNet模型一次前向需計(jì)算TFLOPs。給定輸入latent64×64×4,模型參數(shù)量865M,采用FP16,假設(shè)FLOPs≈2×參數(shù)量×token數(shù),token=64×64=4096,求TFLOPs。答案:FLOPs=2×865M×4096≈7.1×1012,即7.1TFLO
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 師大數(shù)學(xué)二模題目及答案
- 輸血的三查八對(duì)制度
- 2025年津市市事業(yè)編考試題目及答案
- 董事會(huì)負(fù)責(zé)審議內(nèi)部審計(jì)制度
- 2025年山西農(nóng)業(yè)廳事業(yè)單位考試及答案
- 2025年6月15日事業(yè)單位考試及答案
- 2025年上饒23年事業(yè)單位考試及答案
- 2025年視覺(jué)美工面試題庫(kù)及答案
- 2025年鐘樓區(qū)公開(kāi)招聘筆試及答案
- 藥事管理法律法規(guī)及相關(guān)制度
- 公共區(qū)域精裝修施工組織設(shè)計(jì)
- 2025-2030智慧城市大腦建設(shè)規(guī)劃與多感知系統(tǒng)融合
- 研一上年終總結(jié)組會(huì)
- DB51∕T 1492-2022 農(nóng)區(qū)畜禽養(yǎng)殖負(fù)荷風(fēng)險(xiǎn)評(píng)估技術(shù)規(guī)程
- 2025年農(nóng)業(yè)供應(yīng)鏈金融解決方案可行性分析報(bào)告
- 支氣管哮喘急性發(fā)作期護(hù)理查房
- 高級(jí)消防設(shè)施操作員試題及答案-3
- 反三違安全知識(shí)培訓(xùn)課件
- 柴油發(fā)電機(jī)組原理課件
- 2025年國(guó)家公務(wù)員考試申論試題(行政執(zhí)法卷)及參考答案
- 2025年住院醫(yī)師規(guī)培-廣西-廣西住院醫(yī)師規(guī)培(骨科)歷年參考題庫(kù)含答案解析(5卷套題【單選100題】)
評(píng)論
0/150
提交評(píng)論