2025年全省職業(yè)技能競賽(人工智能訓練師賽項)備賽試題庫及答案_第1頁
2025年全省職業(yè)技能競賽(人工智能訓練師賽項)備賽試題庫及答案_第2頁
2025年全省職業(yè)技能競賽(人工智能訓練師賽項)備賽試題庫及答案_第3頁
2025年全省職業(yè)技能競賽(人工智能訓練師賽項)備賽試題庫及答案_第4頁
2025年全省職業(yè)技能競賽(人工智能訓練師賽項)備賽試題庫及答案_第5頁
已閱讀5頁,還剩23頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

2025年全省職業(yè)技能競賽(人工智能訓練師賽項)備賽試題庫及答案一、單項選擇題(每題1分,共30分。每題只有一個正確答案,請將正確選項字母填入括號內(nèi))1.在PyTorch中,若模型在GPU上訓練,以下哪條語句可將張量x從CPU遷移到GPU?A.x.to("cuda:0")B.x.cuda()C.x.gpu()D.x.device("cuda")答案:A2.使用Adam優(yōu)化器時,若beta1=0.9、beta2=0.999,則二階矩估計的偏差修正項在t=1步時的值為A.0.999B.0.001C.0.002D.0.000答案:B3.在Transformer中,位置編碼采用sin/cos函數(shù)的主要目的是A.增強非線性B.提供序列順序信息C.降低參數(shù)量D.加速收斂答案:B4.在目標檢測任務中,YOLOv5使用的損失函數(shù)中負責抑制負樣本的部件是A.CIOUlossB.BCEobjlossC.BCEclslossD.MSEloss答案:B5.當使用混合精度訓練時,GradScaler的作用為A.自動調(diào)整學習率B.防止梯度下溢C.壓縮模型體積D.替換優(yōu)化器答案:B6.在BERT預訓練中,MaskedLM的掩碼比例通常設置為A.5%B.10%C.15%D.30%答案:C7.在聯(lián)邦學習場景下,F(xiàn)edAvg算法每輪通信中服務器端聚合方式為A.加權平均B.幾何中值C.投票D.隨機選擇答案:A8.若某卷積層輸入通道為64,輸出通道為128,卷積核大小3×3,padding=1,則該層參數(shù)量為A.64×128×3×3B.64×128×3×3+128C.128×3×3D.64×128×9+128答案:B9.在深度強化學習中,DDPG算法屬于A.基于策略B.基于價值C.ActorCriticD.模型預測控制答案:C10.當使用EarlyStopping時,若patience=5,則連續(xù)驗證集指標不提升達到多少次后停止訓練?A.3B.5C.6D.10答案:B11.在圖像分割任務中,DiceLoss的取值范圍是A.[0,1]B.[1,1]C.[0,+∞)D.(∞,+∞)答案:A12.若學習率調(diào)度器采用CosineAnnealingLR,則其周期結束后學習率將A.線性增加B.保持不變C.回到初始值D.降為0答案:C13.在模型蒸餾中,溫度T越大,則softmax輸出分布A.更尖銳B.更平滑C.不變D.變?yōu)榫鶆蚍植即鸢福築14.在NLP數(shù)據(jù)增強中,EasyDataAugmentation(EDA)不包括A.同義詞替換B.隨機插入C.隨機交換D.回譯答案:D15.當使用Kfold交叉驗證時,若k=5,則每折用作訓練的數(shù)據(jù)占比約為A.20%B.60%C.80%D.100%答案:C16.在PyTorchLightning中,用于定義訓練步的函數(shù)名是A.training_stepB.train_stepC.forwardD.optimizer_step答案:A17.若BatchNorm層輸入特征圖尺寸為(B,C,H,W),則可學習參數(shù)γ的維度為A.BB.CC.HD.W答案:B18.在GPT系列模型中,采用的無監(jiān)督目標為A.MLMB.NSPC.CLMD.SBO答案:C19.當使用混合專家(MoE)結構時,門控網(wǎng)絡通常采用A.ReLUB.SoftmaxC.SigmoidD.Tanh答案:B20.在模型部署階段,ONNX格式的主要優(yōu)勢是A.提高精度B.跨框架兼容C.增加參數(shù)量D.降低延遲答案:B21.在推薦系統(tǒng)深度模型DeepFM中,F(xiàn)M部分主要捕獲A.高階非線性B.低階特征交互C.序列信息D.多模態(tài)答案:B22.若使用Horovod進行分布式訓練,則梯度聚合采用A.AllReduceB.ParameterServerC.RingAllGatherD.Broadcast答案:A23.在圖像增強庫Albumentations中,實現(xiàn)隨機旋轉的變換是A.RotateB.ShiftScaleRotateC.RandomRotate90D.Affine答案:A24.當使用知識蒸餾時,教師模型預測結果稱為A.hardlabelB.softtargetC.groundtruthD.anchor答案:B25.在語音識別中,CTC損失函數(shù)允許A.強制對齊B.單調(diào)對齊C.多對一映射D.一對多映射答案:C26.若使用TensorBoard記錄標量,則對應API為A.add_scalarB.add_histogramC.add_imageD.add_graph答案:A27.在模型剪枝中,magnitudebasedpruning依據(jù)A.梯度大小B.權重絕對值C.激活值D.損失變化答案:B28.在GAN訓練中,若判別器損失迅速趨于0,則生成器梯度將A.增大B.減小C.不變D.消失答案:D29.在PyTorch中,若需凍結某層參數(shù),應設置A.requires_grad=FalseB.train=FalseC.eval()D.detach()答案:A30.當使用AUC作為二分類指標時,其值越接近1表示A.模型越差B.模型越好C.過擬合D.欠擬合答案:B二、多項選擇題(每題2分,共20分。每題有兩個或兩個以上正確答案,請將所有正確選項字母填入括號內(nèi),漏選、錯選均不得分)31.以下哪些操作可有效緩解模型過擬合?A.DropoutB.L2正則C.增加網(wǎng)絡深度D.數(shù)據(jù)增強答案:ABD32.在Transformer自注意力機制中,scaleddotproductattention包含A.Q×K^TB.除以根號d_kC.SoftmaxD.與V相乘答案:ABCD33.以下屬于無監(jiān)督學習算法的是A.KmeansB.PCAC.DBSCAND.SVM答案:ABC34.在模型部署時,TensorRT可進行的優(yōu)化包括A.層融合B.量化C.動態(tài)shapeD.內(nèi)核自動調(diào)優(yōu)答案:ABD35.以下哪些指標可用于評估多分類任務?A.AccuracyB.MacroF1C.Cohen’skappaD.MSE答案:ABC36.在深度強化學習中,以下屬于onpolicy算法的是A.A2CB.PPOC.DQND.TRPO答案:ABD37.在NLP任務中,以下屬于子詞分詞算法的是A.BPEB.WordPieceC.SentencePieceD.TFIDF答案:ABC38.以下哪些技術可用于模型壓縮?A.知識蒸餾B.剪枝C.量化D.增加通道數(shù)答案:ABC39.在圖像分類任務中,以下屬于數(shù)據(jù)泄漏行為的是A.訓練集與驗證集重復樣本B.先整體歸一化再劃分數(shù)據(jù)集C.使用測試集調(diào)參D.交叉驗證答案:ABC40.在PyTorch中,以下哪些函數(shù)可實現(xiàn)梯度截斷?A.torch.nn.utils.clip_grad_norm_B.torch.nn.utils.clip_grad_value_C.torch.grad.clipD.optimizer.zero_grad答案:AB三、填空題(每空2分,共20分。請在橫線上填寫最簡答案)41.在ResNet中,恒等映射分支被稱為__________連接。答案:殘差42.若學習率初始為0.1,采用StepLR(step_size=30,gamma=0.1),則第60輪的學習率為__________。答案:0.00143.在PyTorch中,將模型保存為僅含權重的文件,應使用torch.save(model.state_dict(),"xxx.pt"),加載時應先__________模型結構。答案:實例化44.在目標檢測評價指標mAP中,AP@0.5表示IoU閾值為__________時的平均精度。答案:0.545.在BERT中,最大序列長度若設為512,則位置編碼矩陣的shape為(512,__________)。答案:76846.在聯(lián)邦學習場景下,客戶端本地訓練1個epoch后上傳的參數(shù)稱為__________參數(shù)。答案:梯度/權重47.在GPT生成文本時,topp采樣中p的取值范圍是__________。答案:(0,1]48.在圖像增強中,MixUp方法對兩張圖片按lambda混合,lambda服從__________分布采樣。答案:Beta49.在深度學習中,若batchsize增大,則梯度噪聲__________。答案:減小50.在模型蒸餾損失中,若alpha=0.7,則總損失=alpha×蒸餾損失+(1alpha)×__________損失。答案:hard四、判斷題(每題1分,共10分。正確打“√”,錯誤打“×”)51.在BatchNorm層中,訓練與推理階段的均值方差來源相同。答案:×52.使用更大的卷積核必然導致感受野增大。答案:√53.在PyTorch中,tensor.detach()會切斷反向傳播。答案:√54.在GAN中,生成器與判別器同時達到納什均衡是訓練目標。答案:√55.在知識蒸餾中,溫度T=1時軟目標等價于硬標簽。答案:×56.在RNN中,梯度爆炸比梯度消失更容易通過梯度裁剪緩解。答案:√57.在圖像分類任務中,測試集可直接用于調(diào)參。答案:×58.在Transformer中,多頭注意力可并行計算。答案:√59.使用ReLU激活函數(shù)一定不會出現(xiàn)梯度消失。答案:×60.在聯(lián)邦學習中,服務器端無需任何訓練數(shù)據(jù)即可完成聚合。答案:√五、簡答題(共30分)61.簡述梯度消失與梯度爆炸的產(chǎn)生原因,并各給出兩種緩解方法。(6分)答案:原因:反向傳播鏈式求導導致梯度連乘,若導數(shù)值大多小于1則梯度指數(shù)級減?。ㄏВ?,若大于1則指數(shù)級增大(爆炸)。緩解消失:1.使用ReLU及其變體激活函數(shù);2.采用殘差連接。緩解爆炸:1.梯度裁剪;2.權重初始化如He、Xavier。62.說明BatchNorm在訓練與推理階段的計算差異,并解釋movingaverage的作用。(6分)答案:訓練階段:對每個batch計算均值方差并做歸一化,同時通過momentum更新runningmean/var。推理階段:使用running統(tǒng)計量,不再依賴batch數(shù)據(jù),確保單樣本輸出穩(wěn)定。movingaverage平滑歷史信息,減少batch波動,提升泛化。63.列舉三種主流的數(shù)據(jù)增強方法,并指出其適用場景。(6分)答案:1.隨機水平翻轉:圖像分類,提升水平不變性。2.CutMix:目標檢測/分類,通過裁剪粘貼增加局部多樣性。3.SpecAugment:語音識別,對頻譜圖進行時域掩蔽和頻域掩蔽。64.解釋聯(lián)邦學習中的“非獨立同分布(NonIID)”挑戰(zhàn),并給出兩種解決方案。(6分)答案:NonIID指客戶端數(shù)據(jù)分布差異大,導致本地模型更新方向不一致,全局模型發(fā)散。方案:1.FedProx,在本地目標加入近端項限制偏離;2.個性化聯(lián)邦,如FedPer,為每個客戶端保留個性化頭部。65.簡述知識蒸餾中“教師助理”機制的原理與作用。(6分)答案:當教師模型過大,直接蒸餾給學生困難,引入規(guī)模中等的助理模型,先由教師蒸餾給助理,再由助理蒸餾給學生,分段減小容量差距,提升學生收斂與精度。六、應用題(共40分)66.圖像分類模型調(diào)優(yōu)(10分)給定CIFAR10數(shù)據(jù)集,基線模型為ResNet18,初始訓練結果:訓練準確率94%,驗證準確率78%。(1)指出兩種可能原因?qū)е律鲜霾罹唷#?分)(2)給出三種改進策略,并說明預期效果。(6分)(3)若采用MixUp,請寫出PyTorch關鍵代碼片段(兩行以內(nèi))。(2分)答案:(1)過擬合;數(shù)據(jù)分布差異。(2)1.數(shù)據(jù)增強(隨機裁剪、水平翻轉),提升泛化;2.加入Dropout=0.3,降低過擬合;3.使用余弦退火學習率,提高收斂穩(wěn)定性。(3)inputs,targets_a,targets_b,lam=mixup_data(inputs,targets,alpha=0.2)。67.目標檢測指標計算(10分)單張圖片含3個真實框,模型輸出5個預測框,置信度分別為[0.9,0.8,0.7,0.6,0.5],對應IoU=[0.85,0.75,0.45,0.4,0.3]。若IoU閾值=0.5,(1)計算TP、FP、FN。(3分)(2)計算Precision、Recall。(2分)(3)若第二框置信度降為0.4,重新計算Precision。(2分)(4)說明mAP@0.5:0.95的含義。(3分)答案:(1)TP=2,F(xiàn)P=3,F(xiàn)N=1。(2)P=2/5=0.4,R=2/3≈0.667。(3)排序后前2仍為TP,Precision=2/5=0.4。(4)從0.5到0.95步長0.05共10個IoU閾值下AP的平均值,綜合評估定位精度。68.文本生成模型微調(diào)(10分)使用GPT2做中文古詩生成,數(shù)據(jù)集為5000首五言絕句,每首20字。(1)指出兩種快速微調(diào)技術,并比較顯存占用。(4分)(2)給出評估生成質(zhì)量的兩種自動指標。(2分)(3)若出現(xiàn)重復生成“春眠不覺曉”,請?zhí)岢鰞煞N改進方法。(4分)答案:(1)LoRA:凍結原模型,插入低秩矩陣,顯存≈原模型30%;AdaLoRA:動態(tài)秩,顯存略高。(2)perplexity、BLEU。(3)1.提高temperature至1.2增加隨機性;2.使用重復懲罰(repetition_penalty=1.2)。69.聯(lián)邦學習系統(tǒng)實現(xiàn)(10分)10家醫(yī)院協(xié)作訓練肺炎篩查模型,數(shù)據(jù)量分別為[100,200,300,400,500,600,700,800,900,1000]張。(1)若采用FedAvg,寫出服務器端聚合權重公式。(2分)(2)給出客戶端本地訓練偽代碼(含3步)。(3分)(3)若第3號客戶端dropout30%參與,求實際參與樣本量。(2分)(4)指出兩種防御投毒攻擊的方法。(3分)答案:(1)w_global=sum(n_k/n_total×w_k)。(2)1.下載全局權重;2.本地訓練epoch=5;3.上傳權重與樣本量。(3)400×0.7=280張。(4)1.異常檢測,剔除更新范數(shù)異常大的客戶端;2.使用Trimmedmean聚合,去除極端值。70.模型壓縮與部署綜合(10分)給定ResNet50分類模型,大小95MB,Top1準確率76.1%,需部署到邊緣ARM芯片,內(nèi)存限制30MB,延遲<200ms。(1)設計壓縮方案,說明順序與預期指標。(4分)(2)寫出INT8量化校準的關鍵步驟(三步)。(3分)(3)若量化后精度下降至74%,給出兩種補救措施。(3分)答案:(1)先通道剪枝50%→35MB,再知識蒸餾恢復精度至75.5%,最后INT8量化至9MB,延遲150ms。(2)1.收集代表性數(shù)據(jù)1000張;2.運行前向統(tǒng)計每層min/max;3.計算scale/zero_point并寫入量化表。(3)1.采用QAT(量化感知訓練)微調(diào)5epoch;2.混合精度:首層與末層保持FP16。七、編程題(共20分)71.自定義注意力模塊(10分)請用PyTorch實現(xiàn)縮放點積注意力,要求:輸入Q,K,V維度均為(batch,n_head,seq_len,d_k),輸出維度不變,支持mask。答案:importtorchimporttorch.nnasnnimporttorch.nn.functionalasFclassScaledDotProductAttention(nn.Module):def__init__(self):super().__init__()defforward(self,Q,K,V,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論