2025年人工智能訓(xùn)練師(三級(jí))職業(yè)技能鑒定理論考試題庫(含答案)_第1頁
2025年人工智能訓(xùn)練師(三級(jí))職業(yè)技能鑒定理論考試題庫(含答案)_第2頁
2025年人工智能訓(xùn)練師(三級(jí))職業(yè)技能鑒定理論考試題庫(含答案)_第3頁
2025年人工智能訓(xùn)練師(三級(jí))職業(yè)技能鑒定理論考試題庫(含答案)_第4頁
2025年人工智能訓(xùn)練師(三級(jí))職業(yè)技能鑒定理論考試題庫(含答案)_第5頁
已閱讀5頁,還剩24頁未讀 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能訓(xùn)練師(三級(jí))職業(yè)技能鑒定理論考試題庫(含答案)一、單項(xiàng)選擇題(每題1分,共40分。每題只有一個(gè)正確答案,錯(cuò)選、多選、未選均不得分)1.在PyTorch中,若需凍結(jié)某一層參數(shù)使其不參與反向傳播,應(yīng)使用的代碼是A.layer.requires_grad=FalseB.layer.trainable=FalseC.layer.eval()D.torch.no_grad()答案:A解析:requires_grad屬性直接控制張量是否參與梯度計(jì)算,是凍結(jié)參數(shù)的標(biāo)準(zhǔn)做法。2.使用混合精度訓(xùn)練時(shí),下列哪項(xiàng)操作可最大限度避免梯度下溢?A.手動(dòng)放大損失值B.使用GradScaler自動(dòng)縮放C.降低學(xué)習(xí)率D.改用FP64精度答案:B解析:GradScaler在反向前對(duì)損失乘以可動(dòng)態(tài)調(diào)整的scale因子,抵消FP16下溢風(fēng)險(xiǎn)。3.在目標(biāo)檢測(cè)任務(wù)中,若正負(fù)樣本比例極端失衡(1:1000),首選的采樣策略是A.RandomSamplerB.HardNegativeMinerC.OHEMD.RandomCrop答案:C解析:OHEM(OnlineHardExampleMining)在線挖掘難負(fù)例,兼顧效率與精度。4.Transformer中,位置編碼使用正弦函數(shù)的主要優(yōu)點(diǎn)是A.可外推到更長(zhǎng)序列B.加速注意力計(jì)算C.降低顯存占用D.增強(qiáng)非線性答案:A解析:正弦位置編碼具有周期性且與序列長(zhǎng)度無關(guān),可直接外推。5.在聯(lián)邦學(xué)習(xí)場(chǎng)景下,為防止模型更新泄露用戶隱私,常用的安全聚合協(xié)議是A.FedSGDB.SecureAggregationC.FedProxD.SCAFFOLD答案:B解析:SecureAggregation通過同態(tài)加密與秘密共享,實(shí)現(xiàn)服務(wù)器無法看到單個(gè)客戶端梯度。6.當(dāng)使用Kfold交叉驗(yàn)證時(shí),若數(shù)據(jù)集存在“同一用戶的多條樣本”,最合理的劃分方式是A.隨機(jī)KfoldB.StratifiedKfoldC.GroupKfoldD.TimeSeriesSplit答案:C解析:GroupKfold確保同一用戶(組)只出現(xiàn)在一個(gè)折中,避免信息泄漏。7.在深度強(qiáng)化學(xué)習(xí)中,造成“高估偏差”(overestimation)的主要原因是A.策略熵過低B.最大化操作與函數(shù)逼近誤差耦合C.獎(jiǎng)勵(lì)稀疏D.環(huán)境非平穩(wěn)答案:B解析:DoubleDQN論文指出,max操作會(huì)累積Q網(wǎng)絡(luò)正誤差,導(dǎo)致系統(tǒng)性高估。8.若BERT模型在下游任務(wù)微調(diào)時(shí)顯存不足,下列方案中顯存節(jié)省最顯著的是A.凍結(jié)全部Transformer層B.使用gradientcheckpointingC.降低batchsize到1D.改用ALBERT答案:B解析:gradientcheckpointing以前向重計(jì)算換取顯存,可在幾乎不掉點(diǎn)情況下節(jié)省30%–50%顯存。9.在圖像分割評(píng)價(jià)指標(biāo)中,Dice系數(shù)與IoU的數(shù)學(xué)關(guān)系為A.Dice=2IoU/(1+IoU)B.Dice=IoU/(2–IoU)C.Dice=IoUD.無確定關(guān)系答案:A解析:令I(lǐng)oU=TP/(TP+FP+FN),則Dice=2TP/(2TP+FP+FN)=2IoU/(1+IoU)。10.當(dāng)使用Adam優(yōu)化器時(shí),若β1=0.9,β2=0.999,初始學(xué)習(xí)率1e3,則第t步有效學(xué)習(xí)率約為A.1e3×√(1–β2^t)/(1–β1^t)B.1e3×(1–β1^t)/√(1–β2^t)C.1e3×β1^tD.1e3×β2^t答案:B解析:Adam偏差修正項(xiàng)為(1–β1^t)與√(1–β2^t),對(duì)應(yīng)B。11.在文本生成任務(wù)中,為避免模型重復(fù)輸出相同句子,最簡(jiǎn)潔有效的解碼策略是A.Topk采樣B.Temperature采樣C.RepetitionPenaltyD.BeamSearch答案:C解析:RepetitionPenalty直接對(duì)已生成token降權(quán),抑制循環(huán)。12.當(dāng)使用Horovod做分布式訓(xùn)練時(shí),下列環(huán)境變量控制AllReduce算法選擇A.HOROVOD_FUSION_THRESHOLDB.HOROVOD_CYCLE_TIMEC.HOROVOD_AUTOTUNED.HOROVOD_AUTOTUNE_LOG答案:A解析:FUSION_THRESHOLD決定張量融合大小,間接影響AllReduce算法。13.在模型蒸餾中,若學(xué)生網(wǎng)絡(luò)logits與教師logits的KL散度損失權(quán)重為α,硬標(biāo)簽交叉熵權(quán)重為1–α,則α一般取值范圍A.0.1–0.3B.0.5–0.7C.0.7–0.9D.1.0答案:C解析:蒸餾強(qiáng)調(diào)“軟標(biāo)簽”,α通常>0.7。14.當(dāng)使用TensorRT加速推理時(shí),若網(wǎng)絡(luò)中含DynamicResize,需設(shè)置的flag為A.explicitBatchB.workspaceC.optProfileD.fp16答案:C解析:Dynamicshape需配置optimizationprofile。15.在AutoML中,基于貝葉斯優(yōu)化的超參搜索,其采集函數(shù)為EI時(shí),EI的物理意義是A.期望改善量B.后驗(yàn)概率C.置信上界D.熵答案:A解析:EI(ExpectedImprovement)衡量在何處采樣可期望提升最優(yōu)值。16.當(dāng)使用EarlyStopping時(shí),若patience=5且min_delta=0.001,則觸發(fā)停止的條件是A.連續(xù)5輪驗(yàn)證集指標(biāo)提升<0.001B.連續(xù)5輪驗(yàn)證集指標(biāo)下降<0.001C.任意5輪指標(biāo)提升<0.001D.任意5輪指標(biāo)下降<0.001答案:B解析:min_delta控制“顯著性”,patience控制“耐心”。17.在語音合成Tacotron2中,停止token預(yù)測(cè)使用A.MSE損失B.BCE損失C.CTCLossD.L1損失答案:B解析:停止token為二分類,用BCE。18.當(dāng)使用混合專家模型(MoE)時(shí),若topk=2,則每次激活參數(shù)占總參數(shù)比例約為A.1/2B.2/experts總數(shù)C.k/experts總數(shù)D.100%答案:C解析:僅選中k個(gè)專家,比例=k/專家數(shù)。19.在圖神經(jīng)網(wǎng)絡(luò)中,GCN的層數(shù)過深會(huì)導(dǎo)致A.過平滑B.梯度爆炸C.節(jié)點(diǎn)特征維度爆炸D.鄰接矩陣奇異答案:A解析:深層GCN使節(jié)點(diǎn)表示趨于一致,即過平滑。20.當(dāng)使用DALI加載數(shù)據(jù)時(shí),其加速原理主要是A.GPU解碼+流水線B.多進(jìn)程PythonC.壓縮傳輸D.內(nèi)存映射答案:A解析:DALI把解碼搬到GPU,并用CUDA流水線掩蓋延遲。21.在模型可解釋性中,IntegratedGradients需指定基線,對(duì)圖像任務(wù)常用的基線是A.全黑圖B.全白圖C.隨機(jī)噪聲D.訓(xùn)練集均值圖答案:A解析:黑圖無信號(hào),滿足“缺失”語義。22.當(dāng)使用混合精度時(shí),下列哪項(xiàng)操作必須在FP32下完成A.卷積前向B.批歸一化C.權(quán)重更新D.激活函數(shù)答案:C解析:主權(quán)重保持FP32避免精度誤差累積。23.在推薦系統(tǒng)冷啟動(dòng)中,利用用戶注冊(cè)信息(性別、年齡)的模型屬于A.協(xié)同過濾B.內(nèi)容過濾C.混合過濾D.矩陣分解答案:B解析:利用sideinformation即內(nèi)容過濾。24.當(dāng)使用PyTorchLightning時(shí),若要在多卡訓(xùn)練時(shí)同步BN統(tǒng)計(jì)量,應(yīng)設(shè)置A.sync_batchnorm=TrueB.distributed_backend='ddp'C.precision=16D.gradient_clip_val=1.0答案:A解析:SyncBN需顯式開啟。25.在文本分類中,若類別極度不平衡,對(duì)少數(shù)類影響最大的指標(biāo)是A.AccuracyB.MacroF1C.MicroF1D.AUC答案:B解析:MacroF1對(duì)每類平等加權(quán),少數(shù)類權(quán)重高。26.當(dāng)使用DeepSpeedZero3時(shí),優(yōu)化器狀態(tài)、梯度、參數(shù)都被切分,其通信量為A.O(1)B.O(N)C.O(N/√P)D.O(N/P)答案:D解析:Zero3把參數(shù)分片到P卡,每卡只存1/P,通信量線性下降。27.在目標(biāo)檢測(cè)YOLOv5中,anchorfree分支被稱為A.ObjectnessB.AnchorC.GridD.Anchorfree答案:D解析:YOLOv5仍用anchor,但v6引入anchorfree分支。28.當(dāng)使用知識(shí)蒸餾做NER時(shí),教師輸出為CRF轉(zhuǎn)移矩陣,學(xué)生無法直接擬合,解決方法是A.蒸餾CRF邊緣概率B.蒸餾維特比路徑C.蒸餾發(fā)射矩陣D.棄用CRF答案:A解析:邊緣概率可微,可用KL散度。29.在模型壓縮中,剪枝后稀疏矩陣使用CSR格式,其計(jì)算加速比主要取決于A.稀疏度與硬件支持B.稀疏度與批大小C.稀疏度與精度D.稀疏度與溫度答案:A解析:需GPU支持結(jié)構(gòu)化稀疏才能加速。30.當(dāng)使用自監(jiān)督學(xué)習(xí)SimSiam時(shí),防止模型崩潰的關(guān)鍵是A.停止梯度B.對(duì)比損失C.動(dòng)量編碼器D.預(yù)測(cè)頭答案:A解析:停止梯度切斷對(duì)稱分支,避免平凡解。31.在語音增強(qiáng)中,若損失函數(shù)為SISDR,其值域?yàn)锳.(–∞,+∞)B.[0,1]C.[–1,1]D.[0,+∞)答案:A解析:SISDR可負(fù),表示劣于零信號(hào)。32.當(dāng)使用ONNX導(dǎo)出動(dòng)態(tài)軸模型時(shí),需指定的參數(shù)是A.dynamic_axesB.input_namesC.output_namesD.opset_version答案:A解析:dynamic_axes字典定義哪維動(dòng)態(tài)。33.在模型部署中,若使用TritonInferenceServer,其并發(fā)執(zhí)行單元是A.ModelInstanceB.BackendC.EnsembleD.Scheduler答案:A解析:ModelInstance對(duì)應(yīng)GPU流。34.當(dāng)使用對(duì)抗訓(xùn)練FGM時(shí),擾動(dòng)范數(shù)通常取A.1.0B.0.1C.0.01D.10答案:B解析:經(jīng)驗(yàn)值0.1–1.0,0.1常見。35.在圖注意力網(wǎng)絡(luò)GAT中,注意力系數(shù)計(jì)算使用A.點(diǎn)積B.加性C.乘性D.余弦答案:B解析:LeakyReLU(Wh_i+Wh_j)。36.當(dāng)使用多任務(wù)學(xué)習(xí)時(shí),若任務(wù)梯度沖突,可采用的梯度修正方法是A.GradNormB.PCGradC.WeightDecayD.Dropout答案:B解析:PCGrad投影沖突梯度。37.在模型監(jiān)控中,若發(fā)現(xiàn)PSI>0.3,說明A.數(shù)據(jù)漂移顯著B.模型過擬合C.訓(xùn)練不足D.學(xué)習(xí)率過高答案:A解析:PSI(PopulationStabilityIndex)>0.3為顯著漂移。38.當(dāng)使用RandAugment時(shí),控制增強(qiáng)幅度的超參是A.N,MB.p,mC.alpha,betaD.num_layers答案:A解析:N為變換次數(shù),M為幅度。39.在模型安全中,成員推理攻擊(MIA)主要利用A.預(yù)測(cè)置信度B.模型大小C.訓(xùn)練時(shí)間D.批大小答案:A解析:置信度分布差異泄露成員信息。40.當(dāng)使用DeepQLearning時(shí),經(jīng)驗(yàn)回放池最小容量一般設(shè)為A.批大小B.1000C.10000D.100000答案:D解析:100K為Atari環(huán)境常用下限,確保多樣性。二、多項(xiàng)選擇題(每題2分,共20分。每題至少有兩個(gè)正確答案,多選、少選、錯(cuò)選均不得分)41.下列哪些技術(shù)可有效緩解Transformer長(zhǎng)序列O(N2)顯存問題A.LinformerB.PerformerC.ReformerD.GradientCheckpointing答案:ABC解析:三者均用低秩或哈希近似注意力,D是顯存換時(shí)間,不降低復(fù)雜度。42.關(guān)于BatchNorm折疊(fold)到Conv層,下列說法正確的是A.可減少推理時(shí)間B.需重新計(jì)算權(quán)重C.需重新計(jì)算偏置D.訓(xùn)練階段也可折疊答案:ABC解析:訓(xùn)練階段不可折疊,需保留BN統(tǒng)計(jì)量。43.下列屬于自監(jiān)督視覺預(yù)訓(xùn)練方法的有A.MoCov3B.SimCLRC.BYOLD.MaskRCNN答案:ABC解析:MaskRCNN為全監(jiān)督檢測(cè)器。44.當(dāng)使用DeepSpeed時(shí),ZeRO階段劃分包括A.ZeRO1B.ZeRO2C.ZeRO3D.ZeROOffload答案:ABCD解析:Offload為子選項(xiàng),但官方文檔單列。45.下列哪些指標(biāo)可用于評(píng)估生成文本多樣性A.SelfBLEUB.Distinct1C.MAUVED.ROUGEL答案:ABC解析:ROUGEL衡量與參考相似度,非多樣性。46.在模型魯棒性測(cè)試中,常見的對(duì)抗攻擊方法有A.PGDB.CWC.FGSMD.BIM答案:ABCD解析:均為白盒攻擊。47.當(dāng)使用混合專家(MoE)時(shí),下列哪些技術(shù)可降低門控網(wǎng)絡(luò)負(fù)載A.LoadBalancingLossB.ExpertCapacityFactorC.TopkRoutingD.RandomRouting答案:ABC解析:RandomRouting無目的,反而惡化。48.下列哪些操作會(huì)改變Transformer注意力矩陣的稀疏模式A.SparsePatternsB.LocalWindowC.StridedD.SoftmaxTemperature答案:ABC解析:Temperature僅縮放值,不改變稀疏位置。49.在推薦系統(tǒng)實(shí)時(shí)特征平臺(tái)中,常用的特征存儲(chǔ)有A.RedisB.HBaseC.KafkaD.Cassandra答案:ABD解析:Kafka為消息隊(duì)列,非存儲(chǔ)。50.當(dāng)使用ONNXRuntime量化時(shí),支持的量化為A.DynamicQuantizationB.StaticQuantizationC.QATD.FP16答案:ABC解析:ORT支持前三,F(xiàn)P16非量化。三、判斷題(每題1分,共10分。正確打“√”,錯(cuò)誤打“×”)51.使用LayerNorm的模型在batchsize=1時(shí)也能穩(wěn)定訓(xùn)練。答案:√解析:LayerNorm沿特征維度歸一化,與batch無關(guān)。52.在分布式訓(xùn)練中,RingAllReduce的通信量與參數(shù)服務(wù)器架構(gòu)相同。答案:×解析:Ring為O(N),PS為O(2N)。53.使用混合精度訓(xùn)練必然導(dǎo)致模型精度下降。答案:×解析:配合lossscaling可不掉點(diǎn)。54.在知識(shí)蒸餾中,溫度τ越高,softmax分布越尖銳。答案:×解析:τ越高越平滑。55.當(dāng)使用ReLU激活時(shí),He初始化比Xavier初始化更適合深層網(wǎng)絡(luò)。答案:√解析:He初始化考慮ReLU方差。56.在聯(lián)邦學(xué)習(xí)中,F(xiàn)edAvg的通信輪次一定少于本地SGD。答案:×解析:取決于本地epoch與lr。57.使用CTCLoss時(shí),blank標(biāo)簽可以出現(xiàn)在路徑任意位置。答案:√解析:CTC允許blank任意插入。58.在目標(biāo)檢測(cè)中,mAP@0.5:0.95的0.95表示IoU閾值上限。答案:×解析:0.95為上限,但步長(zhǎng)0.05。59.當(dāng)使用RandAugment時(shí),N與M越大,模型泛化能力一定越強(qiáng)。答案:×解析:過強(qiáng)增強(qiáng)導(dǎo)致欠擬合。60.在圖神經(jīng)網(wǎng)絡(luò)中,GCN的聚合函數(shù)必須是均值池化。答案:×解析:可用max、sum等。四、簡(jiǎn)答題(每題10分,共30分)61.描述混合專家模型(MoE)在訓(xùn)練階段出現(xiàn)“專家崩塌”的現(xiàn)象、成因及至少兩種緩解方案,并給出PyTorch風(fēng)格偽代碼。答案:現(xiàn)象:少數(shù)專家被頻繁選中,多數(shù)專家?guī)缀鯚o梯度更新,導(dǎo)致參數(shù)浪費(fèi)。成因:門控網(wǎng)絡(luò)初始偏好+強(qiáng)化效應(yīng),即“富者愈富”。緩解:1.LoadBalancingLoss:增加輔助損失,鼓勵(lì)均勻路由。2.ExpertCapac

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論