版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025技能考試人工智能訓(xùn)練師三級(jí)題庫練習(xí)附答案一、單項(xiàng)選擇題(每題1分,共30分)1.在PyTorch中,若希望凍結(jié)某一層參數(shù)使其不參與反向傳播,應(yīng)使用下列哪一行代碼?A.layer.requires_grad=FalseB.layer.trainable=FalseC.layer.eval()D.torch.no_grad()答案:A2.當(dāng)使用Keras的ImageDataGenerator進(jìn)行在線增強(qiáng)時(shí),若設(shè)置brightness_range=[0.5,1.5],則下列哪項(xiàng)描述正確?A.亮度變化范圍是±50%B.亮度變化范圍是±150%C.亮度變化范圍是0.5到1.5倍D.亮度變化范圍是0.5到+1.5倍答案:C3.在Transformer中,位置編碼使用正弦與余弦函數(shù)的主要目的是:A.降低計(jì)算量B.使位置編碼可外推到更長(zhǎng)序列C.增加非線性D.替代注意力機(jī)制答案:B4.使用混合精度訓(xùn)練時(shí),下列哪項(xiàng)操作可有效防止梯度下溢?A.動(dòng)態(tài)損失縮放B.權(quán)重衰減C.梯度裁剪D.學(xué)習(xí)率預(yù)熱答案:A5.在聯(lián)邦學(xué)習(xí)場(chǎng)景下,客戶端上傳的參數(shù)通常為:A.原始訓(xùn)練數(shù)據(jù)B.模型權(quán)重梯度或權(quán)重差分C.完整模型文件D.損失函數(shù)值答案:B6.當(dāng)目標(biāo)檢測(cè)模型出現(xiàn)大量漏檢且置信度普遍偏低時(shí),優(yōu)先調(diào)整:A.NMS閾值B.置信度閾值C.正樣本IoU閾值D.錨框數(shù)量答案:C7.在BERT微調(diào)中,若下游任務(wù)為中文短文本相似度計(jì)算,最合理的前處理是:A.按字切分并保留[CLS]與[SEP]B.按詞切分并去除停用詞C.按字切分并去除標(biāo)點(diǎn)D.按詞切分并保留[UNK]答案:A8.使用ONNX導(dǎo)出模型時(shí),若出現(xiàn)“Dynamicaxesmismatch”錯(cuò)誤,最可能的原因是:A.輸入張量未指定動(dòng)態(tài)維度B.權(quán)重?cái)?shù)據(jù)類型為float16C.模型包含控制流算子D.圖優(yōu)化等級(jí)過高答案:A9.在深度強(qiáng)化學(xué)習(xí)中,優(yōu)先經(jīng)驗(yàn)回放(PER)的關(guān)鍵改進(jìn)是:A.使用雙網(wǎng)絡(luò)結(jié)構(gòu)B.按TD誤差加權(quán)采樣C.增加噪聲網(wǎng)絡(luò)D.采用n步回報(bào)答案:B10.當(dāng)使用TensorRT加速時(shí),若某算子不支持,最優(yōu)雅的降級(jí)方案是:A.直接回退到CPUB.使用Plugin層自定義實(shí)現(xiàn)C.降低batchsizeD.關(guān)閉FP16模式答案:B11.在圖像分割任務(wù)中,DiceLoss相較于交叉熵的優(yōu)勢(shì)在于:A.對(duì)類別不平衡更魯棒B.計(jì)算速度更快C.可直接優(yōu)化像素精度D.無需softmax答案:A12.若學(xué)習(xí)率調(diào)度器采用cosineannealingwithwarmrestarts,則重啟后學(xué)習(xí)率:A.立即回到最大值B.線性增長(zhǎng)到最大值C.保持谷底不變D.隨機(jī)重置答案:A13.在模型蒸餾中,溫度系數(shù)T增大時(shí),softmax輸出分布:A.更尖銳B.更平滑C.不變D.先尖銳后平滑答案:B14.使用Horovod進(jìn)行多機(jī)訓(xùn)練時(shí),若出現(xiàn)hang,應(yīng)首先檢查:A.網(wǎng)卡拓?fù)渑cNCCL_SOCKET_IFNAMEB.數(shù)據(jù)管道是否復(fù)用C.學(xué)習(xí)率是否過大D.是否啟用混合精度答案:A15.在語音合成Tacotron2中,停止token的作用是:A.控制音高B.決定何時(shí)結(jié)束生成C.調(diào)節(jié)語速D.對(duì)齊文本與音素答案:B16.當(dāng)使用EarlyStopping(monitor='val_loss',patience=5,restore_best_weights=True)時(shí),若第10輪val_loss最小,則最終權(quán)重來自:A.第5輪B.第10輪C.最后一輪D.第15輪答案:B17.在目標(biāo)檢測(cè)YOLOv5中,若設(shè)置img640且矩形輸入,letterbox的默認(rèn)填充顏色是:A.黑色(114,114,114)B.灰色(128,128,128)C.白色(255,255,255)D.隨機(jī)顏色答案:A18.使用Adam優(yōu)化器時(shí),若梯度稀疏,推薦調(diào)整哪一超參數(shù)?A.epsB.betasC.weight_decayD.amsgrad答案:A19.在CTR預(yù)估DeepFM中,F(xiàn)M部分與Deep部分共享的是:A.嵌入向量B.激活函數(shù)C.損失函數(shù)D.批歸一化答案:A20.當(dāng)使用DALI加速數(shù)據(jù)加載時(shí),若CPU解碼成為瓶頸,應(yīng):A.將decode_device設(shè)為'mixed'B.增大num_threadsC.關(guān)閉nvJPEGD.降低圖像分辨率答案:A21.在知識(shí)圖譜嵌入TransH中,關(guān)系向量被約束在:A.超平面B.單位球C.正象限D(zhuǎn).復(fù)數(shù)空間答案:A22.若模型權(quán)重文件為fp16,但推理設(shè)備不支持fp16,最佳轉(zhuǎn)換策略是:A.動(dòng)態(tài)量化至int8B.強(qiáng)制轉(zhuǎn)fp32C.使用半精度浮點(diǎn)模擬D.重新訓(xùn)練fp32模型答案:B23.在文本生成任務(wù)中,重復(fù)懲罰(repetitionpenalty)大于1時(shí),對(duì)已生成token的概率:A.提升B.降低C.不變D.先提升后降低答案:B24.使用PyTorchLightning時(shí),若要在多卡訓(xùn)練時(shí)手動(dòng)同步指標(biāo),應(yīng)調(diào)用:A.self.log(sync_dist=True)B.torch.distributed.barrier()C.all_gather()D.torch.cuda.synchronize()答案:A25.在模型壓縮通道剪枝中,若采用L1范數(shù)衡量通道重要性,則剪掉:A.絕對(duì)值和最小的通道B.絕對(duì)值和最大的通道C.方差最小的通道D.均值最大的通道答案:A26.當(dāng)使用WandB做實(shí)驗(yàn)管理時(shí),若代碼意外中斷,已上傳的指標(biāo):A.自動(dòng)丟失B.保存在離線緩存C.實(shí)時(shí)同步不丟失D.需手動(dòng)恢復(fù)答案:C27.在圖像分類數(shù)據(jù)增強(qiáng)中,RandAugment的搜索空間包含:A.14種變換與10種強(qiáng)度B.10種變換與14種強(qiáng)度C.30種策略D.100個(gè)子策略答案:A28.使用DeepSpeedZero3時(shí),優(yōu)化器狀態(tài)被分割到:A.所有GPUB.單個(gè)GPUC.CPUD.NVMe答案:A29.在語音識(shí)別Wav2Vec2.0中,對(duì)比損失使用的負(fù)樣本來自:A.同一句子的其他時(shí)間步B.不同句子的所有時(shí)間步C.同一句子的未來步D.同一句子的過去步答案:B30.若使用ONNXRuntime在ARM端推理,最佳執(zhí)行提供器是:A.CPUExecutionProviderB.CUDAExecutionProviderC.NNAPIExecutionProviderD.TensorrtExecutionProvider答案:C二、多項(xiàng)選擇題(每題2分,共20分)31.下列哪些操作可有效緩解模型過擬合?A.MixupB.StochasticDepthC.LabelSmoothingD.增大batchsize答案:A、B、C32.在PyTorch中,以下哪些函數(shù)可實(shí)現(xiàn)梯度裁剪?A.torch.nn.utils.clip_grad_norm_B.torch.nn.utils.clip_grad_value_C.torch.autograd.gradD.torch.optim.lr_scheduler答案:A、B33.使用TensorBoard時(shí),可可視化的內(nèi)容包括:A.模型計(jì)算圖B.PR曲線C.權(quán)重直方圖D.源代碼diff答案:A、B、C34.在目標(biāo)檢測(cè)評(píng)估中,COCOAPI提供的指標(biāo)有:A.AP@0.5B.AP@0.5:0.95C.AR@1D.mIoU答案:A、B、C35.以下哪些屬于自監(jiān)督預(yù)訓(xùn)練任務(wù)?A.BERT的MaskedLMB.SimCLR的對(duì)比學(xué)習(xí)C.GPT的自回歸語言模型D.圖像旋轉(zhuǎn)預(yù)測(cè)答案:A、B、D36.當(dāng)使用混合精度訓(xùn)練時(shí),需同時(shí)調(diào)用:A.autocastB.GradScalerC.torch.cuda.ampD.torch.jit答案:A、B、C37.在推薦系統(tǒng)冷啟動(dòng)場(chǎng)景,可采用的策略有:A.利用用戶注冊(cè)信息做特征B.使用探索利用bandit算法C.引入知識(shí)圖譜側(cè)信息D.直接刪除冷啟動(dòng)用戶答案:A、B、C38.以下哪些算子在ONNX中屬于序列相關(guān)?A.LSTMB.GRUC.AttentionD.Conv答案:A、B、C39.在模型服務(wù)TritonInferenceServer中,可配置的調(diào)度策略有:A.DynamicBatcherB.SequenceBatcherC.EnsembleSchedulerD.RoundRobin答案:A、B、C40.使用Kfold交叉驗(yàn)證時(shí),為防信息泄漏,應(yīng):A.每折內(nèi)部做標(biāo)準(zhǔn)化B.每折內(nèi)部做特征選擇C.全局做標(biāo)準(zhǔn)化后劃分D.全局做特征選擇后劃分答案:A、B三、判斷題(每題1分,共10分)41.在Transformer中,點(diǎn)積注意力除以√d_k是為了防止梯度消失。答案:正確42.使用ReLU激活函數(shù)時(shí),必然出現(xiàn)神經(jīng)元死亡現(xiàn)象。答案:錯(cuò)誤43.在聯(lián)邦學(xué)習(xí)中,F(xiàn)edAvg的本地更新步數(shù)越多,通信輪次一定越少。答案:錯(cuò)誤44.知識(shí)蒸餾中,學(xué)生模型參數(shù)量必須小于教師模型。答案:錯(cuò)誤45.在圖像分割評(píng)價(jià)中,Dice系數(shù)與IoU可相互轉(zhuǎn)換。答案:正確46.使用梯度累積時(shí),等效batchsize等于物理batchsize乘以累積步數(shù)。答案:正確47.在BERT中,[MASK]標(biāo)記在微調(diào)階段仍須保留。答案:錯(cuò)誤48.使用混合精度訓(xùn)練時(shí),損失縮放系數(shù)過大可能導(dǎo)致梯度溢出。答案:錯(cuò)誤49.在YOLOv5中,Mosaic增強(qiáng)默認(rèn)概率為1.0。答案:正確50.當(dāng)使用DeepSpeed時(shí),ZeROOffload可將優(yōu)化器狀態(tài)卸載至CPU。答案:正確四、填空題(每題2分,共20分)51.在PyTorch中,若需將模型保存為TorchScript,應(yīng)調(diào)用________方法。答案:torch.jit.trace或torch.jit.script52.Transformer論文中,基礎(chǔ)模型維度d_model=________。答案:51253.在COCO數(shù)據(jù)集上,目標(biāo)檢測(cè)大、中、小目標(biāo)的面積閾值分別為________、________、________像素。答案:9602、322~962、02~32254.使用Adam優(yōu)化器時(shí),默認(rèn)學(xué)習(xí)率通常設(shè)為________。答案:1e355.在SimCLR中,默認(rèn)溫度系數(shù)τ=________。答案:0.156.當(dāng)使用ONNXRuntimeC++API時(shí),創(chuàng)建會(huì)話的對(duì)象類名為________。答案:Ort::Session57.在知識(shí)蒸餾中,若溫度T→∞,softmax輸出趨近于________分布。答案:均勻58.在GPT3175B模型中,參數(shù)量的數(shù)量級(jí)為________億。答案:175059.使用Horovod時(shí),跨節(jié)點(diǎn)通信默認(rèn)后端為________。答案:NCCL60.在圖像增強(qiáng)Albumentations庫中,隨機(jī)擦除變換名為________。答案:CoarseDropout五、簡(jiǎn)答題(每題10分,共30分)61.描述混合精度訓(xùn)練中動(dòng)態(tài)損失縮放(DynamicLossScaling)的完整流程,并給出PyTorch代碼片段。答案:步驟:1)初始縮放因子scale=2^16;2)前向計(jì)算前將損失乘以scale;3)反向傳播得到縮放后的梯度;4)檢查梯度是否溢出(含inf或nan);5)若無溢出,梯度除以scale并更新權(quán)重,且scale乘2^0.001;6)若溢出,跳過權(quán)重更新,scale除以2;7)重復(fù)直至訓(xùn)練結(jié)束。代碼:```pythonfromtorch.cuda.ampimportautocast,GradScalerscaler=GradScaler()forx,yinloader:optimizer.zero_grad()
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 上海市房屋出售合同(標(biāo)準(zhǔn)版)
- 電梯廣告發(fā)布合同
- 2025年非接觸式支付系統(tǒng)開發(fā)可行性研究報(bào)告
- 2025年新能源汽車產(chǎn)業(yè)鏈布局可行性研究報(bào)告
- 2025年城市軌道交通網(wǎng)絡(luò)優(yōu)化項(xiàng)目可行性研究報(bào)告
- 中心管理協(xié)議書
- 游艇認(rèn)購(gòu)合同范本
- 高考全國(guó)二卷政治題庫帶答案
- 東莞市2024上半年廣東東莞市發(fā)展和改革局招聘5人筆試歷年參考題庫典型考點(diǎn)附帶答案詳解(3卷合一)
- 學(xué)校教學(xué)視導(dǎo)檔案材料(實(shí)驗(yàn)教學(xué)與勞動(dòng)教育)
- 資產(chǎn)移交使用協(xié)議書
- 腦器質(zhì)性精神障礙護(hù)理查房
- GB/T 45481-2025硅橡膠混煉膠醫(yī)療導(dǎo)管用
- GB/T 32468-2025銅鋁復(fù)合板帶箔
- 山西交控集團(tuán)招聘筆試內(nèi)容
- 大窯校本教材合唱的魅力
- 《建筑測(cè)繪》課件
- 《健康體檢報(bào)告解讀》課件
- 前臺(tái)電話禮儀培訓(xùn)
- 智慧健康養(yǎng)老管理基礎(chǔ)知識(shí)單選題100道及答案解析
- 車床設(shè)備大修計(jì)劃方案
評(píng)論
0/150
提交評(píng)論