版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
2025年人工智能訓(xùn)練師(初級)職業(yè)資格認(rèn)定參考試題庫含答案一、單項選擇題(每題1分,共30分。每題只有一個正確答案,請將正確選項填入括號內(nèi))1.在監(jiān)督學(xué)習(xí)中,下列哪一項最能直接反映模型對未知數(shù)據(jù)的預(yù)測能力?()A.訓(xùn)練集準(zhǔn)確率B.驗證集準(zhǔn)確率C.損失函數(shù)值D.特征維度答案:B解析:驗證集不參與參數(shù)更新,其準(zhǔn)確率可近似反映模型在真實場景中的泛化能力;訓(xùn)練集準(zhǔn)確率高可能僅表示過擬合。2.使用ImageNet預(yù)訓(xùn)練權(quán)重做遷移學(xué)習(xí)時,若新任務(wù)只有200張圖片,最佳策略是:()A.凍結(jié)全部卷積層,只訓(xùn)練全連接分類器B.解凍全部層,使用0.01倍原學(xué)習(xí)率C.僅凍結(jié)前兩層卷積D.刪除預(yù)訓(xùn)練分類層,隨機(jī)初始化再訓(xùn)練答案:A解析:小數(shù)據(jù)集下,凍結(jié)特征提取層可防止過擬合;只訓(xùn)練末端分類器即可快速獲得可接受性能。3.在PyTorch中,以下代碼片段執(zhí)行后,張量x的requires_grad屬性為:x=torch.tensor([1.0,2.0],requires_grad=False)x=x+1A.TrueB.FalseC.隨機(jī)D.報錯答案:B解析:加法操作返回新張量,原requires_grad不會自動傳遞;需使用x.requires_grad_(True)顯式開啟。4.當(dāng)學(xué)習(xí)率過大時,模型損失曲線最可能出現(xiàn)的現(xiàn)象是:()A.單調(diào)下降B.震蕩且不收斂C.平臺期后陡降D.先升后降答案:B解析:學(xué)習(xí)率過大導(dǎo)致參數(shù)更新步長超出最優(yōu)谷底,損失在高低值間劇烈震蕩。5.在NLP任務(wù)中,將“小孩”映射到向量[0.2,–0.5,...]的過程稱為:()A.分詞B.詞形還原C.詞嵌入D.命名實體識別答案:C解析:詞嵌入是把離散詞映射到連續(xù)向量空間,使語義相似詞距離更近。6.下列關(guān)于數(shù)據(jù)增強(qiáng)的敘述,錯誤的是:()A.對醫(yī)學(xué)影像可隨機(jī)旋轉(zhuǎn)2°B.對文本可做同義詞替換C.對語音可加背景噪聲D.對表格數(shù)據(jù)可隨機(jī)交換行答案:D解析:交換行會破壞樣本標(biāo)簽對應(yīng)關(guān)系,屬于錯誤標(biāo)注,而非合法增強(qiáng)。7.使用早停(earlystopping)時,應(yīng)監(jiān)測的指標(biāo)是:()A.訓(xùn)練損失B.驗證損失C.參數(shù)L2范數(shù)D.梯度范數(shù)答案:B解析:驗證損失上升意味著過擬合,觸發(fā)早??杉皶r終止訓(xùn)練。8.在目標(biāo)檢測中,IoU=0.7表示:()A.預(yù)測框與GT框交集面積占并集70%B.預(yù)測框面積是GT框70%C.中心點距離占對角線70%D.置信度為70%答案:A解析:IoU定義即交并比,衡量定位精度。9.對類別極度不平衡的二分類問題,首選評價指標(biāo)是:()A.準(zhǔn)確率B.召回率C.F1scoreD.均方誤差答案:C解析:F1score綜合精度與召回,對不平衡更敏感;準(zhǔn)確率易被多數(shù)類主導(dǎo)。10.在Transformer中,位置編碼使用正弦函數(shù)的主要原因是:()A.加速計算B.便于可視化C.可外推到更長序列D.減少參數(shù)量答案:C解析:正弦位置編碼無訓(xùn)練參數(shù),可泛化到訓(xùn)練時未見過的更長序列。11.模型蒸餾中,軟標(biāo)簽來自:()A.真實onehot標(biāo)簽B.教師模型softmax輸出(高溫)C.學(xué)生模型sigmoid輸出D.數(shù)據(jù)增強(qiáng)后的標(biāo)簽答案:B解析:高溫softmax放大次要類別信息,提供richer監(jiān)督信號。12.在聯(lián)邦學(xué)習(xí)場景下,客戶端上傳的是:()A.原始數(shù)據(jù)B.梯度或參數(shù)C.損失值D.超參數(shù)答案:B解析:為保護(hù)隱私,僅上傳梯度或權(quán)重差,服務(wù)器聚合后下發(fā)。13.使用Kfold交叉驗證的主要目的是:()A.減少訓(xùn)練時間B.降低方差,提高評估穩(wěn)定性C.增加特征D.降低偏差答案:B解析:多次劃分平均結(jié)果,可減少因單次劃分偶然性帶來的評估方差。14.在深度強(qiáng)化學(xué)習(xí)中,經(jīng)驗回放機(jī)制主要解決:()A.探索不足B.樣本相關(guān)性與非平穩(wěn)分布C.稀疏獎勵D.高方差策略答案:B解析:打破相鄰樣本高度相關(guān),穩(wěn)定神經(jīng)網(wǎng)絡(luò)訓(xùn)練。15.當(dāng)batchsize加倍時,同一epoch內(nèi)參數(shù)更新次數(shù):()A.加倍B.減半C.不變D.隨機(jī)答案:B解析:epoch定義是完整遍歷一次數(shù)據(jù)集,batch變大則step減少。16.在PyTorchLightning中,以下哪個方法名用于定義訓(xùn)練步?()A.forwardB.training_stepC.trainD.optimizer_step答案:B解析:Lightning規(guī)定training_step返回?fù)p失,框架自動反向傳播。17.對生成對抗網(wǎng)絡(luò),判別器損失突然降為0,說明:()A.生成器太強(qiáng)B.判別器太強(qiáng),生成器梯度消失C.學(xué)習(xí)率太小D.批歸一化失效答案:B解析:判別器完美區(qū)分真假,生成器無法獲得有效梯度,出現(xiàn)模式崩潰前兆。18.在AutoML中,超參搜索使用貝葉斯優(yōu)化比網(wǎng)格搜索高效,因其:()A.并行度更高B.利用先驗與觀測構(gòu)建代理模型C.隨機(jī)性更強(qiáng)D.內(nèi)存占用小答案:B解析:貝葉斯優(yōu)化通過高斯過程等代理模型,引導(dǎo)搜索至promising區(qū)域。19.對時間序列預(yù)測,以下做法最可能導(dǎo)致數(shù)據(jù)泄露的是:()A.標(biāo)準(zhǔn)化時先fit整個數(shù)據(jù)集B.滑動窗口劃分訓(xùn)練/測試C.使用過去30步預(yù)測下一步D.早停答案:A解析:先fit全集再劃分,測試集信息通過均值方差泄露到訓(xùn)練集。20.在ONNX格式中,模型結(jié)構(gòu)以什么方式保存?()A.JSONB.ProtobufC.HDF5D.Pickle答案:B解析:ONNX使用protobuf序列化計算圖,保證跨平臺與語言。21.當(dāng)GPU顯存不足時,首選的即時緩解手段是:()A.減小batchsizeB.降低學(xué)習(xí)率C.增加網(wǎng)絡(luò)深度D.使用float64答案:A解析:batch減小直接降低激活占用;其他選項或無效或加劇問題。22.在文本分類中,將“手機(jī)”和“電話”視為同一詞的技術(shù)是:()A.詞袋模型B.同義詞歸一C.ngramD.字符級CNN答案:B解析:通過同義詞詞典或詞向量距離合并,減少詞匯表稀疏。23.對回歸任務(wù),輸出層激活函數(shù)通常選用:()A.ReLUB.SigmoidC.線性(無激活)D.Tanh答案:C解析:回歸目標(biāo)為任意實數(shù),線性輸出層最自然。24.在模型部署階段,TensorRT的主要優(yōu)化不包括:()A.層融合B.權(quán)重量化C.動態(tài)shape支持D.數(shù)據(jù)增強(qiáng)答案:D解析:數(shù)據(jù)增強(qiáng)屬于訓(xùn)練階段,TensorRT專注推理加速。25.使用混合精度訓(xùn)練時,損失縮放(lossscaling)是為解決:()A.梯度爆炸B.梯度下溢C.權(quán)重衰減D.過擬合答案:B解析:float16動態(tài)范圍小,乘以縮放因子可防止小梯度歸零。26.在Kubernetes中,為訓(xùn)練任務(wù)申請2塊GPU應(yīng)聲明資源:()A.cpu:2B.memory:2GiC./gpu:2D.gpu:2答案:C解析:K8s使用廠商特定擴(kuò)展資源格式,/gpu為官方鍵名。27.當(dāng)模型在測試集表現(xiàn)遠(yuǎn)差于訓(xùn)練集,首要檢查:()A.是否過擬合B.學(xué)習(xí)率是否太小C.batchsize是否太大D.是否欠擬合答案:A解析:訓(xùn)練好測試差是典型過擬合,需加正則、增數(shù)據(jù)或簡化模型。28.在Python中,以下代碼運行后數(shù)組a的shape為:a=np.random.rand(10,1,28,28)a=a.squeeze()A.(10,28,28)B.(10,1,28,28)C.(280,28)D.(7840,)答案:A解析:squeeze移除所有長度為1的軸,保留10×28×28。29.在聯(lián)邦學(xué)習(xí)中,F(xiàn)edAvg算法的服務(wù)器端更新規(guī)則是:()A.加權(quán)平均客戶端參數(shù)B.隨機(jī)挑選一個客戶端參數(shù)C.累加梯度后SGDD.使用Adam更新答案:A解析:按各客戶端數(shù)據(jù)量加權(quán)平均,實現(xiàn)通信高效聚合。30.對BERT模型微調(diào)時,最大序列長度設(shè)為128而非512,主要好處是:()A.提高準(zhǔn)確率B.減少訓(xùn)練時間和顯存C.增加可學(xué)習(xí)參數(shù)D.提高泛化答案:B解析:序列縮短使attention計算O(n2)下降,批次可放大,訓(xùn)練更快。二、多項選擇題(每題2分,共20分。每題有兩個或以上正確答案,多選少選均不得分)31.以下哪些操作可有效緩解神經(jīng)網(wǎng)絡(luò)過擬合?()A.DropoutB.L2正則C.增加網(wǎng)絡(luò)深度D.數(shù)據(jù)增強(qiáng)答案:ABD解析:增加深度反而加劇過擬合,其余均可提升泛化。32.在PyTorch中,以下哪些函數(shù)可實現(xiàn)梯度裁剪?()A.torch.nn.utils.clip_grad_norm_B.torch.nn.utils.clip_grad_value_C.torch.autograd.gradD.torch.optim.lr_scheduler.StepLR答案:AB解析:clip_grad_norm_與clip_grad_value_為官方實現(xiàn);C僅計算梯度,D為學(xué)習(xí)率調(diào)度。33.關(guān)于ROC曲線,下列說法正確的是:()A.橫軸為FPRB.縱軸為TPRC.AUC越大越好D.適用于多分類微平均答案:ABCD解析:ROC定義如此;多分類可對每類計算后微平均。34.以下屬于無監(jiān)督學(xué)習(xí)任務(wù)的有:()A.Kmeans聚類B.PCA降維C.自編碼器重建D.圖像語義分割答案:ABC解析:語義分割需像素級標(biāo)簽,為監(jiān)督學(xué)習(xí)。35.在模型部署到移動端時,常用的模型壓縮技術(shù)包括:()A.通道剪枝B.權(quán)重量化C.知識蒸餾D.增加卷積核大小答案:ABC解析:增加核大小會擴(kuò)大模型,與壓縮目標(biāo)相反。36.以下哪些指標(biāo)可用于回歸任務(wù)評估?()A.MAEB.RMSEC.R2D.交叉熵答案:ABC解析:交叉熵用于分類。37.在Transformer訓(xùn)練時,以下哪些設(shè)置可加速收斂?()A.學(xué)習(xí)率預(yù)熱B.Adam優(yōu)化器C.LayerNorm后置D.使用ReLU替代GELU答案:ABC解析:預(yù)熱穩(wěn)定早期訓(xùn)練;LayerNorm后置為PreLN結(jié)構(gòu),加速收斂;GELU與ReLU差異小,非主因。38.關(guān)于卷積神經(jīng)網(wǎng)絡(luò),下列說法正確的是:()A.卷積核參數(shù)共享減少計算量B.池化層可提升平移不變性C.空洞卷積可擴(kuò)大感受野D.反卷積一定放大特征圖尺寸答案:ABC解析:反卷積當(dāng)stride<1或padding特殊時可能縮小,非“一定”放大。39.在數(shù)據(jù)標(biāo)注階段,為降低主觀誤差,可采取:()A.多人標(biāo)注取多數(shù)投票B.制定詳細(xì)標(biāo)注手冊C.隨機(jī)打亂樣本順序D.使用預(yù)標(biāo)注模型輔助答案:ABD解析:打亂順序與主觀誤差無直接因果。40.以下哪些Python庫可直接讀取ONNX模型并進(jìn)行推理?()A.onnxruntimeB.OpenVINOC.TensorRTD.pandas答案:ABC解析:pandas為數(shù)據(jù)分析庫,不支持ONNX推理。三、判斷題(每題1分,共10分。正確請?zhí)睢啊獭?,錯誤填“×”)41.使用ReLU激活的神經(jīng)網(wǎng)絡(luò)一定不會出現(xiàn)梯度消失。()答案:×解析:ReLU在負(fù)區(qū)間梯度為0,深層網(wǎng)絡(luò)仍可能出現(xiàn)“死神經(jīng)元”導(dǎo)致梯度無法回傳。42.在聯(lián)邦學(xué)習(xí)中,各客戶端本地數(shù)據(jù)無需獨立同分布。()答案:√解析:NonIID為FL研究常見設(shè)定,算法需額外處理。43.模型參數(shù)越多,訓(xùn)練損失一定越低。()解析:參數(shù)多易過擬合,訓(xùn)練損失可更低,但“一定”過于絕對;若優(yōu)化失敗可能更高。答案:×44.對時間序列數(shù)據(jù),未來信息不可用于訓(xùn)練階段特征提取。()答案:√解析:用未來值算特征屬于泄露,必須嚴(yán)格避免。45.使用混合精度訓(xùn)練時,權(quán)重主副本仍需保持float32。()答案:√解析:masterweights保留float32可累加小更新,避免量化誤差累積。46.在Keras中,設(shè)置pile(metrics=['accuracy'])即可用于回歸任務(wù)評估。()答案:×解析:accuracy用于分類,回歸應(yīng)選mae、mse等。47.知識蒸餾中,教師模型參數(shù)量必須大于學(xué)生模型。()答案:×解析:只要教師性能更好即可,參數(shù)量非必須更大。48.對圖像分類,將像素值歸一化到[0,1]比[0,255]更易收斂。()答案:√解析:小數(shù)值降低梯度量級,與權(quán)重同尺度,優(yōu)化更穩(wěn)定。49.在Kubernetes中,GPU資源屬于可壓縮資源。()答案:×解析:GPU為不可壓縮資源,一旦分配無法超售。50.使用BERT時,[CLS]向量已融合整句語義信息,可直接用于分類。()答案:√解析:預(yù)訓(xùn)練NSP任務(wù)使[CLS]聚合全局信息,常規(guī)做法即取該向量接全連接。四、填空題(每空2分,共20分)51.在PyTorch中,若需將模型保存為通用格式,可使用torch.onnx.export,需先調(diào)用model.eval()并設(shè)置參數(shù)________=torch.randn(1,3,224,224)。答案:example_inputs解析:example_inputs提供靜態(tài)圖追蹤所需樣例。52.若學(xué)習(xí)率設(shè)為0.01,使用余弦退火衰減,T_max=100,則第50個epoch的lr為________。答案:0.005解析:余弦曲線在T_max/2時降至最低值一半,0.01×(1+cos(π×50/100))/2=0.005。53.在目標(biāo)檢測評價中,mAP@0.5表示IoU閾值為0.5時的________AP平均值。答案:各類別解析:mAP先算每類AP再平均。54.使用Adam優(yōu)化器時,超參beta1常取________。答案:0.9解析:PyTorch默認(rèn)0.9,控制一階矩衰減。55.在NLP任務(wù)中,將“20250630”替換為“[DATE]”的過程稱為________歸一化。答案:實體解析:屬于命名實體歸一,減少詞匯稀疏。56.若batchsize=32,epoch=5,數(shù)據(jù)集大小=800,則總更新步數(shù)為________。答案:125解析:800/32=25step/epoch,5×25=125。57.在模型量化中,將float32映射到int8,縮放因子s的計算公式為s=(maxmin)/________。答案:255解析:8位無符號整數(shù)量化區(qū)間255個離散值。58.聯(lián)邦學(xué)習(xí)系統(tǒng)架構(gòu)中,負(fù)責(zé)聚合參數(shù)的角色常稱為________服務(wù)器。答案:參數(shù)或聚合解析:即parameterserver。59.在深度強(qiáng)化學(xué)習(xí)DDPG算法中,策略網(wǎng)絡(luò)稱為________網(wǎng)絡(luò)。答案:Actor解析:Actor輸出動作,Critic評估價值。60.使用TensorBoard時,默認(rèn)啟動命令為tensorboard________logdir=runs。答案:解析:logdir指定日志目錄。五、簡答題(每題10分,共30分)61.描述一次完整的圖像分類模型訓(xùn)練流程,從數(shù)據(jù)準(zhǔn)備到模型保存,并指出每一步需關(guān)注的風(fēng)險點。答案與解析:1)數(shù)據(jù)獲?。号廊』蜷_源數(shù)據(jù)集,風(fēng)險:版權(quán)、隱私泄露;需脫敏與合規(guī)審查。2)數(shù)據(jù)清洗:剔除損壞、分辨率異常圖片,風(fēng)險:誤刪導(dǎo)致分布偏移;應(yīng)記錄刪除日志。3)劃分訓(xùn)練/驗證/測試:按分層抽樣保持類別比例,風(fēng)險:時間序列未按時間劃分導(dǎo)致泄露;需按時間切分。4)數(shù)據(jù)增強(qiáng):隨機(jī)翻轉(zhuǎn)、裁剪、顏色抖動,風(fēng)險:過度增強(qiáng)引入不真實樣本;需可視化確認(rèn)。5)標(biāo)準(zhǔn)化:計算訓(xùn)練集均值方差,風(fēng)險:測試集統(tǒng)計量混入訓(xùn)練集;必須訓(xùn)練集fit后transform全集。6)模型構(gòu)建:選EfficientNetB0,風(fēng)險:復(fù)雜度過高顯存不足;先用小模型做冒煙測試。7)訓(xùn)練:使用交叉熵、Adam、余弦衰減、earlystopping,風(fēng)險:學(xué)習(xí)率過大震蕩;需監(jiān)控驗證損失。8)正則:加LabelSmoothing、Dropout,風(fēng)險:平滑系數(shù)過大欠擬合;網(wǎng)格搜索0.05~0.2。9)模型選擇:取驗證最佳ck
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年朝陽職工工學(xué)院輔導(dǎo)員考試筆試真題匯編附答案
- 2024年齊齊哈爾醫(yī)學(xué)院輔導(dǎo)員考試筆試題庫附答案
- 溶解乙炔生產(chǎn)工崗前客戶關(guān)系管理考核試卷含答案
- 2024年滁州職業(yè)技術(shù)學(xué)院馬克思主義基本原理概論期末考試題附答案
- 2025上海市事業(yè)單位考試模擬題-數(shù)量關(guān)系必考題
- 2024年運城市直屬機(jī)關(guān)遴選公務(wù)員考試真題匯編附答案
- 2024年重慶海聯(lián)職業(yè)技術(shù)學(xué)院輔導(dǎo)員考試參考題庫附答案
- 2025年上海政法學(xué)院單招(計算機(jī))測試模擬題庫附答案
- 2025年九江市特崗教師筆試真題題庫附答案
- 2025云南曲靖市馬龍區(qū)人民政府通泉街道辦事處城鎮(zhèn)公益性崗位人員招聘3人備考題庫附答案
- 新能源并網(wǎng)系統(tǒng)短路比指標(biāo)分析及臨界短路比計算方法
- DB32T3916-2020建筑地基基礎(chǔ)檢測規(guī)程
- 換電柜維護(hù)培訓(xùn)課件
- GB/T 15153.1-2024遠(yuǎn)動設(shè)備及系統(tǒng)第2部分:工作條件第1篇:電源和電磁兼容性
- 初中語文 送別詩練習(xí)題(含答案)
- 企業(yè)標(biāo)準(zhǔn)-格式模板
- 五年級上冊道德與法治期末測試卷新版
- 2022年醫(yī)學(xué)專題-石家莊中國鮑曼不動桿菌感染診治與防控專家共識
- YY/T 1543-2017鼻氧管
- YS/T 903.1-2013銦廢料化學(xué)分析方法第1部分:銦量的測定EDTA滴定法
- FZ/T 70010-2006針織物平方米干燥重量的測定
評論
0/150
提交評論