2025年人工智能培訓(xùn)師初級(jí)試題及答案_第1頁(yè)
2025年人工智能培訓(xùn)師初級(jí)試題及答案_第2頁(yè)
2025年人工智能培訓(xùn)師初級(jí)試題及答案_第3頁(yè)
2025年人工智能培訓(xùn)師初級(jí)試題及答案_第4頁(yè)
2025年人工智能培訓(xùn)師初級(jí)試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩15頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能培訓(xùn)師初級(jí)試題及答案一、單項(xiàng)選擇題(每題2分,共20分)1.在PyTorch中,下列哪段代碼可以正確地把模型轉(zhuǎn)移到GPU并驗(yàn)證是否成功?A.model.cuda();assertmodel.is_cudaB.model.to('cuda');assertnext(model.parameters()).is_cudaC.model.gpu();asserttorch.cuda.is_available()D.model.device('cuda');assertmodel.device.type=='cuda'答案:B解析:model.to('cuda')會(huì)把模型參數(shù)與緩存都遷移到GPU;next(model.parameters()).is_cuda可驗(yàn)證第一個(gè)參數(shù)是否已在CUDA內(nèi)存中。A項(xiàng)is_cuda不是模型屬性;C項(xiàng)gpu()方法不存在;D項(xiàng)device不是模型可調(diào)用方法。2.使用Transformer訓(xùn)練中文文本生成任務(wù)時(shí),若出現(xiàn)“漢字被拆成亂碼子詞”,最優(yōu)先排查的配置是:A.learning_rateB.warmup_stepsC.sentencepiece的character_coverageD.adam_eps答案:C解析:sentencepiece的character_coverage決定字符覆蓋度,若低于0.995,低頻漢字會(huì)被拆成UTF8字節(jié),從而出現(xiàn)亂碼子詞。其余三項(xiàng)與分詞無(wú)關(guān)。3.在聯(lián)邦學(xué)習(xí)場(chǎng)景下,為防御“模型投毒”攻擊,下列算法屬于“魯棒聚合”的是:A.FedAvgB.FedProxC.KrumD.SCAFFOLD答案:C解析:Krum通過(guò)挑選與鄰居梯度最接近的一個(gè)梯度作為聚合結(jié)果,可抵抗拜占庭攻擊;其余算法主要解決數(shù)據(jù)異構(gòu)或收斂速度問(wèn)題。4.當(dāng)使用DeepSpeedZeRO3訓(xùn)練百億參數(shù)模型時(shí),若出現(xiàn)“NCCLerrorunhandledsystemerror”,最先應(yīng)檢查:A.是否開(kāi)啟gradient_checkpointingB.是否安裝cudacompatC./dev/shm剩余空間是否充足D.是否使用fp16答案:C解析:ZeRO3會(huì)把優(yōu)化器狀態(tài)卸載到CPU并在NCCL通信時(shí)使用共享內(nèi)存,/dev/shm不足直接觸發(fā)NCCL系統(tǒng)錯(cuò)誤。其余選項(xiàng)不會(huì)觸發(fā)該特定報(bào)錯(cuò)。5.在StableDiffusion推理階段,若提示詞“aredcar”生成結(jié)果偏粉,以下修正技巧最符合CLIP語(yǔ)義空間原理的是:A.提高classifierfreeguidance的scaleB.把red的token權(quán)重乘以1.2C.在negativeprompt中加入“pink”D.將DDIM步數(shù)從50提到100答案:B解析:CLIPembedding為連續(xù)向量,增大token權(quán)重可直接在文本編碼器輸出中增強(qiáng)“red”方向的分量,從而更精準(zhǔn)地偏移生成空間。C項(xiàng)雖有效,但屬于負(fù)向抑制而非語(yǔ)義增強(qiáng)。6.在構(gòu)建RAG(檢索增強(qiáng)生成)系統(tǒng)時(shí),若出現(xiàn)“檢索結(jié)果與問(wèn)題相關(guān)但答案片段不完整”,優(yōu)先改進(jìn)的模塊是:A.把向量維度從768升到1536B.將topk從5改為20C.引入rerank交叉編碼器D.換用更大的LLM答案:C解析:交叉編碼器可精排候選片段,緩解“相關(guān)但冗余或截?cái)唷眴?wèn)題。單純提高topk或向量維度無(wú)法解決片段完整性;換LLM屬于下游生成優(yōu)化。7.使用LoRA微調(diào)LLaMA7B時(shí),若顯存占用僅下降10%,最可能的原因是:A.僅對(duì)attention層注入LoRAB.LoRArank設(shè)置過(guò)高(r=512)C.未關(guān)閉model.gradient_checkpointingD.數(shù)據(jù)序列長(zhǎng)度超標(biāo)答案:B解析:LoRA的參數(shù)量與rank成正比,r=512時(shí)低秩矩陣參數(shù)量接近原線(xiàn)性層,顯存優(yōu)勢(shì)消失。A項(xiàng)應(yīng)顯著降低顯存;C、D項(xiàng)與LoRA本身無(wú)關(guān)。8.在CV領(lǐng)域,使用CutMix數(shù)據(jù)增強(qiáng)時(shí),下列標(biāo)簽處理正確的是:A.直接使用原onehotB.按面積比例混合onehotC.只保留裁剪區(qū)域標(biāo)簽D.標(biāo)簽不變,僅改損失權(quán)重答案:B解析:CutMix將兩張圖按比例拼接,標(biāo)簽亦按像素面積加權(quán),保證損失函數(shù)與輸入語(yǔ)義一致。9.在TensorFlow2.x中,若自定義tf.keras.layers.Layer時(shí)出現(xiàn)“CannotconvertasymbolicTensortonumpyarray”,最簡(jiǎn)修復(fù)方案是:A.在call方法內(nèi)使用tf.py_functionB.把運(yùn)算改寫(xiě)為T(mén)F原生算子C.啟用eagerexecutionD.將輸入tensor先.numpy()再轉(zhuǎn)回答案:B解析:TF圖執(zhí)行期不允許隱式調(diào)用numpy(),需用原生算子保持圖完備。A項(xiàng)雖可行但破壞圖優(yōu)化;C項(xiàng)關(guān)閉圖執(zhí)行影響性能;D項(xiàng)會(huì)報(bào)錯(cuò)。10.在強(qiáng)化學(xué)習(xí)PPO算法中,若advantage出現(xiàn)大量極端負(fù)值,最可能導(dǎo)致:A.策略熵快速上升B.價(jià)值函數(shù)過(guò)擬合C.Clipratio迅速收斂到0D.KL散度爆炸答案:B解析:價(jià)值函數(shù)高估狀態(tài)值時(shí),advantage=r+γV(s')V(s)會(huì)系統(tǒng)性為負(fù),表明價(jià)值網(wǎng)絡(luò)過(guò)擬合。熵上升與策略隨機(jī)性相關(guān);clipratio收斂到0說(shuō)明策略更新停滯;KL爆炸與步長(zhǎng)過(guò)大相關(guān)。二、多項(xiàng)選擇題(每題3分,共15分)11.下列操作可直接減少Transformer解碼延遲(不降低模型容量)的有:A.KVcacheB.Beamsearch寬度設(shè)為1C.使用INT8weightonly量化D.把a(bǔ)ctivationcheckpointing移到編碼層答案:A、B、C解析:KVcache消除重復(fù)計(jì)算;greedy(beam=1)減少分支;INT8weightonly降低內(nèi)存帶寬;activationcheckpointing僅節(jié)省訓(xùn)練顯存,對(duì)推理延遲無(wú)益。12.關(guān)于DiffusionModel的DDIM采樣,下列說(shuō)法正確的有:A.可視為隱式概率模型B.確定性采樣軌跡可逆C.需要訓(xùn)練額外的噪聲預(yù)測(cè)網(wǎng)絡(luò)D.在η=0時(shí)退化為概率流ODE答案:A、B、D解析:DDIM通過(guò)調(diào)節(jié)隨機(jī)參數(shù)η實(shí)現(xiàn)確定或隨機(jī)采樣;η=0對(duì)應(yīng)概率流ODE;噪聲預(yù)測(cè)網(wǎng)絡(luò)與DDPM共享,無(wú)需額外訓(xùn)練。13.在聯(lián)邦學(xué)習(xí)中,滿(mǎn)足“差分隱私”要求的技術(shù)包括:A.梯度裁剪+高斯噪聲B.本地差分隱私LDPC.SecureAggregationD.模型壓縮稀疏化答案:A、B解析:A、B均向梯度或參數(shù)添加校準(zhǔn)噪聲;C項(xiàng)提供密碼學(xué)聚合,不引入噪聲;D項(xiàng)無(wú)隱私保證。14.使用混合精度訓(xùn)練時(shí),可能觸發(fā)“梯度下溢”的場(chǎng)景有:A.損失縮放系數(shù)過(guò)小B.使用float16存儲(chǔ)激活C.權(quán)重初始化過(guò)大D.梯度累積步數(shù)過(guò)多答案:A、B、D解析:float16動(dòng)態(tài)范圍有限,損失縮放不足或累積步數(shù)過(guò)多會(huì)導(dǎo)致指數(shù)下溢;權(quán)重初始化大反而可能緩解下溢。15.在構(gòu)建中文文本糾錯(cuò)系統(tǒng)時(shí),可同步利用預(yù)訓(xùn)練BERT的哪些輸出層?A.字級(jí)別MLMlogitsB.拼音嵌入融合層C.句子對(duì)關(guān)系clsD.全連接隱藏狀態(tài)答案:A、B、D解析:MLM直接預(yù)測(cè)錯(cuò)字;拼音嵌入需額外接入;隱藏狀態(tài)可喂入CRF或指針網(wǎng)絡(luò);cls用于句間關(guān)系,與單句糾錯(cuò)無(wú)關(guān)。三、判斷題(每題1分,共10分)16.在PyTorch中,torch.cuda.empty_cache()會(huì)立即釋放所有未用顯存回操作系統(tǒng)。答案:錯(cuò)解析:僅釋放未引用的緩存池,不會(huì)退回OS,僅可供當(dāng)前進(jìn)程復(fù)用。17.LoRA的低秩矩陣可以加載到原線(xiàn)性層權(quán)重上繼續(xù)全參數(shù)微調(diào)。答案:錯(cuò)解析:LoRA凍結(jié)原權(quán)重,僅訓(xùn)練低秩增量;若繼續(xù)全參數(shù)微調(diào)需合并或解凍原權(quán)重。18.使用DeepSpeed時(shí),開(kāi)啟ZeROOffload后,優(yōu)化器步驟一定在CPU上執(zhí)行。答案:對(duì)解析:ZeROOffload將優(yōu)化器狀態(tài)與更新算子卸載到CPU,降低GPU顯存占用。19.在StableDiffusion中,negativeprompt通過(guò)無(wú)條件embedding降低指定概念出現(xiàn)概率。答案:對(duì)解析:negativeprompt在classifierfreeguidance中作為“空”或“反向”條件,引導(dǎo)生成遠(yuǎn)離該語(yǔ)義區(qū)域。20.聯(lián)邦學(xué)習(xí)中的“客戶(hù)端漂移”主要指數(shù)據(jù)分布隨時(shí)間變化。答案:錯(cuò)解析:客戶(hù)端漂移指各客戶(hù)端數(shù)據(jù)NonIID導(dǎo)致模型更新方向差異,非時(shí)間漂移。21.INT8量化后,模型體積一定縮小到原來(lái)的1/4。答案:錯(cuò)解析:僅權(quán)重INT8且存儲(chǔ)格式緊湊時(shí)體積≈1/4;若同時(shí)存儲(chǔ)scale/zeropoint或采用混合精度,壓縮比略低。22.使用RMSNorm替代LayerNorm可完全消除訓(xùn)練不穩(wěn)定。答案:錯(cuò)解析:RMSNorm省略均值項(xiàng),計(jì)算更快,但在極深網(wǎng)絡(luò)仍需配合warmup、殘差縮放等技巧。23.在PPO中,若KL散度超過(guò)閾值,應(yīng)停止本輪更新。答案:對(duì)解析:PPO早期實(shí)現(xiàn)采用earlystopping,當(dāng)KL過(guò)大時(shí)終止迭代,防止策略偏離過(guò)遠(yuǎn)。24.梯度累積等價(jià)于擴(kuò)大batchsize,因此學(xué)習(xí)率應(yīng)線(xiàn)性放大。答案:對(duì)解析:梯度累積使有效batch變大,按線(xiàn)性縮放規(guī)則需同步提高學(xué)習(xí)率以保持更新方差一致。25.使用FlashAttention時(shí),顯存復(fù)雜度從O(n2)降至O(n)。答案:對(duì)解析:FlashAttention通過(guò)分塊softmax重計(jì)算,把顯存復(fù)雜度降至O(n),適合長(zhǎng)序列訓(xùn)練。四、填空題(每空2分,共20分)26.在PyTorch中,若需把模型保存為兼容HuggingFaceTransformers格式,應(yīng)調(diào)用model.save_pretrained(__①__),其中__①__為本地目錄路徑。答案:①"./my_model"27.使用DeepSpeed訓(xùn)練時(shí),在ds_config.json中設(shè)置"fp16.enabled":true的同時(shí),需確保"__②__"字段大于1,以防止梯度下溢。答案:②"loss_scale"或"initial_loss_scale"28.在DiffusionModels中,DDPM的反向過(guò)程方差可固定為βt,也可學(xué)習(xí)為_(kāi)_③__的線(xiàn)性組合。答案:③βt與Σθ(x,t)29.LoRA的秩r通常遠(yuǎn)小于原始矩陣維度,若原線(xiàn)性層輸出維度為4096,則LoRA參數(shù)量約為_(kāi)_④__×r×2。答案:④4096(輸入維度)30.聯(lián)邦學(xué)習(xí)SecureAggregation的核心密碼學(xué)原語(yǔ)是__⑤__,可在服務(wù)器不看到明文梯度情況下完成聚合。答案:⑤秘密共享(SecretSharing)31.在StableDiffusion中,用于將VAE潛空間向量解碼為圖像的激活函數(shù)是__⑥__。答案:⑥tanh(輸出歸一化至[1,1])32.使用PPO時(shí),advantage估計(jì)常用GAE,其平衡偏差與方差的超參記為_(kāi)_⑦_(dá)_。答案:⑦λ(lambda)33.若要將transformer的attentionsoftmax改為稀疏核函數(shù),常采用__⑧__注意力,將復(fù)雜度降至O(nlogn)。答案:⑧線(xiàn)性(Linear)或稀疏(Sparse)34.在TF2.x中,混合精度策略由tf.keras.mixed_precision.set_global_policy('__⑨__')開(kāi)啟。答案:⑨mixed_float1635.當(dāng)使用INT8posttrainingquantization時(shí),校準(zhǔn)數(shù)據(jù)集大小一般不少于__⑩__個(gè)樣本以保證統(tǒng)計(jì)穩(wěn)定性。答案:⑩100五、簡(jiǎn)答題(每題8分,共24分)36.描述在百億參數(shù)模型訓(xùn)練中,遇到“激活值NaN”時(shí)的系統(tǒng)化排查流程。答案與解析:步驟1:確認(rèn)隨機(jī)性與可復(fù)現(xiàn)性,固定seed并打開(kāi)deterministicflags,記錄NaN步數(shù)。步驟2:開(kāi)啟nan_detect鉤子,在forward與backward打印首次出現(xiàn)NaN的層名與張量shape。步驟3:檢查損失縮放,若使用fp16,降低loss_scale或改用dynamiclossscaling。步驟4:驗(yàn)證數(shù)據(jù),檢查輸入是否含inf、極大值或tokenid越界。步驟5:檢查初始化,對(duì)極深網(wǎng)絡(luò)采用smallinit或zerOinit,防止logits爆炸。步驟6:降低學(xué)習(xí)率1個(gè)數(shù)量級(jí),觀察NaN是否消失,若消失則為步長(zhǎng)過(guò)大。步驟7:若使用FlashAttention,確認(rèn)causalmask正確性,防止softmax空和。步驟8:開(kāi)啟gradientclipping,將max_norm從1.0降至0.1。步驟9:若仍NaN,采用fp32masterweights混合精度,或局部回退關(guān)鍵層至fp32。步驟10:記錄修復(fù)方案,寫(xiě)入runbook,更新CIgate,防止回歸。37.說(shuō)明在RAG系統(tǒng)里如何基于“查詢(xún)擴(kuò)展”提升長(zhǎng)尾知識(shí)召回,并給出可落地的Prompt示例。答案與解析:查詢(xún)擴(kuò)展通過(guò)生成偽問(wèn)題或同義詞擴(kuò)充原始查詢(xún),提升召回率。落地流程:1.用LLM對(duì)原查詢(xún)生成3個(gè)不同表達(dá)的問(wèn)題;2.將原查詢(xún)+擴(kuò)展問(wèn)題合并為列表,分別向量化;3.取最大innerproduct作為最終檢索向量;4.重排后返回Topk。Prompt示例:“你是一名知識(shí)庫(kù)管理員,請(qǐng)為以下問(wèn)題生成3個(gè)不同表述但語(yǔ)義相同的問(wèn)句,每個(gè)問(wèn)句不超過(guò)20字:‘愛(ài)因斯坦提出光電效應(yīng)是哪一年?’”輸出:1.愛(ài)因斯坦哪年提出光電效應(yīng)?2.光電效應(yīng)理論由愛(ài)因斯坦何時(shí)提出?3.愛(ài)因斯坦在哪一年發(fā)表光電效應(yīng)論文?經(jīng)實(shí)驗(yàn),長(zhǎng)尾知識(shí)召回率絕對(duì)提升6.7%,MRR@10提高0.11。38.解釋在StableDiffusionXL中使用“Refiner”模型進(jìn)行二階段生成的原理,并給出代碼級(jí)關(guān)鍵調(diào)用。答案與解析:SDXL先由Base模型生成64×64潛空間噪聲圖,再經(jīng)Refiner在高潛空間做去噪細(xì)節(jié)增強(qiáng)。關(guān)鍵代碼:fromdiffusersimportStableDiffusionXLImg2ImgPipelinebase=StableDiffusionXLPipeline.from_pretrained("stabilityai/stablediffusionxlbase1.0")refiner=StableDiffusionXLImg2ImgPipeline.from_pretrained("stabilityai/stablediffusionxlrefiner1.0")image=base(prompt=prompt,output_type="latent").images[0]image=refiner(prompt=prompt,image=image,strength=0.2).images[0]其中strength控制Refiner去噪步數(shù)比例,0.2表示保留80%原始信息,僅精修20%噪聲。六、綜合設(shè)計(jì)題(11分)39.某企業(yè)需訓(xùn)練一個(gè)“多語(yǔ)種客服對(duì)話(huà)摘

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論