2025年全國計(jì)算機(jī)應(yīng)用水平考試(NIT人工智能應(yīng)用)考試題目及答案_第1頁
2025年全國計(jì)算機(jī)應(yīng)用水平考試(NIT人工智能應(yīng)用)考試題目及答案_第2頁
2025年全國計(jì)算機(jī)應(yīng)用水平考試(NIT人工智能應(yīng)用)考試題目及答案_第3頁
2025年全國計(jì)算機(jī)應(yīng)用水平考試(NIT人工智能應(yīng)用)考試題目及答案_第4頁
2025年全國計(jì)算機(jī)應(yīng)用水平考試(NIT人工智能應(yīng)用)考試題目及答案_第5頁
已閱讀5頁,還剩22頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2025年全國計(jì)算機(jī)應(yīng)用水平考試(NIT人工智能應(yīng)用)考試題目及答案一、單項(xiàng)選擇題(每題1分,共30分)1.在PyTorch中,若需將張量x從CPU遷移到GPU,下列代碼正確的是A.x.cuda()B.x.to('gpu')C.x.device('cuda')D.x.gpu()答案:A解析:PyTorch使用.cuda()方法將張量遷移到默認(rèn)GPU;.to('cuda')亦可,但選項(xiàng)B、D語法錯(cuò)誤。2.使用Transformer訓(xùn)練中文GPT時(shí),最合理的分詞粒度是A.按標(biāo)點(diǎn)切分B.按字節(jié)對(duì)編碼(BPE)C.按字切分D.按句子切分答案:B解析:BPE在中文上能平衡詞表規(guī)模與語義粒度,避免OOV,同時(shí)保留子詞級(jí)泛化能力。3.在聯(lián)邦學(xué)習(xí)場景下,為防止模型泄露用戶隱私,通常采用的技術(shù)是A.同態(tài)加密B.差分隱私C.梯度壓縮D.知識(shí)蒸餾答案:B解析:差分隱私在梯度上傳時(shí)加入噪聲,提供可量化的隱私保證;同態(tài)加密計(jì)算開銷大,蒸餾與壓縮不直接解決隱私。4.當(dāng)使用ResNet50做遷移學(xué)習(xí)時(shí),若新數(shù)據(jù)集類別數(shù)由1000變?yōu)?0,應(yīng)修改的網(wǎng)絡(luò)層是A.所有BatchNormB.第一個(gè)卷積層C.全局平均池化層D.全連接層答案:D解析:僅最后一層全連接輸出維度需與類別數(shù)一致,其余層可凍結(jié)。5.在StableDiffusion推理階段,去噪步數(shù)從50減到20,最可能帶來的影響是A.圖像分辨率降低B.采樣速度加快,細(xì)節(jié)減少C.顯存占用線性增加D.提示詞權(quán)重失效答案:B解析:DDIM步數(shù)減少縮短采樣時(shí)間,但高階信息恢復(fù)不足,細(xì)節(jié)平滑。6.下列關(guān)于A搜索算法的描述,正確的是A.啟發(fā)函數(shù)h(n)允許大于真實(shí)代價(jià)B.若h(n)≡0,則退化為DijkstraC.必須滿足h(n)≤h(n)才能保證最優(yōu)D.擴(kuò)展節(jié)點(diǎn)數(shù)與h(n)無關(guān)答案:B解析:h(n)=0時(shí)僅g(n)起作用,即Dijkstra;可采納性要求h(n)≤h(n),但B選項(xiàng)描述亦正確。7.在YOLOv8訓(xùn)練配置中,關(guān)閉mosaicaugmentation可能導(dǎo)致的后果是A.小目標(biāo)檢測AP下降B.學(xué)習(xí)率自動(dòng)降低C.批大小被迫減半D.損失函數(shù)變?yōu)镕ocalLoss答案:A解析:mosaic通過拼接四張圖增大小目標(biāo)出現(xiàn)頻率,關(guān)閉后小目標(biāo)樣本減少,AP下降。8.使用LoRA微調(diào)LLaMA7B時(shí),若rank=16,則相比全參數(shù)量減少約A.10%B.1%C.0.1%D.0.01%答案:C解析:LoRA僅訓(xùn)練低秩矩陣,參數(shù)量≈2×r×d,7B模型中占比約0.1%。9.在深度強(qiáng)化學(xué)習(xí)PPO算法中,clip參數(shù)ε通常取0.2,若臨時(shí)改為0.5,則A.策略更新更保守B.策略更新更激進(jìn)C.價(jià)值網(wǎng)絡(luò)學(xué)習(xí)率同步提高D.熵系數(shù)自動(dòng)歸零答案:B解析:ε增大,剪切區(qū)間變寬,允許更大比率的概率比,更新步幅加大。10.在ONNXRuntime中設(shè)置graph_optimization_level=ORT_ENABLE_ALL,則A.關(guān)閉算子融合B.在CPU上禁用AVX512C.開啟常量折疊與節(jié)點(diǎn)融合D.模型精度強(qiáng)制FP16答案:C解析:ORT_ENABLE_ALL啟用常量折疊、算子融合等高層優(yōu)化,不強(qiáng)制精度轉(zhuǎn)換。11.使用Diffusers庫進(jìn)行DreamBooth訓(xùn)練時(shí),prior_preservation_flag的作用是A.防止過擬合到提示詞B.保留原模型對(duì)先驗(yàn)類別的知識(shí)C.啟用EMA權(quán)重平滑D.開啟xformers加速答案:B解析:priorpreservation通過先驗(yàn)提示詞生成樣本,與定制樣本共同訓(xùn)練,避免災(zāi)難性遺忘。12.在TensorRT構(gòu)建引擎階段,若出現(xiàn)“ForeignNode”警告,最可能原因是A.插件缺失B.顯存不足C.批大小為1D.精度為INT8答案:A解析:TensorRT無法解析某些ONNX算子,需自定義插件。13.在VisionTransformer中,位置編碼采用2Dsincos,其最大優(yōu)勢是A.支持任意分辨率微調(diào)B.減少參數(shù)量50%C.消除注意力計(jì)算D.提高通道維利用率答案:A解析:2Dsincos可插值到任意分辨率,無需重新訓(xùn)練。14.使用DeepSpeedZeRO3時(shí),optimizerstate被劃分到A.僅GPU0B.所有數(shù)據(jù)并行進(jìn)程C.CPUoffloadD.模型并行維度答案:B解析:ZeRO3將優(yōu)化器狀態(tài)、梯度、參數(shù)均分片到所有DP進(jìn)程。15.在HuggingFacetransformers中,設(shè)置torch_dtype=torch.float16主要影響A.詞表大小B.推理顯存占用C.注意力頭數(shù)D.最大長度限制答案:B解析:FP16權(quán)重減半,顯存占用下降約50%,與結(jié)構(gòu)無關(guān)。16.在CLIP模型中,溫度參數(shù)τ的作用是A.控制圖像分辨率B.縮放logits以調(diào)節(jié)對(duì)比學(xué)習(xí)難度C.決定是否使用GPT2D.設(shè)置學(xué)習(xí)率warmup答案:B解析:τ縮放余弦相似度,使對(duì)比分布更尖銳或更平滑。17.在AutoML領(lǐng)域,用于神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索的強(qiáng)化學(xué)習(xí)基線算法是A.DQNB.REINFORCEC.PPOD.A3C答案:C解析:ENAS、DARTS等采用PPO控制器生成子網(wǎng)絡(luò)。18.在StableDiffusion中,negative_prompt注入時(shí)機(jī)為A.在VAE編碼前B.在UNet去噪循環(huán)內(nèi)C.在CLIP文本編碼器后D.在SafetyChecker之后答案:C解析:negativeprompt與正提示詞共用文本編碼器,生成負(fù)向嵌入,用于引導(dǎo)。19.在模型蒸餾中,若學(xué)生模型僅學(xué)習(xí)教師logits的Top5,則損失函數(shù)稱為A.MSEB.KL散度C.TopKKLD.CosineLoss答案:C解析:TopKKL僅對(duì)最高K個(gè)概率計(jì)算散度,減少噪聲。20.在AI繪畫中,ClassifierFreeGuidance(CFG)scale=1時(shí),等價(jià)于A.無條件生成B.僅條件生成C.隨機(jī)采樣D.模型崩潰答案:B解析:CFG=1時(shí)無條件分支權(quán)重為0,僅保留條件分支。21.在NLP數(shù)據(jù)并行訓(xùn)練時(shí),若global_batch=1024,GPU=8,gradient_accumulation_steps=4,則per_device_batch_size=A.32B.16C.8D.64答案:A解析:1024/(8×4)=32。22.在Python中,使用pile(model,mode='maxautotune')時(shí),后端默認(rèn)是A.TorchScriptB.InductorC.TVMD.XLA答案:B解析:PyTorch2.0默認(rèn)使用Inductor做Triton級(jí)融合。23.在AI芯片CambriconMLU370上,運(yùn)行INT8推理時(shí),理論峰值算力提升約A.1倍B.2倍C.4倍D.8倍答案:C解析:INT8相比FP32數(shù)據(jù)位寬減少4倍,峰值乘加提升4倍。24.在模型部署階段,若出現(xiàn)“NaN”溢出,首先應(yīng)檢查A.學(xué)習(xí)率B.批歸一化參數(shù)C.權(quán)重初始化D.混合精度縮放因子答案:D解析:FP16下易出現(xiàn)梯度下溢,LossScaler未更新導(dǎo)致梯度NaN。25.在AI醫(yī)療影像分割任務(wù)中,評(píng)價(jià)指標(biāo)Dice=0.9,IoU≈A.0.81B.0.82C.0.83D.0.84答案:B解析:IoU=Dice/(2Dice)=0.9/1.1≈0.818。26.在強(qiáng)化學(xué)習(xí)AlphaGoZero中,MCTS搜索使用的神經(jīng)網(wǎng)絡(luò)輸出為A.策略+價(jià)值B.僅策略C.僅價(jià)值D.優(yōu)勢函數(shù)答案:A解析:網(wǎng)絡(luò)同時(shí)輸出先驗(yàn)概率p與狀態(tài)價(jià)值v。27.在AI芯片H100上,TransformerEngine自動(dòng)選擇FP8時(shí),主要依據(jù)A.動(dòng)態(tài)損失縮放B.梯度累積步數(shù)C.批大小D.序列長度答案:A解析:FP8需動(dòng)態(tài)縮放避免溢出,TransformerEngine實(shí)時(shí)調(diào)整。28.在LangChain框架中,RetrievalQAchain默認(rèn)的chunk_size為A.1000B.2000C.500D.4000答案:A解析:LangChain默認(rèn)1000字符切分,兼顧召回與速度。29.在AI生成代碼模型CodeT5+中,填補(bǔ)中間(FIM)任務(wù)的哨符為A.<extra_id_0>B.<mask>C.<fim_prefix>D.<hole>答案:C解析:CodeT5+使用<fim_prefix>、<fim_middle>、<fim_suffix>格式。30.在AI繪畫中,使用karrasnoiseschedule相比linearschedule,其優(yōu)勢是A.收斂步數(shù)更少B.高階導(dǎo)數(shù)連續(xù),減少偽影C.顯存占用減半D.支持文本反轉(zhuǎn)答案:B解析:karrasschedule基于ODE設(shè)計(jì),高階連續(xù),視覺偽影更少。二、多項(xiàng)選擇題(每題2分,共20分,多選少選均不得分)31.下列哪些技術(shù)可有效降低Transformer自注意力計(jì)算復(fù)雜度A.LinformerB.PerformerC.SparseTopkD.FlashAttention答案:ABCD解析:Linformer投影維度;Performer使用Fourier特征;SparseTopk選最高k分?jǐn)?shù);FlashAttention通過分塊減少內(nèi)存讀寫。32.在StableDiffusionv2.0訓(xùn)練中使用LAION5B,下列哪些過濾策略被采用A.美學(xué)評(píng)分>4.5B.水印概率<0.5C.文本長度>5D.色情分類<0.1答案:ABD解析:官方過濾含美學(xué)、水印、NSFW;文本長度非硬性指標(biāo)。33.關(guān)于混合精度訓(xùn)練,下列說法正確的是A.維護(hù)FP32主權(quán)重B.損失縮放防止梯度下溢C.所有算子必須FP16D.BatchNorm可用FP16答案:ABD解析:現(xiàn)代框架允許BN用FP16,但關(guān)鍵歸約保持FP32。34.在AI大模型推理服務(wù)中,采用continuousbatching可帶來A.提高系統(tǒng)吞吐B.降低首token時(shí)延C.顯存碎片增加D.批大小動(dòng)態(tài)變化答案:ABD解析:continuousbatching按token級(jí)調(diào)度,吞吐提升,首token延遲下降,顯存碎片減少。35.下列屬于PromptEngineering原則的是A.指令清晰具體B.提供示例C.增加隨機(jī)種子D.使用角色扮演答案:ABD解析:隨機(jī)種子與提示質(zhì)量無關(guān)。36.在AI繪畫中,使用ControlNet時(shí),下列哪些條件輸入被支持A.Canny邊緣B.OpenPose骨骼C.深度圖D.語義分割答案:ABCD解析:ControlNet提供多種條件編碼器。37.關(guān)于DiffusionModel加速采樣,下列方法有效的是A.DDIMB.DPMSolver++C.UniPCD.PLMS答案:ABCD解析:均為高階ODE/SDE求解器,減少步數(shù)。38.在AI芯片設(shè)計(jì)領(lǐng)域,下列哪些屬于存內(nèi)計(jì)算(PIM)技術(shù)A.HBMPIMB.ReRAM交叉陣列C.TPU脈動(dòng)陣列D.DRAMLogic融合答案:ABD解析:TPU為傳統(tǒng)脈動(dòng)陣列,非PIM。39.在AI模型版權(quán)保護(hù)中,下列哪些屬于模型水印技術(shù)A.權(quán)重?cái)_動(dòng)B.觸發(fā)集后門C.對(duì)抗樣本指紋D.數(shù)據(jù)集加密答案:ABC解析:數(shù)據(jù)集加密不直接嵌入模型。40.在AI倫理審查中,應(yīng)重點(diǎn)評(píng)估A.訓(xùn)練數(shù)據(jù)偏見B.能耗碳排C.推理速度D.可解釋性答案:ABD解析:推理速度屬性能指標(biāo),非倫理核心。三、判斷題(每題1分,共10分,正確打“√”,錯(cuò)誤打“×”)41.VisionTransformer去掉位置編碼后仍能保持旋轉(zhuǎn)不變性。答案:×解析:ViT無歸納偏置,去掉位置編碼后性能大幅下降,不具備旋轉(zhuǎn)不變性。42.使用INT8量化時(shí),權(quán)重零點(diǎn)必須對(duì)齊到網(wǎng)格中心。答案:×解析:零點(diǎn)可為任意int值,無需中心對(duì)齊。43.在PPO中,valueloss系數(shù)越大,策略更新越穩(wěn)定。答案:√解析:價(jià)值網(wǎng)絡(luò)更準(zhǔn)確,優(yōu)勢估計(jì)方差減小,策略梯度更穩(wěn)定。44.擴(kuò)散模型的反向過程可以看作逐漸去噪的馬爾可夫鏈。答案:√解析:DDPM定義q(xt1|xt)為馬爾可夫鏈。45.LoRA微調(diào)時(shí),rank越大,可訓(xùn)練參數(shù)量指數(shù)增長。答案:×解析:線性增長,非指數(shù)。46.在AI繪畫中,CFGscale越高,圖像越偏離提示詞。答案:×解析:CFG越高,圖像越貼合提示詞,但過高會(huì)過飽和。47.FlashAttention支持任意長度序列無需分塊。答案:×解析:仍需分塊,但減少HBM讀寫。48.使用kfold交叉驗(yàn)證時(shí),k越大,方差越小。答案:√解析:訓(xùn)練集比例增大,評(píng)估方差下降。49.在AI大模型中,RLHF階段使用獎(jiǎng)勵(lì)模型輸出標(biāo)量獎(jiǎng)勵(lì)。答案:√解析:獎(jiǎng)勵(lì)模型輸出標(biāo)量,用于PPO優(yōu)化。50.在Python中,torch.set_float32_matmul_precision('high')會(huì)強(qiáng)制使用TF32。答案:×解析:'high'允許TF32,但非強(qiáng)制;'medium'才默認(rèn)TF32。四、填空題(每空2分,共20分)51.在Transformer中,自注意力計(jì)算復(fù)雜度為________,其中n為序列長度。答案:O(n2d)52.若使用DeepSpeedZeRO2,則優(yōu)化器狀態(tài)被分片到________并行組。答案:數(shù)據(jù)53.在StableDiffusion中,VAE編碼下采樣倍率為________。答案:8×54.在AI繪畫中,DPMSolver++將采樣步數(shù)壓縮至________步仍保持高質(zhì)量。答案:2055.在Python中,使用torch.backends.cudnn.benchmark=True時(shí),cuDNN會(huì)對(duì)________進(jìn)行自動(dòng)調(diào)優(yōu)。答案:卷積算法56.在AI模型量化中,對(duì)稱量化公式scale=max(|x|)/(2^(bit1)1),若bit=8,則分母為________。答案:12757.在AI大模型訓(xùn)練中,MegatronLM采用________并行方式將Transformer層切分到不同GPU。答案:管道58.在PromptTuning中,可訓(xùn)練參數(shù)為________嵌入。答案:連續(xù)59.在AI推理服務(wù)中,________調(diào)度算法按請(qǐng)求到達(dá)順序合并動(dòng)態(tài)批。答案:continuousbatching60.在AI芯片H100中,F(xiàn)P8格式采用________位指數(shù)。答案:4五、簡答題(每題10分,共30分)61.描述DDIM與DPMSolver在擴(kuò)散模型采樣中的核心差異,并給出適用場景。答案:DDIM基于離散時(shí)間隱變量模型,通過非馬爾可夫推斷實(shí)現(xiàn)確定性采樣,支持跳步,適合快速生成低多樣性樣本;DPMSolver將擴(kuò)散ODE高階求解,利用指數(shù)積分器,在20步內(nèi)達(dá)到DDIM250步質(zhì)量,適合高質(zhì)量且步數(shù)極低的場景,如實(shí)時(shí)AI繪畫。解析:DDIM依賴線性噪聲調(diào)度,截?cái)嗾`差大;DPMSolver采用非線性高階誤差補(bǔ)償,數(shù)值穩(wěn)定性更好。62.解釋FlashAttention如何通過分塊降低HBM讀寫,并給出內(nèi)存復(fù)雜度公式。答案:FlashAttention將注意力矩陣按塊(tile)加載到SRAM,在片上完成softmax與注意力計(jì)算,避免實(shí)例化完整n×n矩陣。內(nèi)存復(fù)雜度由O(n2)降至O(n2/B),其中B為塊大小,實(shí)際SRAM占用O(Bd)。解析:傳統(tǒng)注意力需寫回HBM,復(fù)雜度O(n2);FlashAttention通過重計(jì)算softmax歸一化因子,無需存儲(chǔ)中間矩陣,顯著減少帶寬。63.闡述RLHF中獎(jiǎng)勵(lì)模型過擬合的危害,并提出兩種緩解策略。答案:獎(jiǎng)勵(lì)模型過擬合會(huì)導(dǎo)致PPO優(yōu)化階段利用獎(jiǎng)勵(lì)黑客,生成高分但不可讀文本,偏離人類偏好。策略一:在獎(jiǎng)勵(lì)模型訓(xùn)練時(shí)加入Dropout、L2正則及早停,降低容量;策略二:使用獎(jiǎng)勵(lì)模型集成,對(duì)多個(gè)checkpoint的獎(jiǎng)勵(lì)取平均,減少單模型偏差。解析:獎(jiǎng)勵(lì)模型為標(biāo)量回歸,易對(duì)訓(xùn)練提示詞過擬合;集成可平滑異常獎(jiǎng)勵(lì),提升魯棒性。六、綜合應(yīng)用題(共40分)64.某團(tuán)隊(duì)欲在邊緣端Jets

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論