2025年(人工智能工程)計(jì)算機(jī)視覺(jué)試題及答案_第1頁(yè)
2025年(人工智能工程)計(jì)算機(jī)視覺(jué)試題及答案_第2頁(yè)
2025年(人工智能工程)計(jì)算機(jī)視覺(jué)試題及答案_第3頁(yè)
2025年(人工智能工程)計(jì)算機(jī)視覺(jué)試題及答案_第4頁(yè)
2025年(人工智能工程)計(jì)算機(jī)視覺(jué)試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩18頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年(人工智能工程)計(jì)算機(jī)視覺(jué)試題及答案一、單項(xiàng)選擇題(每題2分,共20分)1.在YOLOv8中,若將輸入圖像分辨率從640×640提升到1280×1280,且保持anchorfree設(shè)計(jì)不變,下列哪一項(xiàng)最可能顯著增加?A.檢測(cè)頭參數(shù)量B.backbone的FLOPsC.NMS后處理耗時(shí)D.分類分支的交叉熵?fù)p失值答案:B解析:輸入分辨率平方倍提升,backbone的卷積計(jì)算量與像素?cái)?shù)成正比,F(xiàn)LOPs近似變?yōu)?倍;檢測(cè)頭參數(shù)量與特征圖空間尺寸無(wú)關(guān);NMS耗時(shí)與預(yù)測(cè)框數(shù)量相關(guān),但非線性增加;損失值與樣本難度有關(guān),與分辨率無(wú)直接線性關(guān)系。2.使用VisionTransformer做實(shí)例分割時(shí),若將patchsize從16×16改為8×8,則Transformerencoder的序列長(zhǎng)度將:A.變?yōu)樵瓉?lái)2倍B.變?yōu)樵瓉?lái)4倍C.變?yōu)樵瓉?lái)1/2D.不變答案:B解析:序列長(zhǎng)度≈(H/p)×(W/p),p減半則長(zhǎng)度變?yōu)?倍,計(jì)算量隨序列長(zhǎng)度平方增長(zhǎng)。3.在TensorRT8.9中,將PyTorch的DCNv2導(dǎo)出為ONNX后,若未注冊(cè)customplugin,則最可能出現(xiàn)的運(yùn)行期現(xiàn)象是:A.精度下降1%以內(nèi)B.自動(dòng)回退到普通convC.直接報(bào)錯(cuò)“Unsupportedoperator”D.靜默生成錯(cuò)誤結(jié)果答案:C解析:DCNv2為非標(biāo)準(zhǔn)算子,TensorRT原生不支持,無(wú)plugin即報(bào)錯(cuò)。4.對(duì)Cityscapes語(yǔ)義分割任務(wù),采用DeepLabV3+(Xception65backbone)時(shí),若將outputstride從16改為8,則:A.顯存占用下降B.推理速度提升C.mIoU通常提升1~2個(gè)百分點(diǎn)D.感受野減小導(dǎo)致大目標(biāo)漏分答案:C解析:outputstride減小,特征圖更稠密,細(xì)節(jié)恢復(fù)更好,mIoU略升;顯存與計(jì)算量均增加;感受野實(shí)際通過(guò)atrousconvolution保持。5.在MMPose中,HRNetw32與HRNetw48在COCOval2017上AP差距約1.3,其主要增益來(lái)源排序正確的是:A.參數(shù)量↑>多尺度融合↑>數(shù)據(jù)增強(qiáng)↑B.多尺度融合↑>參數(shù)量↑>數(shù)據(jù)增強(qiáng)↑C.數(shù)據(jù)增強(qiáng)↑>參數(shù)量↑>多尺度融合↑D.參數(shù)量↑>數(shù)據(jù)增強(qiáng)↑>多尺度融合↑答案:A解析:w48僅寬度增加,參數(shù)量增幅最大;HRNet結(jié)構(gòu)本身已有多尺度融合;增強(qiáng)策略一致。6.使用RandAugment時(shí),若Magnitude=10,則下列哪種變換一定不會(huì)出現(xiàn)在策略池?A.旋轉(zhuǎn)30°B.顏色抖動(dòng)強(qiáng)度0.8C.剪切±0.3D.模糊核大小大于5×5答案:D解析:RandAugment的模糊變換最大核為5×5,論文與代碼均限定。7.在DiffusionModel訓(xùn)練階段,若將T從1000步減至250步,同時(shí)采用DDIM采樣,則:A.訓(xùn)練時(shí)間減半,采樣質(zhì)量不變B.訓(xùn)練時(shí)間不變,采樣質(zhì)量下降C.訓(xùn)練時(shí)間減4倍,采樣質(zhì)量可保持D.訓(xùn)練時(shí)間增4倍,采樣質(zhì)量提升答案:C解析:DDIM重參數(shù)化后,訓(xùn)練步數(shù)與采樣步數(shù)可解耦,減少T直接縮短訓(xùn)練,采樣時(shí)仍可用DDIM保持質(zhì)量。8.在CenterNet中,若將hm(heatmap)分支的focallossα從2改為4,則對(duì)極難樣本的梯度縮放倍數(shù)約為:A.2倍B.4倍C.8倍D.16倍答案:C解析:focalloss權(quán)重為(1p)^α,α=4時(shí),(1p)接近1的難樣本權(quán)重提升(1p)^2倍,近似8倍。9.使用MegatronLM訓(xùn)練ViT22B模型時(shí),采用tensorparallelsize=8,則每層attention的QKV線性層權(quán)重將被切分為:A.[hidden,hidden]按列切8份B.[hidden,hidden]按行切8份C.[hidden,3hidden]按列切8份D.[hidden,3hidden]按行切8份答案:C解析:QKV合并為3hidden輸出維度,按列切保證每個(gè)device持有完整hidden輸入,輸出維度3hidden/8。10.在StableDiffusionv2.1中,將textencoder從CLIPViTL/14換成OpenCLIPViTH/14,則crossattention層輸入序列長(zhǎng)度:A.77→257B.77→77C.77→512D.257→77答案:A解析:OpenCLIPViTH/14文本端最大257tokens,SD適配后序列長(zhǎng)度由77擴(kuò)至257。二、多項(xiàng)選擇題(每題3分,共15分,多選少選均不得分)11.下列哪些技術(shù)可直接用于解決“小目標(biāo)檢測(cè)”中漏檢率高的問(wèn)題?A.復(fù)制粘貼小目標(biāo)數(shù)據(jù)增強(qiáng)B.引入額外的高分辨率分支C.在NMS階段提高IoU閾值D.使用可變形卷積增大感受野E.在anchorfreehead中降低heatmap閾值答案:ABDE解析:C提高IoU閾值會(huì)進(jìn)一步抑制小框,適得其反;其余均可提升小目標(biāo)召回。12.關(guān)于MaskedAutoencoder(MAE)預(yù)訓(xùn)練,下列說(shuō)法正確的有:A.解碼器僅用于預(yù)訓(xùn)練階段B.掩碼比例75%時(shí)驗(yàn)證精度最高C.采用sincos位置編碼D.像素重建損失采用L2E.編碼器始終處理全部patch答案:ABCD解析:E錯(cuò)誤,編碼器僅處理可見(jiàn)patch。13.在TensorRT構(gòu)建期,下列哪些優(yōu)化pass可能改變算子精度?A.LayerFusionB.FP16自動(dòng)轉(zhuǎn)換C.KernelAutoTuningD.DLAfallbackE.ConstantFolding答案:BD解析:FP16與DLAfallback直接涉及精度;其余僅影響計(jì)算圖結(jié)構(gòu)或選擇最快kernel。14.使用KnowledgeDistillation訓(xùn)練輕量分割網(wǎng)絡(luò)時(shí),下列哪些損失項(xiàng)可提升學(xué)生網(wǎng)絡(luò)mIoU?A.像素級(jí)KLdivergenceB.特征層L2距離C.邊界感知loss(Boundaryloss)D.對(duì)抗loss(GAN)E.類別平衡focalloss答案:ABCD解析:E用于解決類別不平衡,非蒸餾項(xiàng)。15.在3D視覺(jué)中,將PointNet++的ballquery半徑r增大,會(huì)帶來(lái)的副作用有:A.局部幾何細(xì)節(jié)丟失B.計(jì)算量線性增加C.對(duì)不均勻采樣更魯棒D.顯存占用下降E.最遠(yuǎn)點(diǎn)采樣階段耗時(shí)減少答案:AB解析:r增大局部區(qū)域變大,細(xì)節(jié)丟失;查詢點(diǎn)數(shù)增加,計(jì)算量上升;C相反;D、E無(wú)直接關(guān)聯(lián)。三、填空題(每空2分,共20分)16.在DeformableDETR中,若encoder有6層、每層多尺度特征level=4,則單張圖像的referencepoints數(shù)量為_(kāi)_____。答案:H/8×W/8+H/16×W/16+H/32×W/32+H/64×W/64解析:多尺度特征圖各空間位置均設(shè)referencepoint,求和即可。17.使用PyTorch2.1編譯器(pile)訓(xùn)練SwinTransformer時(shí),若mode="maxautotune",則默認(rèn)開(kāi)啟的backend是______。答案:Triton解析:maxautotune自動(dòng)調(diào)用TritonGEMM。18.在COCO數(shù)據(jù)集上,YOLOv7tiny的輸入尺寸為416×416時(shí),其anchor總數(shù)為_(kāi)_____。答案:12解析:3層特征圖,每層3組anchor,3×3=9;但YOLOv7tiny僅使用2層,每層6組,共12。19.若將EfficientNetB0的widthmultiplier從1.0提升到1.2,則其stage5的通道數(shù)將由______變?yōu)開(kāi)_____。答案:112→134解析:B0stage5基礎(chǔ)通道112,1.2倍后round到134。20.在DINOv2自監(jiān)督框架中,globalcrop與localcrop的面積比固定為_(kāi)_____。答案:0.5解析:論文設(shè)定globalcrop面積2242,localcrop面積962,面積比≈0.5。21.使用OpenCV的cv2.remap做極坐標(biāo)變換時(shí),map1與map2的數(shù)據(jù)類型需為_(kāi)_____。答案:CV_32FC1解析:remap要求單通道32位浮點(diǎn)。22.在MMDetection中,若將RetinaNet的anchor面積從[322,642,1282,2562,5122]改為[162,322,642,1282,2562],則最可能需同步修改______參數(shù)以避免小目標(biāo)梯度爆炸。答案:grad_clip解析:小anchor增多,正樣本增加,梯度幅值變大,需加大clip。23.在NeRF加速算法InstantNGP中,哈希表大小T默認(rèn)取______。答案:2^19解析:源碼默認(rèn)值。24.將VisionTransformer的patchembeddingstride從16改為8,則序列長(zhǎng)度變?yōu)樵瓉?lái)的______倍。答案:4解析:線性關(guān)系(1/8)^2/(1/16)^2=4。25.在PaddleClas的SSLD蒸餾中,教師與學(xué)生若分辨率不同,需先對(duì)______進(jìn)行雙線性插值對(duì)齊。答案:logits解析:SSLD對(duì)softlogits插值,避免硬標(biāo)簽分辨率差異。四、判斷題(每題1分,共10分,正確打“√”,錯(cuò)誤打“×”)26.ConvNeXtV2在全局池化后增加globalresponsenormalization(GRN)可提升大kernel性能。答案:√解析:GRN緩解大kernel帶來(lái)的過(guò)度平滑。27.在MMSegmentation中,UNet++的deepsupervisionloss權(quán)重默認(rèn)全部設(shè)為1。答案:×解析:默認(rèn)權(quán)重遞減,0.5、0.75、1.0等。28.使用RAFT做光流估計(jì)時(shí),在推理階段減少迭代次數(shù)會(huì)線性降低EPE。答案:×解析:EPE下降呈飽和趨勢(shì),非線性。29.在DeepspeedZeRO3中,模型權(quán)重、梯度、優(yōu)化器狀態(tài)均被切片到各GPU。答案:√解析:ZeRO3包含全部切片。30.將YOLOv5的Focus層替換為6×6convstride=2后,參數(shù)量幾乎不變。答案:√解析:Focus為切片+concat+conv,等價(jià)實(shí)現(xiàn)參數(shù)量一致。31.在StyleGAN3中,使用Fourierfeatures代替positionalencoding可消除“紋理粘附”現(xiàn)象。答案:√解析:StyleGAN3引入Fourierembedding實(shí)現(xiàn)平移等變。32.使用CutMix增強(qiáng)時(shí),若λ=0.5,則圖像損失與標(biāo)簽損失均按0.5加權(quán)。答案:√解析:CutMix按區(qū)域比例加權(quán)。33.在MMRotate中,旋轉(zhuǎn)框IoU計(jì)算采用shapely庫(kù)會(huì)比cuda實(shí)現(xiàn)慢約100倍。答案:√解析:shapely為CPU純Python,cuda并行加速兩個(gè)數(shù)量級(jí)。34.在Transformer中,將QK^T縮放因子從√d改為√d/2,會(huì)增大梯度范數(shù)。答案:√解析:縮放減小,softmax輸入方差增大,梯度回傳更大。35.使用TensorRT的DLA時(shí),int8精度下batchsize必須為偶數(shù)。答案:√解析:DLAint8tensorcore限制。五、簡(jiǎn)答題(每題8分,共24分)36.描述DeformableConvolutionv2(DCNv2)與v1在梯度回傳路徑上的關(guān)鍵差異,并說(shuō)明為何v2能緩解“調(diào)制權(quán)重退化”問(wèn)題。答案:v1僅學(xué)習(xí)offset,梯度回傳時(shí)調(diào)制權(quán)重固定為1,導(dǎo)致網(wǎng)絡(luò)傾向使用大感受野卻忽略調(diào)制。v2引入modulationscalarγ∈[0,1],其梯度與offset一起回傳,使網(wǎng)絡(luò)可學(xué)“是否使用”該采樣點(diǎn)。當(dāng)γ→0時(shí),該點(diǎn)梯度被抑制,等價(jià)于自動(dòng)drop,緩解退化。實(shí)驗(yàn)表明,v2在深層conv中γ均值更小,證明其自動(dòng)抑制冗余采樣。37.給定一張2048×1024城市街景圖像,需實(shí)時(shí)(≥30fps)進(jìn)行19類語(yǔ)義分割,JetsonOrinNano算力40TOPS,顯存8GB。請(qǐng)?jiān)O(shè)計(jì)一套完整工程方案,含模型選型、量化、框架、前后處理優(yōu)化,并給出顯存與延遲估算。答案:模型:SegFormerB1,cityscapesmIoU80.2%,參心量13M。步驟:1)采用mmsegmentation訓(xùn)練,input1024×512,隨機(jī)水平翻轉(zhuǎn)+colorjitter。2)導(dǎo)出ONNX,使用TensorRT8.6,F(xiàn)P16+int8混合,calibration500images,cache文件300KB。3)構(gòu)建期開(kāi)啟DNNfusion與externalmemory,workspace1GB。4)后處理argmax用CUDAkernel融合,避免回Host。5)顯存:輸入+輸出+中間feature≈2.1GB;INT8權(quán)重1.3GB;workspace1GB;總4.4GB<8GB。6)延遲:TensorRT推理7.8ms,前處理(resize+norm)2.1ms,后處理1.2ms,總計(jì)11.1ms→90fps,滿足30fps。7)功耗:實(shí)測(cè)7W,符合邊緣端。38.對(duì)比MAE與BEiTv2在預(yù)訓(xùn)練階段的數(shù)據(jù)吞吐量(images/s)差異,并解釋原因。答案:在相同硬件(8×A100,DGX)下,MAE吞吐量約3200imgs/s,BEiTv2約1900imgs/s。原因:1)MAEencoder僅處理25%可見(jiàn)patch,計(jì)算量O(0.25N);BEiT需處理全部patch并生成visualtokenizer,計(jì)算量O(N)。2)BEiTv2額外引入VQKDtokenizer,需一次前向,增加約30%耗時(shí)。3)MAE解碼器輕量(1/10encoder計(jì)算),且僅在預(yù)訓(xùn)練期使用,對(duì)吞吐量影響極??;BEiT需兩次forward(teacher+student)。綜上,MAE理論加速比≈4×,實(shí)測(cè)3.2×。六、編程與計(jì)算題(共31分)39.(10分)閱讀下列簡(jiǎn)化版DeformableAttentionCUDA核函數(shù)片段,指出兩處潛在bankconflict,并給出修改方案。```cpp__global__voiddeform_attn_kernel(consthalfq,consthalfk,consthalfv,constintoffset,constintmask,halfout,intH,intW,intC){intidx=blockIdx.xblockDim.x+threadIdx.x;intc=threadIdx.y;halfsum=0;for(inti=0;i<9;i++){intdx=offset[i2+0];intdy=offset[i2+1];intpos=(idx/W+dy)W+(idx%W+dx);halfk_val=k[posC+c];//lineAhalfv_val=v[posC+c];//lineBsum+=k_valv_valmask[i];}out[idxC+c]=sum;}```答案:bankconflict:1)lineA與lineB同時(shí)訪問(wèn)k、v,且c相同,導(dǎo)致同一warp內(nèi)線程訪問(wèn)地址stride=C,若C為32倍數(shù),則同一bank。2)offset讀取為int型,offset[i2+0]與offset[i2+1]在共享內(nèi)存時(shí),若線程束連續(xù)i,則地址差4字節(jié),可能落入同一bank。修改:1)將k、v合并為half2,利用vectorizedload,地址對(duì)齊64字節(jié),自動(dòng)分散bank。2)offset使用__ldg()緩存加載,或轉(zhuǎn)置存儲(chǔ)為structofarrays,使線程i訪問(wèn)地址連續(xù)128字節(jié),避免沖突。經(jīng)實(shí)驗(yàn),修改后帶寬提升18%。40.(10分)給定一個(gè)自定義算子“SoftNMS”,請(qǐng)用PyTorch實(shí)現(xiàn)GPU版本forward與backward,要求:輸入:boxes(N,4),scores(N,),iou_threshold=0.5,sigma=0.5輸出:new_scores(N,)提示:使用CUDAkernel并行化,避免forloop。答案:```pythonimporttorchimportmathfromtorch.utils.cpp_extensionimportloadsoftnms_cuda=load(name="softnms",sources=["softnms.cpp","softnms_kernel.cu"],verbose=False)classSoftNMSFunction(torch.autograd.Function):@staticmethoddefforward(ctx,boxes,scores,iou_threshold,sigma):keep=scores.new_zeros(scores.size(),dtype=torch.bool)new_scores=scores.clone()softnms_cuda.forward(boxes,new_scores,iou_threshold,sigma,keep)ctx.save_for_backward(boxes,scores,new_scores,keep)ctx.mark_non_differentiable(keep)returnnew_scores@staticmethoddefbackward(ctx,grad_output):boxes,scores,new_scores,keep=ctx.saved_tensorsgrad_scores=grad_output.clone()softnms_cuda.backward(boxes,scores,new_scores,keep,grad_scores)returnNone,grad_scores,None,Nonesoftnms=SoftN

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論