2025人工智能領(lǐng)域計(jì)算機(jī)視覺算法技術(shù)認(rèn)證考核試卷及答案_第1頁
2025人工智能領(lǐng)域計(jì)算機(jī)視覺算法技術(shù)認(rèn)證考核試卷及答案_第2頁
2025人工智能領(lǐng)域計(jì)算機(jī)視覺算法技術(shù)認(rèn)證考核試卷及答案_第3頁
2025人工智能領(lǐng)域計(jì)算機(jī)視覺算法技術(shù)認(rèn)證考核試卷及答案_第4頁
2025人工智能領(lǐng)域計(jì)算機(jī)視覺算法技術(shù)認(rèn)證考核試卷及答案_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2025人工智能領(lǐng)域計(jì)算機(jī)視覺算法技術(shù)認(rèn)證考核試卷及答案一、單選題(每題2分,共20分)1.在YOLOv8中,若輸入圖像尺寸為640×640,下采樣倍數(shù)為32,則最終特征圖的空間分辨率是A.10×10?B.20×20?C.40×40?D.80×80答案:B解析:640÷32=20,故特征圖尺寸為20×20。2.VisionTransformer(ViT)在ImageNet1k上取得最高Top1準(zhǔn)確率時(shí),其PatchSize通常為A.8?B.16?C.32?D.64答案:B解析:ViTB/16在ImageNet1k上達(dá)到81.8%,PatchSize16為經(jīng)典配置。3.下列哪種數(shù)據(jù)增強(qiáng)策略對目標(biāo)檢測任務(wù)提升最大且不會(huì)引入標(biāo)簽偏移A.MixUp?B.CutMix?C.Mosaic?D.RandomErasing答案:C解析:Mosaic將四張圖拼接,保持相對坐標(biāo)不變,標(biāo)簽無需修正。4.在CenterNet中,若heatmap峰值點(diǎn)坐標(biāo)為(123.6,88.4),則最終預(yù)測框中心點(diǎn)坐標(biāo)為A.(123,88)?B.(124,88)?C.(123.6,88.4)?D.(124,89)答案:C解析:CenterNet直接回歸亞像素級浮點(diǎn)坐標(biāo),無需取整。5.使用FocalLoss時(shí),若γ=2、pt=0.9,則調(diào)制因子(1pt)^γ約為A.0.01?B.0.02?C.0.1?D.0.2答案:A解析:(10.9)^2=0.01。6.在MaskRCNN中,RoIAlign雙線性插值采樣點(diǎn)數(shù)為A.1?B.2?C.4?D.9答案:C解析:RoIAlign默認(rèn)2×2采樣點(diǎn),每個(gè)點(diǎn)4個(gè)插值位置,共4。7.下列哪項(xiàng)不是Transformer自注意力計(jì)算復(fù)雜度O(n2)的優(yōu)化方案A.Linformer?B.Performer?C.SwinTransformer?D.DeiT答案:D解析:DeiT通過蒸餾訓(xùn)練,不改變注意力復(fù)雜度。8.在TensorRT8.6中,INT8量化校準(zhǔn)算法默認(rèn)采用A.Entropy?B.MinMax?C.Percentile?D.KL答案:A解析:Entropy校準(zhǔn)在TensorRT8.x為默認(rèn),兼顧精度與速度。9.使用OpenCVDNN推理YOLOv5s,若設(shè)置backend為CUDA,target為CUDA_FP16,則輸入blob數(shù)據(jù)類型應(yīng)為A.CV_8U?B.CV_32F?C.CV_16F?D.CV_64F答案:B解析:OpenCVDNN接收FP32blob,內(nèi)部轉(zhuǎn)為FP16。10.在MMDetection框架中,若config文件設(shè)置`optimizer=dict(type='AdamW',lr=0.0001,weight_decay=0.05)`,則weight_decay對應(yīng)的是A.L1正則?B.L2正則?C.AdamW解耦權(quán)重衰減?D.梯度裁剪答案:C解析:AdamW將weight_decay從梯度更新中解耦。二、多選題(每題3分,共15分)11.下列哪些操作會(huì)降低VisionTransformer訓(xùn)練顯存占用A.GradientCheckpointing?B.MixedPrecision?C.DeepSpeedZero3?D.LoRA答案:ABCD解析:四項(xiàng)均為顯存優(yōu)化技術(shù),LoRA通過低秩分解減少可訓(xùn)練參數(shù)量。12.關(guān)于ConvNeXt與SwinTransformer對比,正確的有A.ConvNeXt完全無注意力機(jī)制?B.Swin使用shiftedwindow?C.ConvNeXt采用invertedbottleneck?D.Swin的FLOPs隨圖像尺寸線性增長答案:ABC解析:Swin復(fù)雜度為線性,但常數(shù)項(xiàng)高,非嚴(yán)格線性增長。13.在目標(biāo)檢測評估中,以下哪些情況會(huì)導(dǎo)致mAP50計(jì)算結(jié)果下降A(chǔ).漏檢?B.誤檢?C.框回歸偏差大?D.類別混淆答案:ABCD解析:四項(xiàng)均降低Precision或Recall,導(dǎo)致AP下降。14.使用ONNXRuntime移動(dòng)端推理時(shí),可開啟哪些加速選項(xiàng)A.NNAPI?B.CoreML?C.XNNPACK?D.TensorRT答案:ABC解析:TensorRT僅限NVIDIAGPU,移動(dòng)端不可用。15.下列哪些損失函數(shù)可直接用于語義分割A(yù).CrossEntropy?B.Dice?C.Tversky?D.Lovász答案:ABCD解析:四項(xiàng)均為分割常用損失。三、填空題(每空2分,共20分)16.在SwinTransformer中,若輸入圖像224×224,PatchSize=4,則序列長度為________。答案:3136解析:(224÷4)2=562=3136。17.YOLOv8的C2f模塊中,若shortcut=True且bottleneck=3,則該模塊內(nèi)部共有________個(gè)卷積層。答案:9解析:每個(gè)bottleneck2個(gè)卷積,3個(gè)共6個(gè),外加1×1降維、1×1升維、shortcut卷積,共9。18.使用RandAugment時(shí),若N=2、M=9,則每次增強(qiáng)隨機(jī)挑選________種變換,強(qiáng)度為________級。答案:2;9解析:N為變換種數(shù),M為強(qiáng)度級。19.在PyTorch中,若模型已`.cuda()`,輸入張量需調(diào)用________方法將其移至GPU。答案:`.cuda()`或`.to('cuda')`解析:模型與數(shù)據(jù)需同設(shè)備。20.MaskRCNN中,mask分支輸出尺寸為28×28,若RoI尺寸為112×112,則雙線性插值放大倍數(shù)為________。答案:4解析:112÷28=4。21.在Transformer中,PositionalEncoding維度需與________維度一致。答案:d_model解析:相加操作要求維度一致。22.使用MMCV運(yùn)行FP16訓(xùn)練時(shí),需設(shè)置`fp16=dict(loss_scale='________')`以采用動(dòng)態(tài)縮放。答案:dynamic解析:MMCV支持dynamic、static或指定數(shù)值。23.若BatchNorm2d的num_features=64,則其可訓(xùn)練參數(shù)數(shù)量為________。答案:128解析:weight與bias各64,共128。24.在CenterNet訓(xùn)練時(shí),若heatmap高斯核σ=3,則高斯核半徑約為________像素。答案:18解析:經(jīng)驗(yàn)公式半徑=2×σ×2+1≈13,實(shí)際代碼取σ×6≈18。25.TensorRT中,若校準(zhǔn)批次大小為32,共使用500張圖,則需________次迭代完成校準(zhǔn)。答案:16解析:500÷32≈15.625,向上取整16。四、判斷題(每題1分,共10分)26.DeiTsmall比ViTB/16參數(shù)量更少但I(xiàn)mageNetTop1更高。答案:×解析:DeiTsmall22M參數(shù),ViTB/1686M,但Top1略低。27.YOLOv8不再使用anchor,完全依賴anchorfree回歸。答案:√解析:YOLOv8全系anchorfree。28.在語義分割中,mIoU與mAP計(jì)算方式完全相同。答案:×解析:mIoU基于交并比,mAP基于PR曲線。29.使用CutMix時(shí),標(biāo)簽按面積比例線性分配。答案:√解析:CutMix標(biāo)簽為混合比例λ與1λ。30.SwinTransformer的windowattention不支持cudakernel融合。答案:×解析:Swin提供定制cudakernel實(shí)現(xiàn)融合。31.INT8量化后模型大小理論上減少為原來的1/4。答案:×解析:僅權(quán)重從32bit→8bit,模型大小≈1/4,但含激活緩存與代碼,實(shí)際約1/3。32.在MMDetection中,`_base_/datasets/coco_detection.py`默認(rèn)使用RGB順序。答案:√解析:COCO默認(rèn)RGB,與OpenCVBGR相反,需做轉(zhuǎn)換。33.VisionTransformer的CLStoken在測試階段可移除并改用平均池化。答案:√解析:DeiT等論文已驗(yàn)證GAP可替代CLS。34.使用Albumentations時(shí),若設(shè)置`additional_targets={'mask':'mask'}`,則同一空間變換會(huì)同步應(yīng)用于圖像與mask。答案:√解析:additional_targets保證同步。35.在ONNX導(dǎo)出時(shí),動(dòng)態(tài)軸設(shè)置錯(cuò)誤可能導(dǎo)致Batch維度固定為1。答案:√解析:動(dòng)態(tài)軸需顯式指定。五、簡答題(每題8分,共24分)36.描述YOLOv8的DFL(DistributionFocalLoss)原理,并給出公式與作用。答案:DFL將邊界框坐標(biāo)的單值預(yù)測改為16bin分布預(yù)測,先softmax獲得離散分布,再與積分形式求期望得到坐標(biāo)。公式:給定16個(gè)區(qū)間,網(wǎng)絡(luò)輸出pi,目標(biāo)坐標(biāo)y落在第k與k+1之間,令yk≤y≤yk+1,則LDFL=?[(k+1?y)log(pk)+(y?k)log(pk+1)]作用:1.顯式建模坐標(biāo)不確定性,提升定位精度;2.分布積分可導(dǎo),端到端訓(xùn)練;3.對遮擋與小目標(biāo)更魯棒。37.解釋SwinTransformer中ShiftedWindowAttention的實(shí)現(xiàn)流程,并說明如何降低計(jì)算冗余。答案:流程:1.將特征圖按窗口MxM劃分,計(jì)算標(biāo)準(zhǔn)WindowAttention;2.下一層將窗口整體偏移(?M/2?,?M/2?),形成新的不規(guī)則窗口;3.使用maskedattention屏蔽跨窗口連接,保持稀疏性;4.循環(huán)深度方向交替使用常規(guī)與shifted窗口。降低冗余:1.窗口內(nèi)局部注意力,計(jì)算復(fù)雜度從O(HW)2降至O(M2·(HW/M2)·M2)=O(HWM2);2.通過cyclicshift將shifted窗口重排為規(guī)則張量,再用batch矩陣乘一次完成,避免padding;3.共享key/value投影,減少顯存搬移。38.列舉三種解決語義分割類別不平衡的損失函數(shù),并給出各自公式與適用場景。答案:1.DiceLoss:LDice=1?2∑pigi/(∑pi+∑gi)適用:前景背景極度不平衡,醫(yī)學(xué)圖像。2.FocalLoss:LFL=?α(1?pt)^γlogpt適用:易難樣本失衡,通用分割。3.ClassBalancedLoss:LCB=?∑wclog(pc),wc=(1?β)/(1?β^{nc})適用:長尾分布,COCOStuff等。六、編程與計(jì)算題(共31分)39.(10分)給定PyTorch代碼片段,補(bǔ)全動(dòng)態(tài)shape的ONNX導(dǎo)出,并寫出Python推理腳本獲取輸出維度。代碼:```pythonimporttorch,torch.nnasnnclassModel(nn.Module):def__init__(self):super().__init__()self.conv=nn.Conv2d(3,8,3,1,1)defforward(self,x):returnself.conv(x)m=Model().eval()dummy=torch.randn(1,3,640,640)請補(bǔ)全導(dǎo)出代碼```答案:```pythontorch.onnx.export(m,dummy,"model.onnx",input_names=['input'],output_names=['output'],dynamic_axes={'input':{0:'batch',2:'height',3:'width'},'output':{0:'batch',2:'h',3:'w'}})```推理腳本:```pythonimportonnxruntimeasortimportnumpyasnpsess=ort.InferenceSession("model.onnx")inp=np.random.randn(2,3,320,320).astype(np.float32)out=sess.run(None,{'input':inp})[0]print(out.shape)輸出:(2,8,320,320)```40.(10分)給定COCO格式j(luò)son,類別id=[1,2,3],寫出Python代碼統(tǒng)計(jì)各類別目標(biāo)框平均面積,并輸出字典。答案:```pythonimportjsonwithopen('instances_train.json')asf:data=json.load(f)id2area={1:[],2:[],3:[]}forannindata['annotations']:cat=ann['category_id']ifcatinid2area:x,y,w,h=ann['bbox']id2area[cat].append(wh)avg={k:sum(v)/len(v)ifvelse0fork,vinid2area.items()}print(avg)```41.(11分)使用OpenCV實(shí)現(xiàn)Sobel邊緣檢測,要求:1.讀入灰度圖;2.計(jì)算x與y方向梯度;3.合并幅值并歸一化到0255;4.保存為png。答案:```pythonimportcv2importnumpyasnpimg=cv2.imread('road.jpg',0)gx=cv2.Sobel(img,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論