版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年(人工智能工程師)計(jì)算機(jī)視覺(jué)基礎(chǔ)試題及答案一、單項(xiàng)選擇題(每題2分,共20分)1.在YOLOv5中,下列哪一項(xiàng)不是其Head部分新增的結(jié)構(gòu)?A.SPPFB.PANetC.Detect層中的anchorfree分支D.GhostConv答案:D解析:GhostConv是輕量化網(wǎng)絡(luò)GhostNet提出的模塊,YOLOv5官方主干仍使用C3與標(biāo)準(zhǔn)Conv,并未引入GhostConv。2.使用OpenCV的cv2.resize進(jìn)行雙線性插值時(shí),默認(rèn)的插值標(biāo)志是:A.INTER_NEARESTB.INTER_LINEARC.INTER_CUBICD.INTER_LANCZOS4答案:B解析:OpenCV文檔寫(xiě)明,當(dāng)interpolation參數(shù)缺省時(shí),resize函數(shù)自動(dòng)取INTER_LINEAR。3.在卷積神經(jīng)網(wǎng)絡(luò)中,若輸入特征圖為256×256×64,采用64個(gè)3×3卷積核、stride=1、padding=1,輸出特征圖尺寸為:A.256×256×64B.254×254×64C.258×258×64D.128×128×64答案:A解析:padding=1保證“same”卷積,高寬不變;通道數(shù)等于卷積核數(shù)量64。4.BatchNorm在訓(xùn)練階段統(tǒng)計(jì)running_mean時(shí),動(dòng)量momentum典型取值為0.1,其含義是:A.新batch均值占90%,歷史占10%B.新batch均值占10%,歷史占90%C.直接替換歷史均值D.與lr成反比答案:B解析:running_mean=(1momentum)history+momentumnew_batch,故0.1表示新數(shù)據(jù)權(quán)重僅10%。5.在雙目立體匹配中,常用“贏家通吃”WTA策略計(jì)算視差,其本質(zhì)是:A.對(duì)代價(jià)體積做softmaxB.對(duì)每個(gè)像素選最小代價(jià)值對(duì)應(yīng)的dC.用SGM做全局優(yōu)化D.用深度學(xué)習(xí)回歸連續(xù)視差答案:B解析:WTA(WinnerTakesAll)即逐像素argmin,選擇代價(jià)最小的離散視差。6.使用FocalLoss時(shí),若γ=0,則損失退化為:A.標(biāo)準(zhǔn)交叉熵B.DiceLossC.帶權(quán)交叉熵D.KL散度答案:A解析:γ=0時(shí)調(diào)制因子(1p)^γ=1,僅剩?α_tlog(p_t),即平衡交叉熵;若α_t再為1,則完全等價(jià)于標(biāo)準(zhǔn)CE。7.在Transformer的Encoder中,MultiHeadAttention后接的子層是:A.另一個(gè)MultiHeadAttentionB.Add&Norm→FeedForwardC.FeedForward→LayerNormD.MaskedMultiHeadAttention答案:B解析:Encoder子層順序:MultiHeadAttention→殘差+LayerNorm→FeedForward→殘差+LayerNorm。8.使用MobileNetV3Small在ImageNet上訓(xùn)練時(shí),官方輸入分辨率是:A.192×192B.224×224C.256×256D.299×299答案:B解析:GoogleAutoML論文與開(kāi)源代碼均默認(rèn)224×224。9.在mAP@0.5評(píng)價(jià)指標(biāo)中,0.5指:A.分類閾值0.5B.IoU閾值0.5C.置信度閾值0.5D.NMS閾值0.5答案:B解析:mAP@0.5表示計(jì)算AP時(shí),正樣本判定要求檢測(cè)框與GT的IoU≥0.5。10.使用TensorRT對(duì)FP32模型做INT8量化時(shí),必須提供的組件是:A.校準(zhǔn)數(shù)據(jù)集B.QAT權(quán)重C.ONNXIRv4D.TensorFlowSavedModel答案:A解析:PTQ(PostTrainingQuantization)需校準(zhǔn)集統(tǒng)計(jì)激活動(dòng)態(tài)范圍;QAT雖可替代,但非“必須”。二、多項(xiàng)選擇題(每題3分,共15分;多選少選均不得分)11.下列哪些操作可有效緩解目標(biāo)檢測(cè)中正負(fù)樣本極度不均衡?A.FocalLossB.OHEMC.DataAugmentation(Mosaic)D.SoftNMS答案:A、B解析:FocalLoss與OHEM直接重采樣或重加權(quán);Mosaic增強(qiáng)雖提升魯棒性,但不直接解決失衡;SoftNMS降低高置信度誤殺,亦無(wú)關(guān)失衡。12.關(guān)于VisionTransformer(ViT)說(shuō)法正確的是:A.patchsize越小,計(jì)算量呈平方增長(zhǎng)B.位置編碼可學(xué)習(xí)也可手工C.分類token在最后一層直接接MLPHeadD.必須使用LayerNorm前置(PreNorm)答案:A、B、C解析:ViT官方采用PreNorm,但研究也驗(yàn)證PostNorm可行,故D非必須。13.在圖像分割任務(wù)中,DiceLoss相比交叉熵優(yōu)點(diǎn)包括:A.對(duì)前景像素?cái)?shù)量不敏感B.可直接優(yōu)化評(píng)價(jià)指標(biāo)C.天然抑制背景梯度D.與FocalLoss互斥答案:A、B、C解析:DiceLoss與FocalLoss可加權(quán)組合,非互斥。14.使用PyTorch導(dǎo)出ONNX時(shí),下列哪些算子可能在TorchScript跟蹤階段失???A.條件分支iftensor.shape[0]>0B.動(dòng)態(tài)for循環(huán)依賴tensor值C.nn.Conv2dD.torch.nonzero后接view答案:A、B、D解析:Conv2d為靜態(tài)算子,無(wú)動(dòng)態(tài)控制流,導(dǎo)出穩(wěn)定;其余三項(xiàng)含動(dòng)態(tài)行為,需script模式或改寫(xiě)。15.在邊緣設(shè)備部署時(shí),INT8量化可能帶來(lái)的副作用有:A.精度下降B.推理延遲反而升高C.層融合受限D(zhuǎn).模型體積增大答案:A、B、C解析:INT8體積減半;若GPU未支持INT8TensorCore,延遲可能升高;某些算子(如sigmoid)融合受限。三、填空題(每空2分,共20分)16.在經(jīng)典Harris角點(diǎn)檢測(cè)中,自相關(guān)矩陣M的特征值λ1、λ2均較大時(shí),對(duì)應(yīng)像素點(diǎn)被稱為_(kāi)_______。答案:角點(diǎn)解析:Harris根據(jù)λ1、λ2大小區(qū)分邊緣、角點(diǎn)、平坦區(qū)。17.若使用4×4的輸入特征圖,經(jīng)過(guò)2×2最大池化、stride=2、padding=0,輸出尺寸為_(kāi)_______。答案:2×2解析:(4?2)/2+1=2。18.在BatchNorm參數(shù)中,可學(xué)習(xí)參數(shù)γ與β的維度與________維度相同。答案:通道(C)解析:BN沿(N,H,W)求均值,每個(gè)通道獨(dú)立仿射。19.在FasterRCNN中,RPN生成的anchor經(jīng)前景閾值0.7與背景閾值0.3篩選后,再采樣共________個(gè)anchor用于訓(xùn)練。答案:256解析:論文設(shè)定前景128、背景128,共256。20.使用雙線性插值旋轉(zhuǎn)圖像時(shí),OpenCV默認(rèn)邊界填充模式為_(kāi)_______。答案:BORDER_CONSTANT(黑邊)解析:未指定borderMode時(shí),cv2.warpAffine取BORDER_CONSTANT,填充0。21.在語(yǔ)義分割評(píng)價(jià)中,mIoU計(jì)算公式為_(kāi)_______。答案:\(\frac{1}{C}\sum_{i=1}^{C}\frac{TP_i}{TP_i+FP_i+FN_i}\)解析:C為類別數(shù),含背景常單獨(dú)計(jì)算。22.若學(xué)習(xí)率調(diào)度采用cosineannealing,初始lr=0.1,周期T=100,則第50epoch的lr為_(kāi)_______。答案:0.05解析:cosine曲線在T/2處降至一半。23.在CenterNet中,中心點(diǎn)熱圖使用的損失函數(shù)是________。答案:FocalLoss的變體(ModifiedFocalLoss)解析:中心點(diǎn)視為高斯熱圖,正樣本權(quán)重用(1?y)^β抑制。24.使用TensorBoard記錄圖像時(shí),默認(rèn)最多顯示________張。答案:4解析:writer.add_images限制默認(rèn)4張,可手動(dòng)改sample_size。25.在MobileNetV2中,bottleneck的擴(kuò)張因子t通常取________。答案:6解析:論文實(shí)驗(yàn)t=6在準(zhǔn)確與延遲間折中。四、判斷題(每題1分,共10分;正確打“√”,錯(cuò)誤打“×”)26.L1正則化比L2更易產(chǎn)生稀疏權(quán)重。答案:√解析:L1在0處不可導(dǎo),幾何解在軸上,天然稀疏。27.在YOLOv3中,anchor尺寸通過(guò)kmeans在COCO上聚類得到,類別數(shù)k=9。答案:√解析:YOLOv3分3尺度,每尺度3anchor,共9。28.ReLU激活函數(shù)在負(fù)半軸梯度為0,因此一定導(dǎo)致神經(jīng)元永久死亡。答案:×解析:只有學(xué)習(xí)率極大或權(quán)重初始化極不合理時(shí)才“永久死亡”。29.使用MixUp數(shù)據(jù)增強(qiáng)時(shí),標(biāo)簽也采用線性插值,可提升模型魯棒性。答案:√解析:MixUp對(duì)圖像與標(biāo)簽均插值,使決策邊界更平滑。30.在Transformer中,位置編碼去掉后,模型仍能保持圖像分類精度不變。答案:×解析:ViT去掉位置編碼后,Top1掉點(diǎn)約3%,順序信息丟失。31.對(duì)灰度圖使用直方圖均衡化,其熵一定增大。答案:√解析:均衡化擴(kuò)展動(dòng)態(tài)范圍,熵單調(diào)不減。32.在FPN中,高層特征圖經(jīng)過(guò)上采樣后與低層特征做elementwiseadd,可提升小目標(biāo)檢測(cè)效果。答案:√解析:高語(yǔ)義+高分辨率融合,增強(qiáng)小目標(biāo)。33.使用Adam優(yōu)化器時(shí),β1=0.9、β2=0.999為推薦默認(rèn)值,無(wú)需再調(diào)。答案:√解析:原文實(shí)驗(yàn)覆蓋多數(shù)任務(wù),默認(rèn)即最優(yōu)。34.在實(shí)例分割中,MaskRCNN的mask分支使用sigmoid輸出,每個(gè)像素多類softmax。答案:×解析:mask分支每類獨(dú)立sigmoid,避免類間競(jìng)爭(zhēng)。35.對(duì)視頻做光流估計(jì)時(shí),F(xiàn)arneback算法屬于稀疏光流。答案:×解析:Farneback為稠密光流,LucasKanade才是稀疏代表。五、簡(jiǎn)答題(每題8分,共24分)36.描述非極大值抑制(NMS)在目標(biāo)檢測(cè)中的完整流程,并說(shuō)明SoftNMS的改進(jìn)思想。答案:流程:1)按置信度降序排列所有框;2)選最高置信度框,計(jì)算與其余框IoU;3)剔除IoU≥閾值的框;4)重復(fù)23直至無(wú)剩余框。SoftNMS改進(jìn):不直接剔除,而是將高IoU框的置信度按高斯或線性函數(shù)降低,保留更多定位準(zhǔn)確的框,尤其密集場(chǎng)景提升召回。37.解釋轉(zhuǎn)置卷積(TransposedConvolution)產(chǎn)生“棋盤(pán)效應(yīng)”的原因,并給出兩種抑制方法。答案:原因:轉(zhuǎn)置卷積的步長(zhǎng)>1時(shí),核權(quán)重與輸入元素相乘的覆蓋模式呈周期性不均,導(dǎo)致輸出像素值呈現(xiàn)棋盤(pán)狀高低交替。抑制:1)使用stride=1的轉(zhuǎn)置卷積+上采樣后插值,再經(jīng)3×3卷積平滑;2)采用亞像素卷積(PixelShuffle)替代,先擴(kuò)通道再重組,避免不均勻覆蓋。38.列舉三種常用的圖像數(shù)據(jù)增強(qiáng)方式,并說(shuō)明其針對(duì)的計(jì)算機(jī)視覺(jué)任務(wù)痛點(diǎn)。答案:1)RandomErasing:隨機(jī)遮擋矩形區(qū)域,緩解過(guò)擬合,提升模型對(duì)遮擋魯棒性,用于行人重識(shí)別;2)Albumentations的GridMask:結(jié)構(gòu)化丟棄像素,兼顧遮擋與正則,用于分類;3)Mosaic(YOLOv5):四圖拼接,增加小目標(biāo)與上下文,解決小目標(biāo)樣本不足。六、計(jì)算與推導(dǎo)題(共31分)39.(9分)給定3×3灰度圖像I=[[1,2,1],[0,2,0],[1,2,1]],使用Sobel算子Gx=[[1,0,1],[2,0,2],[1,0,1]]計(jì)算水平梯度,寫(xiě)出完整卷積結(jié)果(padding=0,stride=1)。答案:卷積核翻轉(zhuǎn)180°后滑動(dòng),得:(1×(?1)+2×0+1×1+0×(?2)+2×0+0×2+1×(?1)+2×0+1×1)=0同理逐元素計(jì)算,最終輸出:[[0,4,0]]解析:輸出尺寸(3?3+1)=1×3,但水平邊緣僅中間列有差異,故為[0,4,0]。40.(10分)假設(shè)某檢測(cè)模型在單張圖片上預(yù)測(cè)5個(gè)框,置信度與IoU(相對(duì)GT)如下表:框1:conf=0.9,IoU=0.81框2:conf=0.8,IoU=0.75框3:conf=0.7,IoU=0.60框4:conf=0.6,IoU=0.45框5:conf=0.5,IoU=0.30若采用IoU閾值0.5作為正樣本判定,計(jì)算AP@0.5(假設(shè)僅1個(gè)GT)。答案:排序后依次判斷TP/FP:框1:TP框2:TP(重復(fù)GT,但僅1GT,故后續(xù)算FP)框3:FP框4:FP框5:FPRecall=[1,1,1,1,1]Precision=[1,1,0.67,0.5,0.4]AP=1×(1?0)=1解析:僅1GT,首次命中后召回恒1,AP=1。41.(12分)給定四通道特征圖F∈?^{H×W×4},采用可分離卷積(Depthwise+Pointwise)輸出8通道,卷積核3×3,padding=1,stride=1。1)計(jì)算理論FLOPs;2)若改用普通卷積,F(xiàn)LOPs增加多少倍?答案:1)Depthwise:H×W×3×3×4=36HWPointwise:H×W×1×1×4×8=32HW總計(jì)68HW2)普通卷積:H×W×3×3×4×8=288HW增加288/68≈4.24倍解析:可分離卷積將空間與通道解耦,計(jì)算量顯著下降。七、編程實(shí)踐題(共30分)42.(30分)請(qǐng)用PyTorch實(shí)現(xiàn)一個(gè)輕量級(jí)UNet,要求:a)編碼器使用MobileNetV2的bottleneck(擴(kuò)張率6,stride=2時(shí)下采樣);b)解碼器用雙線性上采樣+拼接+普通3×3卷積;c)輸入256×256×3,輸出256×256×1(二分類分割);d)寫(xiě)出完整前向代碼并統(tǒng)計(jì)參數(shù)量。參考代碼:```pythonimporttorch,torch.nnasnnimporttorchvision.modelsasmodelsdefconv_bn_relu(in_c,out_c,k=3,s=1,p=1):returnnn.Sequential(nn.Conv2d(in_c,out_c,k,s,p,bias=False),nn.BatchNorm2d(out_c),nn.ReLU6(inplace=True))classInvertedResidual(nn.Module):def__init__(self,in_c,out_c,s,expand=6):super().__init__()hidden=in_cexpandself.use_res=s==1andin_c==out_clayers=[]ifexpand!=1:layers+=[conv_bn_relu(in_c,hidden,1)]layers+=[conv_bn_relu(hidden,hidden,3,s,1,groups=hidden),depthwisenn.Conv2d(hidden,out_c,1,1,0,bias=False),nn.BatchNorm2d(out_c)]self.conv=nn.Sequential(layers)defforward(self,x):returnx+self.conv(x)ifself.use_reselseself.conv(x)classEnc(nn.Module):def__init__(self):super().__init__()self.head=conv_bn_relu(3,32,3,2,1)128self.b1=InvertedResidual(32,16,1,1)128self.b2=nn.Sequential(InvertedResidual(16,24,2,6),64InvertedResidual(24,24,1,6))self.b3=nn.Sequential(InvertedResidual(24,32,2,6),32InvertedResidual(32,32,1,6),InvertedResidual(32,32,1,6))self.b4=nn.Sequential(InvertedResidual(32,64,2,6),16InvertedResidual(64,64,1,6),InvertedResidual(64,64,1,6),InvertedResidual(64,64,1,6))defforward(self,x):x=self.head(x)x1=self.b1(x)x2=self.b2(x1)x3=self.b3(x2)x4=self.b4(x3)returnx1,x2,x3,x4classDec(nn.Module):def__init__(self):super().__init__()self.up4=nn.Upsample(scale_factor=2,mode='bilinear',align_corners=False)self.c4=conv_bn_relu(64+32,32)self.up3=nn.Upsample(scale_factor=2,mode='bilinear',align_corners=False)self.c3=conv_bn_relu(32+24,24)self.up2=nn.Upsample(scale_factor=2,mode='bilinear',align_corners=False)self.c2=conv_bn_relu(24+16,16)self.up1=nn.Upsample(scale_factor=2,mode='bilinear',align_corners=False)self.c1=nn.C
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 鋁合金碎屑清掃制度規(guī)范
- 駕??头啃袨橐?guī)范制度
- 快遞驛站規(guī)范管理制度
- 美術(shù)館作品登記制度規(guī)范
- 輸液室規(guī)范安全管理制度
- 廢鋼裝料制度規(guī)范標(biāo)準(zhǔn)
- 危廢標(biāo)簽規(guī)范管理制度
- 科創(chuàng)板企業(yè)規(guī)范財(cái)務(wù)制度
- 屠宰刀具管理制度規(guī)范
- 疼痛治療室操作規(guī)范制度
- 材料樣品確認(rèn)單
- 彝族文化和幼兒園課程結(jié)合的研究獲獎(jiǎng)科研報(bào)告
- 空調(diào)安裝免責(zé)協(xié)議
- 《傳感器與檢測(cè)技術(shù)》試題及答案
- 湖北省襄樊市樊城區(qū)2023-2024學(xué)年數(shù)學(xué)四年級(jí)第一學(xué)期期末質(zhì)量檢測(cè)試題含答案
- 初中班會(huì)主題課件科學(xué)的復(fù)習(xí)事半功倍(共23張PPT)
- PCB封裝設(shè)計(jì)規(guī)范
- 新北師大版八年級(jí)數(shù)學(xué)下冊(cè)導(dǎo)學(xué)案(全冊(cè))
- GB/T 9349-2002聚氯乙烯、相關(guān)含氯均聚物和共聚物及其共混物熱穩(wěn)定性的測(cè)定變色法
- GB/T 32473-2016凝結(jié)水精處理用離子交換樹(shù)脂
- 《水利水電工程等級(jí)劃分及洪水標(biāo)準(zhǔn)》 SL252-2000
評(píng)論
0/150
提交評(píng)論