版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
2025年(人工智能)計算機視覺技術(shù)試題及答案一、單項選擇題(每題2分,共20分)1.在YOLOv8中,若輸入圖像尺寸為640×640,網(wǎng)絡(luò)下采樣倍數(shù)為32,則最終特征圖的空間分辨率是A.10×10??B.20×20??C.40×40??D.80×80答案:B解析:640÷32=20,故特征圖尺寸為20×20。2.使用ResNet50做遷移學(xué)習(xí)時,若新任務(wù)類別數(shù)為5,則網(wǎng)絡(luò)最后一層全連接層的輸出通道數(shù)應(yīng)改為A.5??B.50??C.1000??D.2048答案:A解析:遷移學(xué)習(xí)需將原1000類輸出改為新任務(wù)類別數(shù)5。3.在雙目立體匹配中,常用的“贏家通吃”策略對應(yīng)下列哪種代價聚合方式A.SGM??B.ADCensus??C.WTA??D.GraphCuts答案:C解析:WTA(WinnerTakeAll)直接選取最小代價對應(yīng)的視差。4.若某卷積層輸入通道為256,輸出通道為512,卷積核3×3,padding=1,則該層參數(shù)量為A.256×512×3×3??B.256×512×3×3+512??C.512×3×3??D.256×512×9+512答案:B解析:權(quán)重參數(shù)量=輸入通道×輸出通道×卷積核尺寸,偏置參數(shù)量=輸出通道。5.在VisionTransformer中,位置編碼不可學(xué)習(xí)時,原論文采用的形式為A.絕對正弦??B.相對正弦??C.可學(xué)習(xí)向量??D.二維高斯答案:A解析:ViT原始論文使用1D絕對正弦位置編碼。6.使用FocalLoss訓(xùn)練目標檢測器時,若γ=2,某樣本易分且pt=0.9,則其損失權(quán)重為A.0.01??B.0.1??C.0.81??D.1答案:A解析:權(quán)重=(1?pt)^γ=0.12=0.01,顯著降低易分樣本貢獻。7.在實例分割任務(wù)中,MaskRCNN與FasterRCNN相比,額外增加的分支是A.RPN??B.MaskHead??C.KeypointHead??D.FPN答案:B解析:Mask分支用于像素級掩碼預(yù)測。8.若某圖像經(jīng)CLAHE處理,cliplimit=2,tile尺寸8×8,則直方圖裁剪閾值等于A.2??B.2×平均計數(shù)??C.2×tile像素數(shù)??D.2×bin寬度答案:B解析:CLAHE將直方圖裁剪至cliplimit×平均計數(shù),再redistribute。9.在深度估計網(wǎng)絡(luò)UniFormer中,用于跨窗口信息交互的模塊稱為A.MHSA??B.CMRA??C.DCA??D.WMSA答案:C解析:DCA(CrossShapedWindowAttention)實現(xiàn)跨窗口通信。10.使用TensorRT加速YOLOv7時,若某層輸出維度為1×255×20×20,其中255可分解為A.3×(5+80)??B.5×51??C.85×3??D.255×1答案:A解析:YOLOv7每個anchor預(yù)測85維(4box+1obj+80cls),3anchor×85=255。二、多項選擇題(每題3分,共15分,多選少選均不得分)11.下列哪些操作可有效緩解語義分割中的類別不平衡A.加權(quán)交叉熵??B.DiceLoss??C.OHEM??D.隨機旋轉(zhuǎn)答案:A、B、C解析:加權(quán)CE、DiceLoss、OHEM均針對不平衡,旋轉(zhuǎn)屬增強無關(guān)。12.關(guān)于BatchNorm推理階段行為,正確的是A.使用滑動平均均值??B.使用滑動平均方差??C.停止更新參數(shù)??D.重新計算批統(tǒng)計答案:A、B、C解析:推理時均值方差固定,不再更新。13.在相機標定中,張正友法需要拍攝的標定板姿態(tài)至少滿足A.2個不同位姿??B.無共線約束??C.覆蓋圖像邊緣??D.純旋轉(zhuǎn)不行答案:C、D解析:需覆蓋視野且避免純旋轉(zhuǎn),2個位姿不足,共線無影響。14.下列哪些指標可直接用于評估目標檢測器在COCO上的性能A.AP@0.5??B.AP@0.75??C.mAP??D.AR@100答案:A、B、C、D解析:COCO官方提供AP、AR系列指標。15.在自監(jiān)督學(xué)習(xí)MoCov3中,以下哪些設(shè)計可防止模型崩潰A.動量更新??B.對稱損失??C.停止梯度??D.預(yù)測頭答案:B、C、D解析:對稱損失+stopgrad+predictor共同防止崩潰,動量更新僅為keyencoder。三、填空題(每空2分,共20分)16.若某圖像尺寸為1920×1080,采用窗口大小7×7的滑動窗口進行模板匹配,步長為1,則總匹配次數(shù)為________。答案:(1920?7+1)×(1080?7+1)=1914×1074=2055636解析:滑動窗口公式(W?w+1)×(H?h+1)。17.在RetinaNet中,F(xiàn)PN輸出5層特征圖,分別對應(yīng)原圖下采樣倍數(shù)為________。答案:8,16,32,64,128解析:P3~P7對應(yīng)下采樣2^3~2^7。18.使用雙線性插值將64×64圖像放大到256×256,需要計算的權(quán)重參數(shù)數(shù)量為________。答案:256×256×4解析:每個目標像素需4個鄰近點權(quán)重,共4×2562=262144。19.若某卷積層dilation=2,kernel=3×3,則等效感受野大小為________。答案:5×5解析:dilatedkernel尺寸=1+(k?1)×d=1+2×2=5。20.在CenterNet中,若heatmap峰值閾值為0.3,某位置預(yù)測置信度0.25,則該點________(會/不會)被保留。答案:不會解析:低于閾值被抑制。21.使用RANSAC估計單應(yīng)矩陣時,若內(nèi)點閾值設(shè)為3pixel,置信概率0.99,數(shù)據(jù)點200,內(nèi)點比例60%,則至少需要迭代________次。答案:5解析:k=log(1?p)/log(1?w^n)=log(0.01)/log(1?0.6^4)≈4.7→向上取整5。22.在VisionTransformer中,若patchsize=16,輸入224×224,則序列長度為________。答案:(224/16)2=142=196解析:224÷16=14,14×14=196。23.若某模型參數(shù)量為25M,使用FP16存儲,則權(quán)重文件大小約為________MB。答案:50解析:25×2=50MB。24.使用Canny邊緣檢測,高閾值是低閾值的________倍時,邊緣連接效果最佳。答案:2~3解析:經(jīng)驗值2~3倍。25.在DeepSort中,用于外觀特征的神經(jīng)網(wǎng)絡(luò)輸出維度通常為________。答案:128解析:官方模型輸出128維。四、判斷題(每題1分,共10分,正確打“√”,錯誤打“×”)26.在YOLO系列中,anchorfree版本完全不需要先驗框。答案:√解析:YOLOX、YOLOv8anchorfree直接預(yù)測中心偏移。27.使用ReLU激活函數(shù)一定不會出現(xiàn)梯度消失。答案:×解析:負半軸梯度為0,仍可能“dyingReLU”。28.在圖像超分中,L1損失比L2損失更易產(chǎn)生模糊紋理。答案:×解析:L2懲罰大誤差更重,更易模糊;L1保留邊緣。29.雙目視覺深度誤差與基線長度成反比。答案:√解析:ΔZ∝Z2/b,基線b越大誤差越小。30.在BatchNorm中,ε的作用是防止除零。答案:√解析:ε=1e5穩(wěn)定數(shù)值。31.使用MixUp增強時,標簽也需要線性插值。答案:√解析:MixUp對圖像與標簽均插值。32.在實例分割中,MaskIoU與BoxIoU無相關(guān)性。答案:×解析:BoxIoU高時MaskIoU通常也高。33.VisionTransformer的注意力復(fù)雜度與序列長度成線性關(guān)系。答案:×解析:O(n2d)。34.使用FP16推理時,必須開啟LossScaling才能訓(xùn)練。答案:×解析:推理無需反向傳播,可不開LossScaling。35.在圖像檢索中,使用RMAC特征比GEM特征更關(guān)注局部細節(jié)。答案:√解析:RMAC多區(qū)域池化,GEM全局平均。五、簡答題(每題8分,共24分)36.描述MaskRCNN中RoIAlign與RoIPool的差異,并說明RoIAlign如何消除量化誤差。答案:RoIPool分兩步:1)將浮點RoI量化到網(wǎng)格,2)量化后分bin再maxpool。兩次量化導(dǎo)致特征與原始RoI不對齊。RoIAlign取消量化,使用雙線性插值在浮點坐標采樣,每個bin內(nèi)均勻取4個采樣點,計算其插值結(jié)果再平均/最大,從而保持空間精度,提升mask質(zhì)量。解析:量化誤差≈±0.5pixel,對小目標mask影響顯著,RoIAlign使AP提升約3點。37.解釋SelfAttention中“QK^T”計算的物理意義,并推導(dǎo)其復(fù)雜度。答案:QK^T計算查詢與鍵的相似度,得到注意力權(quán)重。設(shè)序列長n,維度d,則Q、K∈R^{n×d},矩陣乘QK^T共n×n×d次乘法,復(fù)雜度O(n2d)。物理意義:每對位置間點積相似度,決定信息傳遞強度。解析:除以√d后softmax,使梯度穩(wěn)定,避免softmax飽和。38.列舉三種提升小目標檢測精度的策略,并給出原理說明。答案:1)多尺度訓(xùn)練/測試:輸入分辨率放大,小目標特征放大,提高信噪比;2)復(fù)制粘貼增強(CopyPaste):將小目標隨機復(fù)制到多張圖像,增加正樣本數(shù),緩解不平衡;3)特征金字塔增強:引入更高分辨率特征圖(P2或P6),并設(shè)計更小的anchor(2×2pixel),使網(wǎng)絡(luò)可檢測<16×16目標。解析:小目標AP通常為大目標1/3,三策略在COCO上可提升小目標AP2~4點。六、計算與推導(dǎo)題(共21分)39.(10分)給定單應(yīng)矩陣H∈R^{3×3},圖像I1某點齊次坐標x1=[100,200,1]^T,經(jīng)H映射到I2得x2。已知H=[[1.2,0.1,50],[0.15,1.1,60],[0.0003,0.0002,1]]求x2的像素坐標(結(jié)果取整)。答案:x′=Hx1=[1.2×100+0.1×200+50,0.15×100+1.1×200+60,0.0003×100+0.0002×200+1]=[120+20+50,15+220+60,0.03+0.04+1]=[190,295,1.07]歸一化:x2=[190/1.07,295/1.07]=[177.57,275.70]→像素坐標(178,276)解析:齊次坐標需除以第三維,四舍五入得整數(shù)像素。40.(11分)某分割網(wǎng)絡(luò)最后一層輸出logits∈R^{C×H×W},C=21(含背景),采用在線困難樣本挖掘(OHEM),batchsize=4,每張圖選前30%hardestpixel。若H=W=64,求單迭代參與反向傳播的像素總量,并寫出hardness度量公式。答案:單圖像素=64×64=4096,30%→0.3×4096=1228.8→1229pixelbatch總量=4×1229=4916pixelHardness度量:使用交叉熵損失?logp_{y},值越大越難。解析:OHEM只對hardest像素回傳梯度,減少簡單背景主導(dǎo),提升邊緣精度。七、編程與實驗設(shè)計題(共30分)41.(15分)閱讀下列PyTorch片段,指出三處潛在錯誤并修正,使其能正確訓(xùn)練一個FPNRetinaNet(COCO80類)。```pythonmodel=torchvision.models.detection.retinanet_resnet50_fpn(pretrained=True)model.head.classification_head.num_classes=80optimizer=torch.optim.SGD(model.parameters(),lr=0.02,momentum=0.9)forimages,targetsinloader:loss_dict=model(images,targets)loss=sum(lossforlossinloss_dict.values())optimizer.zero_grad()loss.backward()optimizer.step()```答案與解析:錯誤1:修改num_classes后未替換head內(nèi)的分類層,導(dǎo)致輸出維度仍保持原91;應(yīng)重新創(chuàng)建AnchorGenerator與ClassificationHead。錯誤2:未將模型置于訓(xùn)練模式,缺model.train();雖默認訓(xùn)練,但顯式調(diào)用更規(guī)范。錯誤3:COCO預(yù)訓(xùn)練權(quán)重為91類,直接修改num_classes會破壞權(quán)重形狀,應(yīng)strict=False加載或丟棄head權(quán)重。修正:```pythonfromtorchvision.models.detectionimportretinanet_resnet50_fpn,RetinaNetHeadmodel=retinanet_resnet50_fpn(pretrained=True,pretrained_backbone=True)in_channels=model.backbone.out_channelsnum_anchors=model.head.classification_head.num_anchorsmodel.head=RetinaNetHead(in_channels,num_anchors,num_classes=80)optimizer=torch.optim.SGD
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 妊娠合并哮喘的孕期環(huán)境控制策略
- 妊娠合并FAOD的長期隨訪管理策略
- 婦科腫瘤術(shù)后血栓防治策略與共識
- 大數(shù)據(jù)驅(qū)動的老年照護需求預(yù)測與倫理審查
- 大數(shù)據(jù)助力醫(yī)院人力資源效率提升策略
- 多藥耐藥胰腺癌的吉西他濱增敏策略
- 酒店安全知識考試及答案
- 2025年大學(xué)婦幼保健學(xué)基礎(chǔ)(婦幼保健認知)試題及答案
- 2025年中職學(xué)前教育(幼兒營養(yǎng)指導(dǎo))試題及答案
- 2025年中職農(nóng)機使用與維護(拖拉機故障排查)試題及答案
- 房產(chǎn)抖音培訓(xùn)課件
- (正式版)DB15∕T 3463-2024 《雙爐連續(xù)煉銅工藝技術(shù)規(guī)范》
- 手術(shù)部(室)醫(yī)院感染控制標準WST855-2025解讀課件
- 律師團隊合作規(guī)范及管理辦法
- 二氧化硅氣凝膠的制備技術(shù)
- 臨床微生物標本采集運送及處理
- 軟件系統(tǒng)運維操作手冊
- 常規(guī)體檢指標講解
- 新人教版高中數(shù)學(xué)必修第二冊-第八章 立體幾何初步 章末復(fù)習(xí)【課件】
- GB/T 157-2025產(chǎn)品幾何技術(shù)規(guī)范(GPS)圓錐的錐度與錐角系列
- TD/T 1041-2013土地整治工程質(zhì)量檢驗與評定規(guī)程
評論
0/150
提交評論