版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
《2025年計算機等級考試二級人工智能計算機視覺系統(tǒng)試卷及答案》一、單項選擇題(每題2分,共20分)1.在OpenCV中,若要將BGR圖像轉(zhuǎn)換為灰度圖,應(yīng)使用的函數(shù)是A.cv2.cvtColor(img,cv2.COLOR_RGB2GRAY)B.cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)C.cv2.imread(img,0)D.cv2.split(img)[0]答案:B解析:OpenCV默認(rèn)讀取為BGR通道順序,正確轉(zhuǎn)換碼為COLOR_BGR2GRAY;imread的第二個參數(shù)為0時直接以灰度讀取,但題目問的是“轉(zhuǎn)換”而非“讀取”。2.使用YOLOv5進行目標(biāo)檢測時,若輸入圖像尺寸為640×640,網(wǎng)絡(luò)下采樣倍數(shù)為32,則最終特征圖尺寸為A.40×40B.20×20C.10×10D.5×5答案:B解析:640÷32=20,YOLOv5在P5結(jié)構(gòu)下輸出20×20、40×40、80×80三層,但題目問的是“最終”即最小層,故20×20。3.在卷積神經(jīng)網(wǎng)絡(luò)中,若采用“same”填充且步長為2,則輸出特征圖尺寸計算公式為A.?N/2?B.?N/2?+1C.?(N?K+2P)/2?+1D.?(N+2P?K)/2?+1答案:A解析:same填充保證輸入輸出尺寸在步長1時相等;步長2直接下采樣,向上取整即可。4.在ResNet殘差塊中,若主分支使用1×1→3×3→1×1卷積,則shortcut分支必須A.恒等映射B.使用1×1卷積升維C.使用2×2平均池化D.使用3×3卷積降維答案:B解析:當(dāng)殘差塊輸出通道數(shù)大于輸入時,shortcut需通過1×1卷積調(diào)整維度與通道數(shù),才能相加。5.使用Harris角點檢測時,若矩陣M的特征值λ1≈0、λ2≈0,則該點最可能是A.邊緣B.角點C.平坦區(qū)域D.噪聲答案:C解析:兩特征值均接近0表示梯度變化極小,對應(yīng)平坦區(qū)域;邊緣為一大小小,角點為兩大。6.在TensorRT加速推理時,若某層權(quán)重為INT8量化,其縮放因子scale=0.25,則該層權(quán)重真實值與量化值關(guān)系為A.real=int×0.25B.real=int÷0.25C.real=int+0.25D.real=int?0.25答案:B解析:量化公式quant=round(real/scale),故反量化real=quant×scale,即int×0.25。7.使用MobileNetV3時,引入的hswish激活函數(shù)表達(dá)式為A.x·σ(x)B.x·ReLU6(x+3)/6C.x·min(max(x+3,0),6)/6D.x·hardtanh(x)答案:B解析:hswish=x·ReLU6(x+3)/6,其中ReLU6(y)=min(max(y,0),6)。8.在雙目立體視覺中,若基線B=120mm,焦距f=6mm,視差d=30pixel,像素尺寸為4μm,則深度Z為A.6mB.8mC.10mD.12m答案:A解析:Z=B·f/d_pixel=0.12×0.006/(30×4×10??)=6m。9.在MaskRCNN中,用于生成二值掩膜的分支損失函數(shù)為A.Softmax交叉熵B.Sigmoid交叉熵C.L2損失D.SmoothL1答案:B解析:掩膜分支對每個像素進行二分類,使用Sigmoid+平均二值交叉熵。10.使用Kmeans對Anchor進行聚類時,若采用IoU作為距離度量,則距離定義為A.1?IoUB.IoUC.?ln(IoU)D.1/IoU答案:A解析:距離=1?IoU,IoU越大距離越小,符合聚類目標(biāo)。二、多項選擇題(每題3分,共15分)11.以下哪些操作可以有效緩解目標(biāo)檢測中正負(fù)樣本極不平衡A.FocalLossB.OHEMC.DataAugmentationD.AnchorFree答案:A、B解析:FocalLoss通過調(diào)制因子降低易分樣本權(quán)重;OHEM在線挖掘困難樣本;DataAugmentation增加多樣性但不直接平衡;AnchorFree為結(jié)構(gòu)變化,非直接平衡策略。12.關(guān)于BatchNormalization,下列說法正確的是A.訓(xùn)練時均值方差來自當(dāng)前batchB.推理時均值方差來自滑動平均C.可充當(dāng)正則化器D.與Dropout同時使用會必然導(dǎo)致性能下降答案:A、B、C解析:A、B為BN標(biāo)準(zhǔn)流程;C因引入噪聲有輕微正則化;D無必然性,合理調(diào)參可共存。13.在Transformer視覺模型中,PositionEncoding作用包括A.保持序列順序信息B.替代卷積歸納偏置C.降低計算復(fù)雜度D.增強全局感受野答案:A、B解析:PE提供位置信息;Transformer無局部歸納偏置需PE彌補;C、D與PE無直接因果。14.使用OpenCV進行相機標(biāo)定時,需提供的輸入包括A.標(biāo)定板角點世界坐標(biāo)B.標(biāo)定板角點圖像坐標(biāo)C.圖像分辨率D.鏡頭畸變模型類型答案:A、B解析:cv2.calibrateCamera需objectPoints與imagePoints;分辨率與畸變模型由函數(shù)內(nèi)部處理,非顯式輸入。15.以下哪些指標(biāo)可直接用于語義分割評價A.PixelAccuracyB.mIoUC.Dice系數(shù)D.AP@0.5答案:A、B、C解析:AP@0.5為實例級檢測指標(biāo),不直接用于語義分割。三、判斷題(每題1分,共10分)16.SIFT特征描述子對光照變化具有完全仿射不變性。答案:錯解析:SIFT僅近似仿射不變,極端仿射下性能下降。17.在YOLOv8中,C2f模塊通過拆分特征圖并引入殘差連接以降低參數(shù)量。答案:對解析:C2f將輸入拆分為兩部分,一部分直連,一部分經(jīng)過Bottleneck,再concat,實現(xiàn)輕量化。18.使用ReLU激活的CNN一定比使用Sigmoid的CNN訓(xùn)練速度快。答案:錯解析:速度取決于硬件、框架優(yōu)化及網(wǎng)絡(luò)結(jié)構(gòu),不能絕對化。19.在圖像風(fēng)格遷移中,Gram矩陣用于捕捉特征圖通道間二階統(tǒng)計信息。答案:對解析:Gram矩陣計算通道間內(nèi)積,反映紋理統(tǒng)計。20.對同一模型,TensorRT的INT8量化后mAP必然下降超過5%。答案:錯解析:通過校準(zhǔn)與QAT,部分模型下降可控制在1%以內(nèi)。21.使用數(shù)據(jù)增強時,MixUp操作會對兩張圖像做像素級線性插值并相應(yīng)調(diào)整標(biāo)簽。答案:對解析:MixUp公式為x?=λx?+(1?λ)x?,標(biāo)簽同理。22.在OpenCV中,cv2.findContours返回的輪廓點坐標(biāo)為浮點亞像素精度。答案:錯解析:返回整數(shù)像素坐標(biāo),亞像素需cornerSubPix。23.VisionTransformer的Encoder層數(shù)越多,則模型容量一定越大。答案:對解析:層數(shù)增加參數(shù)量與容量均增大。24.使用單目相機無法恢復(fù)絕對尺度信息。答案:對解析:單目缺乏基線,需外部先驗或IMU。25.在實例分割任務(wù)中,MaskRCNN的RoIAlign比RoIPooling減少了量化誤差。答案:對解析:RoIAlign采用雙線性插值避免兩次量化。四、填空題(每空2分,共20分)26.在卷積層中,若輸入通道為3,輸出通道為64,卷積核尺寸為7×7,則該層參數(shù)量為________(不含偏置)。答案:3×7×7×64=9408解析:參數(shù)量=C_in×K×K×C_out。27.使用Adam優(yōu)化器時,默認(rèn)推薦的學(xué)習(xí)率為________。答案:0.001解析:PyTorch/TensorFlow官方默認(rèn)值。28.在圖像超分任務(wù)中,評價指標(biāo)PSNR計算公式為________(用MAX表示最大像素值,MSE表示均方誤差)。答案:10·log??(MAX2/MSE)解析:標(biāo)準(zhǔn)定義。29.若使用FocalLoss,當(dāng)γ=2、pt=0.8時,調(diào)制因子為________。答案:(1?0.8)2=0.04解析:調(diào)制因子=(1?pt)^γ。30.在OpenCV中,調(diào)用________函數(shù)可實現(xiàn)圖像的仿射變換。答案:cv2.warpAffine解析:仿射變換接口。31.當(dāng)使用BatchSize=32、初始學(xué)習(xí)率=0.1的SGD訓(xùn)練時,若將BatchSize擴大到128,為保持更新強度一致,學(xué)習(xí)率應(yīng)調(diào)整為________。答案:0.4解析:線性縮放原則,0.1×(128/32)=0.4。32.在Transformer中,MultiHeadAttention若隱藏維度為512,頭數(shù)為8,則每個頭的維度為________。答案:64解析:512÷8=64。33.使用Canny邊緣檢測時,雙閾值設(shè)為100與200,若某像素梯度幅值為150,則該像素________被標(biāo)記為強邊緣。答案:不會解析:僅大于高閾值200才為強邊緣,150介于雙閾值之間,僅當(dāng)連通強邊緣時才被保留。34.在PyTorch中,若模型已加載到GPU,需將輸入圖像tensor轉(zhuǎn)移到GPU的函數(shù)為________。答案:.to('cuda')或.cuda()解析:標(biāo)準(zhǔn)API。35.當(dāng)使用DiceLoss時,其表達(dá)式可寫為________(用p、t分別表示預(yù)測與真值,ε為平滑項)。答案:1?(2∑pt+ε)/(∑p+∑t+ε)解析:常見形式。五、簡答題(每題8分,共24分)36.描述非極大值抑制(NMS)在目標(biāo)檢測中的執(zhí)行流程,并說明SoftNMS的改進點。答案:流程:1)按置信度降序排列所有框;2)選最高置信度框,加入結(jié)果集;3)計算其與剩余框IoU,若IoU>閾值則刪除;4)重復(fù)2)3)直至無框。SoftNMS改進:不直接刪除高IoU框,而是降低其置信度,公式為s_i=s_i·e^(?IoU2/σ),保留更多真實陽性,提高召回,尤其適用于密集場景。解析:傳統(tǒng)NMS硬刪除導(dǎo)致重疊目標(biāo)漏檢,SoftNMS通過高斯加權(quán)實現(xiàn)軟抑制,無需額外訓(xùn)練,在COCO上可提升12mAP。37.解釋VisionTransformer中ClassToken的作用,并說明為何在視覺任務(wù)中仍需位置編碼。答案:ClassToken:借鑒NLP的[CLS]符號,為全局特征提供統(tǒng)一聚合點,經(jīng)Encoder后其輸出作為整圖表示,用于分類。位置編碼:Transformer本身置換不變,圖像塊序列化后失去空間鄰域關(guān)系,需加入可學(xué)習(xí)或可正弦的位置向量,使模型感知塊間相對位置,保持局部與全局空間結(jié)構(gòu)。解析:無ClassToken時,需對patch特征做平均或最大池化,性能略低;無位置編碼則模型無法區(qū)分“左上”與“右下”塊,導(dǎo)致分類失敗。38.列舉三種常見的數(shù)據(jù)增強方法,并分別說明其對計算機視覺模型的具體益處。答案:1)RandomCrop:隨機裁剪,迫使模型關(guān)注目標(biāo)局部特征,提高魯棒性,減少過擬合;2)ColorJitter:隨機調(diào)整亮度、對比度、飽和度,增強光照不變性,適應(yīng)真實場景光照變化;3)CutMix:將一張圖部分區(qū)域替換為另一圖,標(biāo)簽按像素比例混合,提高定位精度,增加局部多樣性,提升分類與檢測性能。解析:三種方法分別從空間、顏色、標(biāo)簽正則化角度擴充數(shù)據(jù)分布,實驗表明聯(lián)合使用可在ImageNet上提升1.52%top1精度。六、計算與推導(dǎo)題(共31分)39.(10分)給定3×3輸入特征圖[[1,2,3],[4,5,6],[7,8,9]]采用2×2最大池化,步長為2,計算輸出特征圖,并寫出反向傳播時梯度分布(假設(shè)輸出梯度全為1)。答案:前向:區(qū)域1:max(1,2,4,5)=5區(qū)域2:max(3,6)=6區(qū)域3:max(7,8)=8區(qū)域4:max(9)=9輸出:[[5,6],[8,9]]反向:僅最大值位置接收梯度,其余為0,故輸入梯度:[[0,0,0],[0,1,1],[0,1,1]]解析:MaxPool梯度路由原則,只傳最大路徑。40.(10分)假設(shè)使用交叉熵?fù)p失進行語義分割,單張圖像共4×4=16像素,真值類別為[0,1,2,3]分別對應(yīng)4×4區(qū)域。模型輸出經(jīng)Softmax后,對類別1的預(yù)測概率矩陣為[[0.2,0.7,0.3,0.4],[0.6,0.9,0.8,0.1],[0.3,0.2,0.5,0.6],[0.4,0.3,0.2,0.1]]真值掩膜中類別1區(qū)域為第2行全部像素。計算該圖像對類別1的交叉熵?fù)p失(取ln)。答案:類別1真值像素:4個,位置(1,0),(1,1),(1,2),(1,3)對應(yīng)預(yù)測概率:0.6,0.9,0.8,0.1交叉熵L=?1/4·Σln(p)=?1/4·(ln0.6+ln0.9+ln0.8+ln0.1)=?1/4·(?0.5108?0.1054?0.2231?2.3026)=1/4·3.1419≈0.785解析:僅對真值類別計算,平均后取負(fù)對數(shù)。41.(11分)在雙目視覺中,已知左相機內(nèi)參矩陣K_L=[[1000,0,320],[0,1000,240],[0,0,1]],右相機相對左相機旋轉(zhuǎn)矩陣R=I,平移向量t=[0.12,0,0]^T(單位:米)??臻g點P在左相機成像坐標(biāo)為(400,300),在右相機為(370,300)。求點P深度Z及三維坐標(biāo)。答案:視差d=u_L?u_R=400?370=30pixel焦距f=1000pixel,基線B=0.12m深度Z=B·f/d=0.12×1000/30=4m三維坐標(biāo):X=(u_L?c_x)·Z/f=(400?320)·4/1000=0.32mY=(v_L?c_y)·Z/f=(300?240)·4/1000=0.24mZ=4m故P=[0.32,0.24,4]m解析:利用三角測量公式,注意單位統(tǒng)一。七、編程實操題(共30分)42.基于PyTorch實現(xiàn)一個輕量級邊緣檢測網(wǎng)絡(luò)(需包含代碼、訓(xùn)練腳本、測試指標(biāo)),要求:1)網(wǎng)絡(luò)采用3層深度可分離卷積+1層1×1輸出,通道數(shù)依次為8,16,32;2)使用BSDS500數(shù)據(jù)集,輸入尺寸320×320;3)損失函數(shù)為BCEWithLogitsLoss;4)訓(xùn)練5個epoch,batch=8,初始lr=1e3,Cosine退火;5)輸出測試集ODSFscore并打印。答案:```pythonimporttorch,torch.nnasnn,torch.optimasoptimfromtorchvisionimporttransformsfromtorch.utils.dataimportDataLoaderfromdatasetsimportBSDS500假設(shè)已提供importnumpyasnp,cv2classDepthSepConv(nn.Module):def__init__(self,c_in,c_out,k=3,stride=1,pad=1):super().__init__()self.depth=nn.Conv2d(c_in,c_in,k,stride,pad,groups=c_in,bias=False)self.point=nn.Conv2d(c_in,c_out,1,1,0,bias=False)self.bn1=nn.BatchNorm2d(c_in)self.bn2=nn.BatchNorm2d(c_out)self.relu=nn.ReLU(inplace=True)defforward(self,x):x=self.relu(self.bn1(self.depth(x)))returnself.relu(self.bn2(self.point(x)))classEdgeNet(nn.Module):def__init__(self):super().__init__()self.conv1=DepthSepConv(3,8)self.conv2=DepthSepConv(8,16)self.conv3=DepthSepConv(16,32)self.out=nn.Conv2d(32,1,1)defforward(self,x):x=self.conv3(self.conv2(self.conv1(x)))returnself.out(x)deftrain():device='cuda'iftorch.cuda.is_available()else'cpu'net=EdgeNet().to(device)ds=BSDS500(split='train',transform=transforms.Compose([transforms.Resize((320,320)),transforms.ToTensor()]),target_transform=transforms.Compose([transforms.Resize((320,320)),transforms.ToTensor()]))dl=DataLoader(ds,batch_size=8,shuffle=True,num_workers=4)opt=optim.Adam(net.parameters(),lr=1e3)sched=optim.lr_scheduler.CosineAnnealingLR(opt,T_max=5len(dl))loss_fn=nn.BCEWithLogitsLoss()forepochinrange(5):net.train()forim,gtindl:im,gt=im.to(device),gt.to(device)opt.zero_grad()pred=net(im)loss=loss_fn(pred,gt)loss.backward()opt.step();sched.step()print(f'epoch{epoch}loss{loss.item():.4f}')torch.save(net.state_dict(),'edge.pth')deftest():device='cuda'iftorch.cuda.is_available()else
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 遼寧省遼陽市2026屆高二上生物期末調(diào)研試題含解析
- 2026年湖北省通山縣第一中學(xué)醫(yī)務(wù)室校醫(yī)招聘備考題庫及答案詳解1套
- 生物安全實驗室操作與規(guī)范指南
- 解決沖突的有效策略
- 六盤水市青少年活動中心2026年第一批公開招聘外聘教師備考題庫及答案詳解一套
- 服裝零售管理操作手冊(標(biāo)準(zhǔn)版)
- 醫(yī)療保險業(yè)務(wù)操作流程與風(fēng)險管理指南
- 2025年交通運輸安全管理與檢查手冊
- 小學(xué)科學(xué)教學(xué)中觀察能力的培養(yǎng)與實踐研究教學(xué)研究課題報告
- 礦山安全生產(chǎn)管理與應(yīng)急處理指南
- 西醫(yī)基礎(chǔ)知識培訓(xùn)課件
- GB/T 28159-2025電子級磷酸
- 風(fēng)機攀爬安全培訓(xùn)課件
- 陜西西安遠(yuǎn)東二中學(xué)2026屆九年級數(shù)學(xué)第一學(xué)期期末考試模擬試題含解析
- 以人工智能賦能新質(zhì)生產(chǎn)力發(fā)展
- 槐鄉(xiāng)五月課件
- 公建工程交付指南(第四冊)
- 2025年貴州省法院書記員招聘筆試題庫附答案
- 過氧化氫氣體低溫等離子滅菌測試題(附答案)
- 人防平戰(zhàn)轉(zhuǎn)換課件
- 2025年軍事理論知識競賽題庫及答案
評論
0/150
提交評論