2025中學生人工智能知識應(yīng)用競賽試卷及參考答案_第1頁
2025中學生人工智能知識應(yīng)用競賽試卷及參考答案_第2頁
2025中學生人工智能知識應(yīng)用競賽試卷及參考答案_第3頁
2025中學生人工智能知識應(yīng)用競賽試卷及參考答案_第4頁
2025中學生人工智能知識應(yīng)用競賽試卷及參考答案_第5頁
已閱讀5頁,還剩13頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

2025中學生人工智能知識應(yīng)用競賽試卷及參考答案一、單項選擇(每題2分,共20分)1.在卷積神經(jīng)網(wǎng)絡(luò)中,若輸入圖像尺寸為224×224×3,使用32個5×5的卷積核,步長為1,零填充為2,則輸出特征圖的寬為A.220?B.222?C.224?D.226答案:C解析:輸出寬=(輸入寬+2×填充?核寬)/步長+1=(224+4?5)/1+1=224。2.下列Python代碼片段中,哪一行會導致模型在GPU上訓練時顯存持續(xù)增長?A.`loss.backward()`B.`optimizer.zero_grad()`C.`withtorch.no_grad():y=model(x)`D.`loss=loss+0.x.sum()`答案:D解析:D項在計算圖中引入恒等附加節(jié)點,導致反向傳播時緩存不釋放,顯存泄漏。3.在StableDiffusion中,文本引導生成圖像的關(guān)鍵組件是A.VAE解碼器?B.UNet噪聲預(yù)測網(wǎng)絡(luò)?C.CLIP文本編碼器?D.DDIM調(diào)度器答案:C解析:CLIP將提示詞映射到共享語義空間,為UNet提供條件向量。4.聯(lián)邦學習場景下,客戶端上傳的梯度被惡意替換為全零向量,這種攻擊稱為A.模型投毒?B.梯度泄露?C.拜占庭攻擊?D.成員推理答案:C解析:拜占庭攻擊指任意錯誤/惡意參數(shù)破壞聚合,全零梯度即典型實例。5.在Transformer自注意力中,Q與K^T相乘后除以√d_k的主要目的是A.加速計算?B.防止梯度消失?C.抑制softmax飽和?D.增強稀疏性答案:C解析:防止點積過大使softmax進入飽和區(qū),梯度趨零。6.使用LoRA微調(diào)LLM時,若原矩陣W∈R^(1024×4096),秩r=16,則新增參數(shù)量為A.65536?B.131072?C.262144?D.524288答案:B解析:LoRA新增A∈R^(1024×16)、B∈R^(16×4096),共1024×16+16×4096=131072。7.在NVIDIAJetsonOrinNano上部署YOLOv8時,若INT8量化后mAP下降0.8%,最可能原因是A.校準數(shù)據(jù)集不足?B.BatchNorm折疊失敗?C.未使用TensorRT?D.未開啟DLP答案:A解析:校準集過小導致激活值范圍估計偏差,INT8縮放因子失準。8.下列哪種數(shù)據(jù)增強策略對提升MNIST手寫數(shù)字魯棒性最無效?A.隨機旋轉(zhuǎn)±30°?B.CutMix?C.高斯噪聲σ=0.1?D.隨機擦除答案:B解析:CutMix將圖像塊拼接,對背景簡單的MNIST引入無關(guān)干擾,收益最低。9.在深度強化學習中,使用DoubleDQN主要是為了緩解A.環(huán)境非平穩(wěn)?B.過估計偏差?C.樣本相關(guān)性?D.稀疏獎勵答案:B解析:DoubleDQN解耦動作選擇與評估,減少Q(mào)值過估計。10.若將BERTbase的激活函數(shù)從GELU替換為ReLU,模型參數(shù)量A.增加?B.減少?C.不變?D.先減后增答案:C解析:激活函數(shù)無參數(shù),僅計算方式改變。二、不定項選擇(每題3分,共15分,多選少選均不得分)11.關(guān)于DiffusionModel的DDPM,下列說法正確的是A.前向過程為馬爾可夫鏈?B.反向過程參數(shù)共享?C.損失函數(shù)含L2重建項?D.需要訓練判別器答案:A、B、C解析:DDPM無需判別器,損失為預(yù)測噪聲的L2。12.在邊緣計算場景部署TinyML模型時,必須考慮A.Flash占用?B.RAM峰值?C.中斷延遲?D.浮點單元功耗答案:A、B、C、D解析:四項均直接影響MCU級設(shè)備穩(wěn)定性。13.下列哪些操作可有效降低大模型推理時PPL(困惑度)A.動態(tài)NTKRoPE縮放?B.使用溫度采樣t=1.5?C.引入重復懲罰1.2?D.KVCache壓縮答案:A、C、D解析:溫度>1增加隨機性,反而升高PPL。14.關(guān)于VisionTransformer的PositionEmbedding,正確的有A.一維可學習向量?B.二維相對編碼?C.去掉后模型仍可變輸入分辨率?D.使用正弦余弦版本可外推答案:A、B、D解析:C錯誤,去掉后無法處理不同分辨率。15.在聯(lián)邦學習中,SecureAggregation方案基于A.Shamir秘密共享?B.同態(tài)加密?C.差分隱私?D.雙掩碼協(xié)議答案:A、B、D解析:差分隱私用于輸出擾動,非聚合階段。三、填空題(每空2分,共20分)16.在PyTorch中,若模型已`.cuda()`,需將輸入張量也調(diào)用__________方法才能在同設(shè)備計算。答案:`.cuda()`或`.to('cuda')`解析:設(shè)備不一致會拋RuntimeError。17.ResNet的殘差塊使用__________卷積完成降采樣,以避免信息丟失。答案:1×1(或“逐點”)解析:1×1卷積調(diào)整通道并控制步長。18.Transformer中,自注意力的時間復雜度為__________。答案:O(n2d)解析:n為序列長度,d為特征維度。19.INT8量化的縮放因子s計算公式為__________。答案:s=(q_max?q_min)/(r_max?r_min)解析:r為浮點范圍,q為量化范圍。20.在DDIM采樣中,若設(shè)置η=0,則退化為__________過程。答案:確定性(或“非隨機”)解析:η控制隨機噪聲注入量。21.LoRA的低秩矩陣分解表示為W'=W+__________。答案:BA解析:B∈R^(d×r),A∈R^(r×k)。22.使用混合精度訓練時,LossScaling的初始值通常設(shè)為__________。答案:2^16解析:防止梯度下溢。23.在目標檢測中,若IoU閾值從0.5提升到0.75,mAP一般會__________(上升/下降)。答案:下降解析:更高閾值減少正樣本。24.CLIP的對比學習損失函數(shù)稱為__________損失。答案:InfoNCE解析:多分類交叉熵的變體。25.在GPT的自回歸生成中,__________采樣策略既能保持多樣性又能避免重復。答案:Topp(核采樣)解析:動態(tài)截斷累積概率。四、判斷改錯(每題2分,共10分,先判對錯,若錯則劃線改正)26.MobileNetV3large的激活函數(shù)僅為ReLU6。答案:錯。改為:ReLU6、Hswish、HardSigmoid混合。27.使用梯度裁剪clip_norm=1.0會改變優(yōu)化器學習率。答案:錯。裁剪僅縮放梯度向量,不改變學習率。28.Transformer的DecoderMask為下三角矩陣,防止看到未來信息。答案:對。29.KnowledgeDistillation中,教師模型輸出logits溫度τ越高,軟標簽越尖銳。答案:錯。τ越高分布越平滑。30.在聯(lián)邦學習中,F(xiàn)edAvg的本地epoch越多,全局模型收斂越慢。答案:對。五、簡答題(每題6分,共18分)31.描述FlashAttention如何通過分塊降低顯存占用,并給出時間復雜度。答案:FlashAttention將注意力矩陣按塊計算,避免實例化完整的n×n矩陣;通過在線softmax更新,每塊O(d)緩存。時間復雜度仍為O(n2d),但顯存從O(n2)降至O(n+d)。32.解釋QLoRA中的4bitNormalFloat量化格式,并說明為何比INT4更適合LLM。答案:NormalFloat對權(quán)重按零點對稱、離群值稀疏分布建模,先歸一化再量化,減少量化誤差;對LLM權(quán)重近似高斯分布更有效,比均勻INT4平均降低0.3–0.9的PPL。33.給出在JetsonNano上部署YOLOv5s的完整TensorRT優(yōu)化流程(含命令)。答案:1)導出ONNX:`pythonexport.pyweightsyolov5s.ptincludeonnxdynamic`2)構(gòu)建引擎:`trtexeconnx=yolov5s.onnxsaveEngine=yolov5s.trtfp16workspace=1024`3)推理:`pythontrt_inference.pyengineyolov5s.trtinputdata/images`解析:trtexec自動完成圖優(yōu)化、層融合、內(nèi)核自動調(diào)優(yōu)。六、綜合應(yīng)用題(共17分)34.某中學科創(chuàng)小組需在樹莓派4B(4GBRAM)上實現(xiàn)實時手勢識別,幀率≥15FPS,識別5種手勢。給定訓練集2萬張192×192RGB圖像。要求:(1)設(shè)計輕量級網(wǎng)絡(luò)結(jié)構(gòu),畫出模塊圖并注明參數(shù)量(4分);(2)給出訓練階段的數(shù)據(jù)增強與優(yōu)化策略(3分);(3)給出INT8量化與異構(gòu)部署細節(jié),含樹莓派CPU+NNAPI調(diào)用代碼片段(6分);(4)若實際測試發(fā)現(xiàn)“剪刀”類召回率僅72%,提出兩項改進并說明理由(4分)。答案:(1)網(wǎng)絡(luò):GhostNetV2瓶頸疊加SE,首層3×3Convstride=2,隨后3個stage(通道244896),每層Ghost模塊+DFC注意力,全局平均池化+5維FC。參數(shù)量≈0.55M。圖:Input→Conv→Stage1(Ghostbottleneck×2)→Stage2(Ghost×3)→Stage3(Ghost×4)→GAP→FC→Softmax。(2)增強:隨機裁剪±10%、顏色抖動brightness=0.2、Cutout16×16、MixUpα=0.2;優(yōu)化:AdamWlr=3e4cosine退火、EMA權(quán)重平均、LabelSmoothingε=0.1。(3)量化:```pythonimporttflite_erpreterastfliteinterpreter=tflite.Interpreter(model_path='gesture_int8.tflite',experimental_delegates=[tflite.load_delegate('libedgetpu.so.1')])interpreter.allocate_tensors()input_details=interpreter.get_input_details()output_details=interpreter.get_output_details()預(yù)處理img=cv2.resize(frame,(192,192)).astype(np.uint8)interpreter.set_tensor(input_details[0]['index'],img[np.newaxis,...])interpreter.invoke()pred=interpreter.get_tensor(output_details[0]['index'])```生成int8模型:`tflite_convertsaved_model_dir=exportoutput_file=gesture_int8.tflitepost_training_quantizerepresentative_dataset=rep_data.npz`rep_data為100張校準圖。(4)改進:a)增加困難樣本:對“剪刀”做在線硬挖掘,提升召回;b)引入細粒度數(shù)據(jù)增強:手指關(guān)節(jié)關(guān)鍵點遮擋模擬,提高魯棒性。七、編程與計算題(共35分)35.(10分)給定一維向量x=[2,5,3,7,1],用Numpy實現(xiàn)不帶循環(huán)的Softmax及交叉熵損失,當標簽y=3(即第4類)時,求loss值(保留3位小數(shù))。答案:```pythonimportnumpyasnpx=np.array([2,5,3,7,1])logits=xx.max()防溢出prob=np.exp(logits)/np.exp(logits).sum()loss=np.log(prob[3])print(round(loss,3))輸出0.367```36.(12分)在PyTorch中實現(xiàn)一個帶因果掩碼的1D自注意力模塊,輸入形狀(B,L,d),輸出同形,要求僅使用矩陣乘法與三角掩碼,禁止調(diào)用nn.MultiheadAttention。答案:```pythonimporttorchimporttorch.nnasnnimporttorch.nn.functionalasFclassCausalSelfAttention(nn.Module):def__init__(self,d,n_heads=8):super().__init__()assertd%n_heads==0self.d,self.nh=d,n_headsself.dh=d//n_headsself.qkv=nn.Linear(d,3d)j=nn.Linear(d,d)defforward(self,x):B,L,_=x.shapeqkv=self.qkv(x).view(B,L,3,self.nh,self.dh).transpose(1,3)q,k,v=qkv.unbind(2)scores=(q@k.transpose(2,1))/(self.dh0.5)mask=torch.triu(torch.ones(L,L,device=x.device),diagonal=1).bool()scores.masked_fill_(mask,float('inf'))attn=F.softmax(scores,dim=1)out=(attn@v)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論