2025年人工智能基礎(chǔ)知識(shí)測(cè)試試卷及答案_第1頁(yè)
2025年人工智能基礎(chǔ)知識(shí)測(cè)試試卷及答案_第2頁(yè)
2025年人工智能基礎(chǔ)知識(shí)測(cè)試試卷及答案_第3頁(yè)
2025年人工智能基礎(chǔ)知識(shí)測(cè)試試卷及答案_第4頁(yè)
2025年人工智能基礎(chǔ)知識(shí)測(cè)試試卷及答案_第5頁(yè)
已閱讀5頁(yè),還剩14頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能基礎(chǔ)知識(shí)測(cè)試試卷及答案一、單項(xiàng)選擇題(每題2分,共20分。每題只有一個(gè)正確答案,錯(cuò)選、多選、未選均不得分)1.2024年11月,OpenAI發(fā)布的GPT4Turbo首次在公開(kāi)技術(shù)報(bào)告中明確支持的最大上下文長(zhǎng)度為A.8KtokensB.16KtokensC.128KtokensD.256Ktokens答案:C解析:GPT4Turbo(20231106發(fā)布)官方文檔注明最大上下文128Ktokens,約等于300頁(yè)英文文本,顯著高于標(biāo)準(zhǔn)版GPT4的8K/32K版本。2.在聯(lián)邦學(xué)習(xí)框架中,用于防止中央服務(wù)器直接獲取客戶端原始數(shù)據(jù)的核心機(jī)制是A.同態(tài)加密B.差分隱私C.安全聚合(SecureAggregation)D.模型蒸餾答案:C解析:安全聚合通過(guò)加密協(xié)議確保服務(wù)器只能獲得聚合后的梯度,無(wú)法解密單個(gè)客戶端的更新,從而保護(hù)數(shù)據(jù)隱私。3.下列關(guān)于Transformer中“旋轉(zhuǎn)位置編碼(RoPE)”的描述,正確的是A.通過(guò)絕對(duì)位置向量直接加到詞向量上B.利用復(fù)數(shù)旋轉(zhuǎn)矩陣將位置信息注入注意力分?jǐn)?shù)C.僅適用于編碼器端,不適用于解碼器D.需要額外訓(xùn)練位置嵌入矩陣答案:B解析:RoPE將查詢、鍵向量視為復(fù)數(shù)向量,通過(guò)旋轉(zhuǎn)矩陣注入相對(duì)位置信息,無(wú)需額外參數(shù),且編碼器/解碼器均可使用。4.在StableDiffusionXL1.0中,引入“Refiner”模型的主要目的是A.降低推理延遲B.在潛空間進(jìn)一步去噪提升細(xì)節(jié)C.將文本條件改為圖像條件D.實(shí)現(xiàn)視頻幀插值答案:B解析:Refiner作為第二級(jí)UNet,在潛空間對(duì)初始去噪結(jié)果進(jìn)行二次精細(xì)化,顯著減少偽影、提升紋理。5.下列哪項(xiàng)技術(shù)最直接解決了大語(yǔ)言模型“幻覺(jué)”中的“外部事實(shí)性”錯(cuò)誤A.ChainofThoughtB.ConstitutionalAIC.RetrievalAugmentedGenerationD.PPO強(qiáng)化學(xué)習(xí)微調(diào)答案:C解析:RAG通過(guò)實(shí)時(shí)檢索外部知識(shí)庫(kù),將可驗(yàn)證文檔作為上下文輸入,顯著降低模型憑空編造事實(shí)的概率。6.2023年10月,Google提出的“Patchn’Pack”技術(shù)主要應(yīng)用于A.視覺(jué)Transformer的序列打包,提高長(zhǎng)圖像訓(xùn)練效率B.文本到語(yǔ)音的并行采樣C.多模態(tài)融合中的對(duì)比學(xué)習(xí)D.神經(jīng)網(wǎng)絡(luò)量化答案:A解析:Patchn’Pack將可變分辨率圖像切分后打包成統(tǒng)一序列,減少填充,提高GPU利用率,已集成于SigLIP訓(xùn)練管線。7.在DPO(DirectPreferenceOptimization)中,直接優(yōu)化的損失函數(shù)形式與下列哪種經(jīng)典方法最相似A.最大似然估計(jì)B.交叉熵C.BradleyTerry模型下的負(fù)對(duì)數(shù)似然D.均方誤差答案:C解析:DPO將獎(jiǎng)勵(lì)函數(shù)隱式寫入策略,損失為BT模型下的負(fù)對(duì)數(shù)似然,無(wú)需顯式訓(xùn)練獎(jiǎng)勵(lì)模型即可對(duì)齊人類偏好。8.下列關(guān)于NVIDIAH100GPU中“TransformerEngine”的描述,錯(cuò)誤的是A.支持FP8精度訓(xùn)練B.動(dòng)態(tài)調(diào)整縮放因子防止下溢C.僅支持Attention層D.與PyTorch集成通過(guò)torch.cuda.amp實(shí)現(xiàn)答案:C解析:TransformerEngine覆蓋全網(wǎng)絡(luò)層,不僅Attention,F(xiàn)FN、LayerNorm均可使用FP8,且自動(dòng)管理縮放。9.在擴(kuò)散模型采樣中,DDIM與DDPM最關(guān)鍵的區(qū)別是A.噪聲調(diào)度函數(shù)不同B.DDIM允許確定性采樣C.DDIM需要更大的擴(kuò)散步數(shù)D.DDIM無(wú)法處理連續(xù)時(shí)間答案:B解析:DDIM通過(guò)非馬爾可夫ian過(guò)程,可在相同噪聲調(diào)度下實(shí)現(xiàn)確定性生成,支持加速采樣與逆過(guò)程編碼。10.2024年5月,Meta發(fā)布的“ImageBind”模型首次實(shí)現(xiàn)了A.文本+圖像+音頻+熱成像+IMU六模態(tài)對(duì)齊B.文本+圖像+音頻+深度+慣性五模態(tài)對(duì)齊C.文本+圖像+音頻三模態(tài)對(duì)齊D.文本+圖像+視頻+音頻四模態(tài)對(duì)齊答案:B解析:ImageBind利用圖像作為橋梁,將文本、音頻、深度、熱成像、IMU五種模態(tài)對(duì)齊到共享空間,實(shí)現(xiàn)零樣本跨模態(tài)檢索。二、多項(xiàng)選擇題(每題3分,共15分。每題有兩個(gè)或以上正確答案,多選、少選、錯(cuò)選均不得分)11.下列哪些方法可直接用于“大模型剪枝”后的性能恢復(fù)A.動(dòng)態(tài)稀疏訓(xùn)練B.知識(shí)蒸餾C.低秩適配器(LoRA)微調(diào)D.量化感知訓(xùn)練答案:A、B、C解析:剪枝后稀疏結(jié)構(gòu)可通過(guò)動(dòng)態(tài)稀疏繼續(xù)訓(xùn)練、教師模型蒸餾、LoRA微調(diào)恢復(fù)精度;量化感知訓(xùn)練主要解決低位寬誤差,不直接修復(fù)稀疏損傷。12.關(guān)于“思維樹(shù)(TreeofThoughts)”提示策略,正確的有A.需要人工設(shè)計(jì)評(píng)估函數(shù)B.可采用深度優(yōu)先或廣度優(yōu)先搜索C.適用于數(shù)學(xué)證明、創(chuàng)意寫作等復(fù)雜任務(wù)D.與ChainofThought相比計(jì)算開(kāi)銷更低答案:A、B、C解析:ToT需啟發(fā)式評(píng)估函數(shù)指導(dǎo)搜索;支持多種搜索策略;在需要探索的任務(wù)上效果顯著;但會(huì)多次調(diào)用模型,開(kāi)銷更高。13.在Mamba(StateSpaceModel)架構(gòu)中,實(shí)現(xiàn)線性時(shí)間序列建模的關(guān)鍵組件包括A.選擇性狀態(tài)空間參數(shù)B.硬件感知的并行掃描算法C.LayerNorm重排D.因果卷積答案:A、B解析:Mamba引入輸入依賴的選擇機(jī)制與并行掃描,實(shí)現(xiàn)線性擴(kuò)展;LayerNorm順序調(diào)整屬于訓(xùn)練技巧,因果卷積并非其核心。14.下列屬于“多模態(tài)大模型”中常見(jiàn)的跨模態(tài)對(duì)齊損失A.InfoNCEB.KL散度C.ITC(ImageTextContrastive)D.ITM(ImageTextMatching)答案:A、C、D解析:InfoNCE是對(duì)比學(xué)習(xí)基礎(chǔ);ITC、ITM分別為CLIP類模型中的對(duì)比與匹配損失;KL散度主要用于分布蒸餾或VAE,不直接對(duì)齊跨模態(tài)表示。15.在RLHF流程中,可能引發(fā)“獎(jiǎng)勵(lì)黑客(RewardHacking)”現(xiàn)象的原因有A.獎(jiǎng)勵(lì)模型過(guò)度擬合偏好數(shù)據(jù)B.策略模型利用獎(jiǎng)勵(lì)模型未覆蓋的漏洞C.使用KL正則約束D.策略與獎(jiǎng)勵(lì)模型聯(lián)合訓(xùn)練過(guò)擬合答案:A、B、D解析:KL正則正是抑制黑客手段,而非原因;其余三項(xiàng)均可能導(dǎo)致策略找到欺騙獎(jiǎng)勵(lì)模型的輸出。三、判斷題(每題1分,共10分。正確打“√”,錯(cuò)誤打“×”)16.MoE(MixtureofExperts)中,專家網(wǎng)絡(luò)共享同一套參數(shù)以節(jié)省顯存。答案:×解析:專家參數(shù)獨(dú)立,僅門控網(wǎng)絡(luò)共享,通過(guò)稀疏激活實(shí)現(xiàn)參數(shù)擴(kuò)展。17.在LoRA微調(diào)中,秩r越大,可恢復(fù)的理論上限精度越高。答案:√解析:r→d(模型維度)時(shí),LoRA逼近全參數(shù)微調(diào),但顯存與計(jì)算同步增加。18.擴(kuò)散模型的“信噪比(SNR)”在連續(xù)時(shí)間框架下隨時(shí)間單調(diào)遞增。答案:×解析:SNR隨噪聲增強(qiáng)而單調(diào)遞減,t→T時(shí)SNR→0。19.2024年4月,StableDiffusion3首次引入MMDiT(MultimodalDiffusionTransformer)作為主干網(wǎng)絡(luò)。答案:√解析:SD3技術(shù)報(bào)告確認(rèn)采用MMDiT,分離文本與圖像流,提高文本遵循度。20.在聯(lián)邦學(xué)習(xí)中,客戶端數(shù)量越多,全局模型收斂速度一定越快。答案:×解析:客戶端過(guò)多會(huì)增大通信輪次與異構(gòu)性,反而可能減慢收斂。21.FlashAttention2將注意力計(jì)算復(fù)雜度從O(n2)降至O(nlogn)。答案:×解析:FlashAttention2保持O(n2)理論復(fù)雜度,但通過(guò)分塊與重排大幅減少HBM讀寫,實(shí)現(xiàn)墻鐘時(shí)間加速。22.使用INT8權(quán)重量化時(shí),必須對(duì)激活值同時(shí)進(jìn)行INT8量化才能運(yùn)行。答案:×解析:僅權(quán)重量化(W8A16)即可運(yùn)行,激活保持FP16/BF16,但需動(dòng)態(tài)反量化。23.在VisionTransformer中,去掉clstoken并采用全局平均池化,通常會(huì)導(dǎo)致ImageNet精度下降超過(guò)0.5%。答案:√解析:clstoken提供集中分類信號(hào),去除后平均池化損失部分空間聚焦,主流實(shí)驗(yàn)下降0.6~1.2%。24.“函數(shù)調(diào)用(FunctionCalling)”能力首次出現(xiàn)在OpenAIAPI的gpt3.5turbo0613版本。答案:√解析:0613快照正式引入可插拔函數(shù)描述,后續(xù)被廣泛使用。25.2024年,PyTorch2.2默認(rèn)編譯器后端已切換至Inductor,不再支持TorchScript。答案:×解析:Inductor成為推薦后端,但TorchScript仍維護(hù),供生產(chǎn)推理兼容。四、填空題(每空2分,共20分)26.2023年12月,Google發(fā)布Gemini1.0Ultra,在MMLU基準(zhǔn)上首次達(dá)到人類專家水平的得分________(保留一位小數(shù))。答案:90.0解析:技術(shù)報(bào)告公布Ultra在MMLU5shot得分90.0%,超過(guò)人類專家約89.8%。27.在擴(kuò)散模型中,若采用余弦噪聲調(diào)度,則α?t=________(用cos表示,t∈[0,1])。答案:cos(πt/2)2解析:ImprovedDDPM提出余弦調(diào)度,α?t=cos2(πt/2),使信噪比變化更平滑。28.使用AdamW優(yōu)化器時(shí),權(quán)重衰減系數(shù)λ與L2正則系數(shù)的關(guān)系為_(kāi)_______。答案:λ=wd(獨(dú)立超參,不再等價(jià)于L2)解析:AdamW將權(quán)重衰減從梯度更新中解耦,避免與自適應(yīng)學(xué)習(xí)率耦合。29.在Transformer中,若隱藏維度d=4096,注意力頭數(shù)h=32,則每個(gè)頭的維度dk=________。答案:128解析:dk=d/h=4096/32=128。30.當(dāng)使用FlashAttention時(shí),GPUSRAM分塊大小通常設(shè)置為_(kāi)_______KB以內(nèi)以充分利用A100192KB共享內(nèi)存。答案:128解析:FlashAttention官方實(shí)現(xiàn)取128KB塊,保留部分共享內(nèi)存供線程塊其他用途。31.在DPO損失中,偏好樣本對(duì)(yw,yl)的隱式獎(jiǎng)勵(lì)差可表示為r(x,yw)?r(x,yl)=βlog________。答案:πθ(yw|x)/πref(yw|x)?βlogπθ(yl|x)/πref(yl|x)解析:DPO將BT模型與策略比掛鉤,獎(jiǎng)勵(lì)差直接由策略似然比給出。32.若將LLaMA270B量化為INT4權(quán)重+INT4激活,理論壓縮率約為_(kāi)_______(保留兩位小數(shù))。答案:0.25解析:原模型16位,INT4為4位,權(quán)重+激活均4位,顯存≈4/16=0.25。33.在VisionTransformer訓(xùn)練中,若采用“掩碼圖像建?!辈呗?,常用掩碼比例為_(kāi)_______%。答案:75解析:BEiT、MAE實(shí)驗(yàn)表明75%掩碼率可在加速訓(xùn)練同時(shí)保持線性探測(cè)精度。34.2024年,NVIDIA發(fā)布的“TensorRTLLM”在FP8推理下,相比FP16可實(shí)現(xiàn)最高_(dá)_______倍的吞吐提升(官方數(shù)據(jù))。答案:4.6解析:TensorRTLLM0.7.0文檔顯示,在GPT175B批次=128場(chǎng)景,F(xiàn)P8較FP16提升4.6×。35.在RLHF的PPO階段,若KL正則系數(shù)β=0.1,則策略更新時(shí)最大允許KL散度通常剪輯在________附近。答案:0.1解析:實(shí)踐上KL目標(biāo)與β同量級(jí),剪輯閾值設(shè)為β避免策略偏離參考模型過(guò)遠(yuǎn)。五、簡(jiǎn)答題(每題8分,共24分)36.請(qǐng)簡(jiǎn)述“KVcache”在大模型推理中的作用及其顯存占用計(jì)算公式,并給出降低顯存的兩條工程方案。答案:作用:在自回歸生成時(shí)緩存之前所有token的Key、Value張量,避免重復(fù)計(jì)算,將復(fù)雜度從O(n2d)降至O(nd)。顯存公式:假設(shè)批次大小b,已生成長(zhǎng)度n,層數(shù)l,頭數(shù)h,頭維dk,則KVcache顯存=2×b×n×l×h×dk×字節(jié)數(shù)(FP16為2字節(jié))。降低方案:1.多查詢注意力(MQA)/分組查詢注意力(GQA),將h縮小至1或h/g,減少緩存頭數(shù);2.窗口化緩存(SlidingWindowCache),僅保留最近w個(gè)token,歷史KV丟棄,適用于長(zhǎng)文本流式場(chǎng)景。37.說(shuō)明“旋轉(zhuǎn)位置編碼(RoPE)”與“絕對(duì)位置編碼”在長(zhǎng)度外推能力上的差異,并給出RoPE實(shí)現(xiàn)外推的數(shù)學(xué)技巧。答案:差異:絕對(duì)位置編碼(如正弦或可學(xué)習(xí))在訓(xùn)練長(zhǎng)度外推時(shí)會(huì)出現(xiàn)分布外(OOD)問(wèn)題,導(dǎo)致注意力分?jǐn)?shù)異常;RoPE將位置信息編碼為旋轉(zhuǎn)矩陣,僅依賴相對(duì)距離,天然具備外推潛力。外推技巧:1.頻率基座(base)調(diào)大,如從10000改為500000,降低高頻分量,減緩長(zhǎng)距離旋轉(zhuǎn)角過(guò)大;2.線性插值:將超出訓(xùn)練長(zhǎng)度的位置m映射為m′=m×Ltrain/Lmax,保持旋轉(zhuǎn)角在訓(xùn)練范圍內(nèi);3.NTKaware插值:僅對(duì)高頻維度進(jìn)行縮放,保留低頻分量,兼顧短距離敏感度與長(zhǎng)距離泛化。38.對(duì)比“擴(kuò)散模型”與“自回歸模型”在圖像生成任務(wù)上的優(yōu)劣,并指出2024年出現(xiàn)的混合方案。答案:擴(kuò)散模型優(yōu)勢(shì):并行進(jìn)、保真度高、易引導(dǎo)(CFG);劣勢(shì):需多步迭代、計(jì)算量大。自回歸優(yōu)勢(shì):一步生成、易與LLM統(tǒng)一;劣勢(shì):序列順序?qū)е赂叻直媛视?xùn)練困難、生成慢。2024年混合方案:1.DiffusionAR(OpenAI):在潛空間先用擴(kuò)散生成低維表示,再用自回歸上采樣;2.Showo:統(tǒng)一Transformer采用“擴(kuò)散+AR”雙頭,對(duì)圖像token隨機(jī)選擇擴(kuò)散或AR目標(biāo),實(shí)現(xiàn)單模型兼顧兩種機(jī)制;3.Transfusion:將連續(xù)擴(kuò)散損失與離散AR損失在同一序列混合訓(xùn)練,支持文本+圖像端到端。六、綜合應(yīng)用題(11分)39.某機(jī)構(gòu)需在邊緣端(JetsonOrinNano8GB)部署一個(gè)中文對(duì)話大模型,要求單卡運(yùn)行,首token延遲<500ms,吞吐>20tokens/s。給定以下候選:A.LLaMA27BFP16B.LLaMA27BINT4C.Qwen1.8BFP16D.Qwen14BINT4請(qǐng)完成:(1)計(jì)算各方案峰值顯存占用(權(quán)重+1K長(zhǎng)度KVcache,F(xiàn)P16激活)。(2)基于

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論