版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年人工智能基礎(chǔ)與應(yīng)用技能測(cè)試試題及答案一、單項(xiàng)選擇題(每題1分,共30分。每題只有一個(gè)正確答案,錯(cuò)選、多選、未選均不得分)1.在深度學(xué)習(xí)中,若某卷積層輸出特征圖尺寸為14×14,步長(zhǎng)為2,填充為1,卷積核大小為5×5,則該層輸入特征圖尺寸為A.27×27??B.28×28??C.29×29??D.30×30答案:C解析:由輸出尺寸公式O=(I+2P?K)/S+1反推,I=(O?1)×S?2P+K=(14?1)×2?2×1+5=29。2.下列關(guān)于Transformer位置編碼的說(shuō)法正確的是A.絕對(duì)位置編碼無(wú)法外推更長(zhǎng)序列B.相對(duì)位置編碼必須引入額外可學(xué)習(xí)參數(shù)C.RoPE編碼在注意力計(jì)算后對(duì)Q、K施加旋轉(zhuǎn)矩陣D.ALiBi編碼在softmax之后對(duì)注意力分?jǐn)?shù)做線性偏置答案:A解析:絕對(duì)正弦編碼固定長(zhǎng)度,外推時(shí)須插值;RoPE在QK點(diǎn)積前旋轉(zhuǎn);ALiBi在softmax前線性偏置。3.在聯(lián)邦學(xué)習(xí)場(chǎng)景下,客戶端上傳的梯度被惡意放大100倍,服務(wù)器采用何種聚合策略可最大限度降低攻擊影響A.FedAvg??B.FedProx??C.Trimmedmean??D.SGD答案:C解析:Trimmedmean先剔除最大最小極端值再平均,對(duì)拜占庭攻擊魯棒性最強(qiáng)。4.若某強(qiáng)化學(xué)習(xí)任務(wù)的回報(bào)服從厚尾分布,則下列算法中最適合直接優(yōu)化的是A.PPO??B.DQN??C.QRDQN??D.A2C答案:C解析:QRDQN基于分位數(shù)回歸,對(duì)異常回報(bào)不敏感,適合厚尾回報(bào)。5.在StableDiffusion推理階段,若將CFG(ClassifierFreeGuidance)系數(shù)從7.5提高到15,則生成圖像的客觀評(píng)價(jià)指標(biāo)最可能A.FID降低??B.IS降低??C.CLIPScore降低??D.LPIPS升高答案:B解析:過(guò)高CFG會(huì)犧牲多樣性,IS對(duì)多樣性敏感,通常下降;FID可能升高,LPIPS通常升高,但I(xiàn)S最直接。6.在Python3.11中,下列代碼片段輸出為```pythonimportfunctools,time@functools.lru_cache(maxsize=None)deff(x):time.sleep(0.1)returnx2print(f(2)+f(2))```A.4??B.8??C.運(yùn)行0.2s后輸出8??D.運(yùn)行0.1s后輸出8答案:D解析:第二次調(diào)用命中緩存,無(wú)sleep,總耗時(shí)0.1s。7.使用混合精度訓(xùn)練時(shí),下列NVIDIAA100顯卡張量核心利用率最高的矩陣乘規(guī)模是A.(512,1024)×(1024,512)??B.(1024,1024)×(1024,1024)C.(2048,1024)×(1024,2048)??D.(4096,4096)×(4096,4096)答案:D解析:張量核心要求維度為8的倍數(shù)且越大越飽和,4096最滿。8.在ONNXRuntime中開啟TensorRT后端時(shí),若節(jié)點(diǎn)算子不在支持列表,則A.自動(dòng)回退到CUDA??B.報(bào)錯(cuò)終止??C.回退到CPU??D.忽略該節(jié)點(diǎn)答案:A解析:ORTTensorRT提供分級(jí)回退,優(yōu)先CUDA。9.下列關(guān)于GPT系列模型架構(gòu)演進(jìn)順序正確的是A.GPT1→GPT2→GPT3→InstructGPT→ChatGPT→GPT4B.GPT1→GPT2→InstructGPT→GPT3→ChatGPT→GPT4C.GPT1→GPT2→GPT3→ChatGPT→InstructGPT→GPT4D.GPT1→InstructGPT→GPT2→GPT3→ChatGPT→GPT4答案:A解析:InstructGPT在GPT3后,ChatGPT基于InstructGPT強(qiáng)化學(xué)習(xí)微調(diào)。10.在擴(kuò)散模型DDPM中,若總步數(shù)T=1000,線性噪聲表β_t從0.0001到0.02,則α?_t在t=500時(shí)的值約為A.0.50??B.0.36??C.0.24??D.0.12答案:B解析:α_t=1?β_t,α?_t=∏α_k,數(shù)值積分近似得0.36。11.在PyTorch2.0編譯模式下,pile默認(rèn)后端是A.TorchScript??B.ONNX??C.Inductor??D.nvFuser答案:C解析:Inductor為PyTorch2.0默認(rèn)Triton后端。12.下列關(guān)于LoRA微調(diào)的說(shuō)法錯(cuò)誤的是A.可只訓(xùn)練低秩矩陣??B.推理時(shí)需合并原權(quán)重C.秩越大可恢復(fù)全量微調(diào)效果??D.適用于Transformer所有層答案:B解析:推理可動(dòng)態(tài)合并,也可外掛,非“必須”合并。13.在自動(dòng)駕駛感知棧中,將激光雷達(dá)點(diǎn)云投影到圖像平面后出現(xiàn)的“空心”像素通常采用A.最近鄰填充??B.雙線性插值??C.深度補(bǔ)全網(wǎng)絡(luò)??D.形態(tài)學(xué)閉運(yùn)算答案:C解析:深度補(bǔ)全網(wǎng)絡(luò)可學(xué)習(xí)語(yǔ)義與幾何一致填充。14.若某模型參數(shù)量為7B,使用16位浮點(diǎn)存儲(chǔ),則全參數(shù)微調(diào)時(shí)AdamW的顯存占用約為A.14GB??B.28GB??C.42GB??D.56GB答案:D解析:參數(shù)14GB+梯度14GB+Adam動(dòng)量28GB=56GB。15.在推薦系統(tǒng)冷啟動(dòng)階段,最能緩解曝光偏差的技術(shù)是A.逆傾向評(píng)分??B.深度交叉網(wǎng)絡(luò)??C.多任務(wù)學(xué)習(xí)??D.自監(jiān)督預(yù)訓(xùn)練答案:A解析:IPS直接對(duì)曝光概率加權(quán),理論上無(wú)偏。16.下列關(guān)于VisionTransformer中classtoken的敘述正確的是A.必須與patchtoken拼接后一起送入最后一層LNB.在DeiT蒸餾框架中可被蒸餾token替代C.在CaiT中被移至深層以加速訓(xùn)練D.在SwinTransformer中繼續(xù)使用答案:B解析:DeiT引入distillationtoken,可與classtoken并行。17.在聯(lián)邦學(xué)習(xí)中,若客戶端數(shù)據(jù)非獨(dú)立同分布,則下列聚合策略最能緩解模型發(fā)散A.FedAvg??B.FedProx??C.FedNova??D.SCAFFOLD答案:D解析:SCAFFOLD使用控制變量修正本地更新,適合非IID。18.在擴(kuò)散模型采樣階段,使用DDIM采樣50步相比DDPM采樣1000步,F(xiàn)ID的變化趨勢(shì)是A.一定下降??B.一定上升??C.可能上升也可能下降??D.不變答案:C解析:DDIM為確定性采樣,步數(shù)減少可能犧牲質(zhì)量,但調(diào)η可平衡。19.在Python中,下列代碼運(yùn)行后變量a的值為```pythona=np.array([1,2,3])b=aa=a+1```A.[1,2,3]??B.[2,3,4]??C.[1,2,3]且b為[2,3,4]??D.[2,3,4]且b為[1,2,3]答案:A解析:a+1創(chuàng)建新對(duì)象,a指向新數(shù)組,原b仍指向舊數(shù)組。20.在深度強(qiáng)化學(xué)習(xí)分布式訓(xùn)練框架SeedRL中,下列模塊運(yùn)行在TPU上的是A.Actor??B.Learner??C.ReplayBuffer??D.Environment答案:B解析:Learner在TPU做批量更新,Actor在CPU/GPU做環(huán)境交互。21.在CLIP模型中,文本最大序列長(zhǎng)度77是指A.WordPiece子詞數(shù)??B.字節(jié)對(duì)編碼后token數(shù)C.空格分詞后單詞數(shù)??D.UTF8字符數(shù)答案:B解析:CLIP使用BPE,最大77個(gè)token。22.若將ResNet50的Bottleneck中3×3卷積替換為深度可分離卷積,則參數(shù)量約A.不變??B.減少1/2??C.減少1/3??D.減少1/9答案:D解析:3×3參數(shù)量由C×C×9變?yōu)镃×1×9,減少約1/9。23.在PyTorch中,下列操作可真正實(shí)現(xiàn)原地修改的是A.tensor.add_(1)??B.tensor=tensor+1C.tensor+=1??D.tensor.copy_(tensor+1)答案:A解析:add_為原地操作,+創(chuàng)建新對(duì)象。24.在語(yǔ)音識(shí)別CTC損失中,空白標(biāo)簽的作用是A.對(duì)齊重復(fù)字符??B.表示靜音幀??C.分隔不同說(shuō)話人??D.替代unk答案:A解析:CTC用空白吸收重復(fù)幀,實(shí)現(xiàn)單調(diào)對(duì)齊。25.在StableDiffusion中,將VAE編碼器下采樣倍數(shù)從8改為4,則潛在空間分辨率A.翻倍??B.減半??C.不變??D.變?yōu)?/4答案:A解析:下采樣倍數(shù)減小,潛在圖尺寸翻倍。26.在推薦系統(tǒng)多任務(wù)學(xué)習(xí)中,MMoE與SharedBottom相比,主要改進(jìn)是A.引入門控網(wǎng)絡(luò)??B.使用注意力機(jī)制??C.加入殘差連接??D.采用NAS搜索答案:A解析:MMoE用門控動(dòng)態(tài)加權(quán)專家子網(wǎng)絡(luò)。27.在目標(biāo)檢測(cè)YOLOv8中,取消Anchor后,正樣本匹配策略采用A.IoU閾值??B.中心點(diǎn)距離??C.TaskAligned??D.ATSS答案:C解析:YOLOv8使用TaskAligned動(dòng)態(tài)匹配。28.在GAN訓(xùn)練中出現(xiàn)模式崩塌時(shí),下列指標(biāo)最先異常的是A.FID??B.IS??C.Precision??D.Recall答案:D解析:Recall對(duì)多樣性敏感,崩塌時(shí)驟降。29.在神經(jīng)網(wǎng)絡(luò)剪枝中,下列方法屬于非結(jié)構(gòu)化剪枝的是A.通道剪枝??B.濾波器剪枝??C.權(quán)重幅值剪枝??D.塊剪枝答案:C解析:權(quán)重級(jí)剪枝無(wú)結(jié)構(gòu)約束。30.在LLM推理加速框架vLLM中,實(shí)現(xiàn)連續(xù)批處理的關(guān)鍵技術(shù)是A.PagedAttention??B.DynamicAxes??C.TensorParallel??D.PipelineParallel答案:A解析:PagedAttention將KV緩存分塊,支持動(dòng)態(tài)插入。二、多項(xiàng)選擇題(每題2分,共20分。每題有兩個(gè)或兩個(gè)以上正確答案,多選、少選、錯(cuò)選均不得分)31.下列關(guān)于自注意力機(jī)制計(jì)算復(fù)雜度的敘述正確的有A.標(biāo)準(zhǔn)點(diǎn)積注意力為O(n2d)??B.線性注意力可降至O(nd2)C.FlashAttention通過(guò)分塊降低顯存但計(jì)算量不變??D.SparseAttention可降低FLOPs答案:ABCD解析:A經(jīng)典結(jié)論;B線性注意力改寫為(QK^T)V→Q(K^TV);CFlashAttention僅優(yōu)化IO;DSparse跳過(guò)部分計(jì)算。32.在StableDiffusion訓(xùn)練階段,下列損失函數(shù)曾被采用過(guò)的有A.MSE??B.LPIPS??C.KL正則??D.ScoreMatching答案:ACD解析:原始DDPM用MSE;KL正則約束VAE潛在;ScoreMatching為擴(kuò)散本質(zhì)。33.下列技術(shù)可有效緩解LLM幻覺(jué)(hallucination)的有A.RetrievalAugmentedGeneration??B.ChainofThoughtFinetuningC.ConstitutionalAI??D.TemperatureScaling答案:ABC解析:TemperatureScaling僅調(diào)隨機(jī)性,不糾正事實(shí)。34.在PyTorch中,下列操作會(huì)觸發(fā)CUDAkernel同步的有A.tensor.item()??B.tensor.cpu()??C.print(tensor)??D.tensor.nonzero()答案:ABC解析:nonzero異步返回,不立即同步。35.下列關(guān)于混合專家模型(MoE)的描述正確的有A.SwitchTransformer采用Top1路由??B.GShard使用專家并行C.專家容量因子過(guò)大會(huì)導(dǎo)致負(fù)載不均??D.基座模型參數(shù)量隨專家數(shù)線性增加答案:AB解析:容量因子過(guò)大浪費(fèi)計(jì)算;基座共享,參數(shù)量次線性。36.在自動(dòng)駕駛感知中,多幀融合策略包括A.3D卷積??B.遞歸神經(jīng)網(wǎng)絡(luò)??C.注意力時(shí)序融合??D.卡爾曼濾波答案:ABCD解析:四者均用于時(shí)序融合。37.下列屬于擴(kuò)散模型加速采樣算法的有A.DDIM??B.DPMSolver??C.UniPC??D.EDM答案:ABC解析:EDM為訓(xùn)練框架,非采樣算法。38.在聯(lián)邦學(xué)習(xí)中,下列攻擊屬于模型投毒的有A.標(biāo)簽翻轉(zhuǎn)??B.添加隨機(jī)噪聲??C.放大梯度??D.成員推理答案:AC解析:隨機(jī)噪聲為數(shù)據(jù)投毒;成員推理為隱私攻擊。39.下列關(guān)于VisionTransformer自監(jiān)督預(yù)訓(xùn)練方法的有A.MAE??B.MoCov3??C.DINO??D.BEiT答案:ABCD解析:四者均為ViT自監(jiān)督方法。40.在LLM量化中,下列技術(shù)可實(shí)現(xiàn)權(quán)重激活同時(shí)量化的有A.GPTQ??B.SmoothQuant??C.LLM.int8()??D.AWQ答案:BC解析:GPTQ/AWQ僅權(quán)重量化;SmoothQuant聯(lián)合量化;LLM.int8()支持混合。三、判斷題(每題1分,共10分。正確打“√”,錯(cuò)誤打“×”)41.在Transformer中,Attention的softmax輸出對(duì)QK^T的梯度恒為半正定矩陣。答案:×解析:梯度矩陣對(duì)稱但非半正定。42.使用梯度累積時(shí),等效批量大小=微批量×累積步數(shù)。答案:√43.在DDPM中,擴(kuò)散過(guò)程q(x_t|x_0)的方差schedule可學(xué)習(xí)。答案:√解析:ImprovedDDPM提出可學(xué)習(xí)方差。44.在PyTorch中,torch.no_grad()會(huì)關(guān)閉Autograd引擎,因此無(wú)法計(jì)算梯度。答案:√45.在目標(biāo)檢測(cè)中,mAP@0.5一定大于mAP@0.5:0.95。答案:×解析:后者平均更多IoU閾值,通常更小。46.在聯(lián)邦學(xué)習(xí)中,SecureAggregation可防止服務(wù)器看到單個(gè)客戶端梯度。答案:√47.使用LoRA微調(diào)時(shí),秩r越大,可訓(xùn)練參數(shù)量越少。答案:×解析:r越大參數(shù)量越多。48.在擴(kuò)散模型中,DDIM采樣路徑確定,因此隨機(jī)種子不影響生成結(jié)果。答案:√49.在LLM推理中,KV緩存占用顯存與序列長(zhǎng)度平方成正比。答案:×解析:與長(zhǎng)度線性關(guān)系。50.在GAN中,判別器損失越低,生成器性能一定越好。答案:×解析:判別器過(guò)強(qiáng)導(dǎo)致梯度消失。四、填空題(每空2分,共20分)51.在PyTorch中,將模型移至GPU的函數(shù)是`.to('______')`。答案:cuda52.Transformer中MultiHeadAttention的head維度d_k通常等于______。答案:d_model/num_heads53.在StableDiffusion中,文本編碼器CLIP的嵌入維度為______。答案:76854.在LLM推理加速中,______Attention將KV緩存分塊管理,實(shí)現(xiàn)連續(xù)批處理。答案:Paged55.在聯(lián)邦學(xué)習(xí)框架FedAvg中,本地epoch數(shù)增大,模型收斂速度會(huì)______(加快/減慢)。答案:減慢(非IID時(shí))56.在目標(biāo)檢測(cè)COCO評(píng)價(jià)中,APsmall指面積小于______像素2。答案:322=102457.在擴(kuò)散模型中,ScoreMatching的目標(biāo)是學(xué)習(xí)______的梯度。答案:對(duì)數(shù)概率密度58.在LLM量化中,SmoothQuant將難度從______端遷移到權(quán)重端。答案:激活59.在自動(dòng)駕駛數(shù)據(jù)集nuScenes中,激光雷達(dá)點(diǎn)云頻率為______Hz。答案:2060.在VisionTransformer中,位置編碼的維度與______維度相同。答案:patchembedding五、簡(jiǎn)答題(每題10分,共30分)61.描述FlashAttention的核心思想及其在LLM訓(xùn)練中的優(yōu)勢(shì),并給出復(fù)雜度對(duì)比。答案:FlashAttention通過(guò)分塊(tiling)將Attention的softmax操作拆解為塊級(jí)計(jì)算,避免實(shí)例化完整的n×n注意力矩陣,將顯存復(fù)雜度從O(n2)降至O(n),計(jì)算復(fù)雜度保持O(n2d)但大幅減少GPUHBM訪問(wèn)。優(yōu)勢(shì):1.顯存節(jié)省使得長(zhǎng)序列訓(xùn)練可行,如4k→64k;2.計(jì)算強(qiáng)度提高,更好地利用TensorCore,實(shí)測(cè)提速2?4×;3.無(wú)需近似,數(shù)值與標(biāo)準(zhǔn)Attention等價(jià)。復(fù)雜度:標(biāo)準(zhǔn)Attention顯存O(n2),F(xiàn)lashAttention顯存O(n),計(jì)算FLOPs不變。62.解釋LoRA的低秩假設(shè)在Transformer全連接層中的物理意義,并推導(dǎo)參數(shù)量壓縮比公式。答案:低秩假設(shè)認(rèn)為權(quán)重更新ΔW位于低維子空間,即ΔW∈R^{d×k}可分解為BA,B∈R^{d×r},A∈R^{r×k},r?min(d,k)。物理意義:大模型微調(diào)僅需調(diào)整少量“方向”,其余由預(yù)訓(xùn)練權(quán)重凍結(jié)。壓縮比:原參數(shù)量dk,LoRA參數(shù)量(d+k)r,壓縮比ρ=dk/((d+k)r)。當(dāng)d=k=1024,r=16時(shí),ρ≈32。63.給出聯(lián)邦學(xué)習(xí)場(chǎng)景下“梯度反轉(zhuǎn)攻擊”的具體步驟,并提出兩種防御方案。答案:步驟:1.服務(wù)器發(fā)送當(dāng)前全局模型w_t給客戶端;2.客戶端計(jì)算本地梯度g_i并回傳;3.服務(wù)器收集多個(gè)梯度,構(gòu)建優(yōu)化問(wèn)題min‖∑α_ig_i??L(w_t,D')‖,通過(guò)迭代更新偽數(shù)據(jù)D';4.最終恢復(fù)出近似原始數(shù)據(jù)。防御:1.梯度壓縮+添加隨機(jī)噪聲,使優(yōu)化問(wèn)題不可解;2.使用SecureAggregation,服務(wù)器僅見(jiàn)聚合梯度,無(wú)法單獨(dú)獲得g_i。六、編程與計(jì)算題(每題15分,共30分)64.閱讀下列PyTorch代碼,補(bǔ)全空缺部分,實(shí)現(xiàn)帶RoPE的MultiHeadAttention前向過(guò)程,要求支持旋轉(zhuǎn)位置編碼的復(fù)數(shù)形式。```pythonimporttorch,mathclassRoPEAttention(torch.nn.Module):def__init__(self,d_model,n_head,max_len=2048):super().__init__()self.n_head=n_headself.d_k=d_model//n_headself.scale=math.sqrt(self.d_k)self.qkv=torch.nn.Linear(d_model,3d_model)self.out=torch.nn.Linear(d_model,d_model)inv_freq=1.0/(10000(torch.arange(0,self.d_k,2).float()/self.d_k))self.register_buffer('inv_freq',inv_freq)[d_k/2]defrotate(self,x,seq_len):x:[batch,seq_len,n_head,d_k]t=torch.arange(seq_len,device=x.device).type_as(self.inv_freq)[seq_len]freqs=torch.outer(t,self.inv_freq)[seq_len,d_k/2]freqs_cis=torch.polar(torch.ones_like(freqs),freqs)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 球網(wǎng)制作工安全管理強(qiáng)化考核試卷含答案
- 仲鉬酸銨制備工崗前實(shí)操操作考核試卷含答案
- 靜電記錄頭制作工崗前安全培訓(xùn)考核試卷含答案
- 液氯氣化處理工操作知識(shí)測(cè)試考核試卷含答案
- 礦山救護(hù)工安全生產(chǎn)規(guī)范測(cè)試考核試卷含答案
- 2024年延慶縣特崗教師招聘筆試真題題庫(kù)附答案
- 片劑工安全操作模擬考核試卷含答案
- 2024年海南大學(xué)輔導(dǎo)員考試筆試題庫(kù)附答案
- 民用機(jī)場(chǎng)場(chǎng)務(wù)設(shè)備機(jī)務(wù)員安全實(shí)操競(jìng)賽考核試卷含答案
- 2024年欽州幼兒師范高等專科學(xué)校輔導(dǎo)員招聘考試真題匯編附答案
- 220kv輸變電工程項(xiàng)目實(shí)施方案
- 中國(guó)近代學(xué)前教育
- 海上風(fēng)電機(jī)組基礎(chǔ)結(jié)構(gòu)-第三章課件
- 家庭教育講師培訓(xùn)方法研究
- 《英語(yǔ)面試指南》招聘求職必備手冊(cè)
- DB12-T 601-2022 城市軌道交通運(yùn)營(yíng)服務(wù)規(guī)范
- 白油化學(xué)品安全技術(shù)說(shuō)明書
- 砼澆筑工程技術(shù)交底
- 重慶園林工程師園林理論
- CTM-DI(B)磁力儀使用說(shuō)明書
- GB/T 32545-2016鐵礦石產(chǎn)品等級(jí)的劃分
評(píng)論
0/150
提交評(píng)論