版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能知識(shí)考試題(附答案)單選題1.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將向量投影到低維空間。A、線性變換B、非線性變換C、拉布拉斯變換D、z變換參考答案:A2.智算中心相比傳統(tǒng)數(shù)據(jù)中心,在以下哪個(gè)方面實(shí)現(xiàn)了顯著的技術(shù)提升,以更好地支持大規(guī)模人工智能應(yīng)用?A、數(shù)據(jù)存儲(chǔ)容量的大幅增加B、網(wǎng)絡(luò)帶寬的簡(jiǎn)單擴(kuò)展C、高效能并行計(jì)算與場(chǎng)景化硬件加速的結(jié)合D、電源管理系統(tǒng)的優(yōu)化參考答案:D3.正式提出人工智能(artificialintelligence,AI)這個(gè)術(shù)語(yǔ)并把它作為一門新興科學(xué)的名稱實(shí)在哪一年。A、1956B、1960年C、1965年D、1980年參考答案:A4.在智能供電服務(wù)場(chǎng)景下,為了改進(jìn)長(zhǎng)上下文建模的方法,采用了哪些技術(shù)?A、僅使用了位置插值技術(shù)B、僅使用了長(zhǎng)文本數(shù)據(jù)上采樣技術(shù)C、使用了基于旋轉(zhuǎn)位置編碼(YaRN)的長(zhǎng)上下文建模方法,采用位置插值和微調(diào)等技術(shù)改進(jìn)RoPE的長(zhǎng)文本外推能力D、使用了基于數(shù)據(jù)工程的上下文擴(kuò)展方法,但沒(méi)有涉及模型繼續(xù)預(yù)訓(xùn)練參考答案:C5.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽(tīng)天由命D、以上都不正確的參考答案:B6.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來(lái)處理過(guò)擬合?A、DropoutB、分批歸一化BatchNormalizationC、正則化regularizationD、都可以參考答案:D7.在一個(gè)n維的間中,最好的檢測(cè)離群點(diǎn)(outlier)的方法是()。A、作正態(tài)分布概率圖B、作盒形圖C、馬氏距離D、作散點(diǎn)圖參考答案:C8.在數(shù)據(jù)量大的情況下,對(duì)于相同的文本分類任務(wù),對(duì)Bert模型和word2vec模型的分類效果判斷正確的是()A、bert分類效果優(yōu)于word2vecB、word2vec分類效果優(yōu)于bertC、效果一致D、以上選項(xiàng)均不參考答案:A9.在神經(jīng)網(wǎng)絡(luò)中,我們是通過(guò)以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計(jì)算C、卷積計(jì)算D、反向傳播算法參考答案:D10.在檢測(cè)桿塔上的銷釘是否存在銷子缺失的問(wèn)題時(shí),采取了什么措施來(lái)降低誤檢率?A、對(duì)所有銷釘進(jìn)行人工檢查B、僅人工檢查帶有銷子的銷釘C、找出桿塔上連接在掛環(huán)上、需要承重的銷釘,并檢查這些銷釘是否存在銷子缺失D、使用標(biāo)準(zhǔn)尺寸的樣本進(jìn)行比對(duì)參考答案:C11.在機(jī)器學(xué)習(xí)建模過(guò)程中對(duì)原始數(shù)據(jù)集的劃分不包括A、trainingsetB、testsetC、validationsetD、verificationset參考答案:D12.在構(gòu)建針對(duì)設(shè)備缺陷識(shí)別的大模型時(shí),以下哪種數(shù)據(jù)來(lái)源最有助于提高模型的準(zhǔn)確性?A、僅使用公開(kāi)的數(shù)據(jù)集B、結(jié)合行業(yè)內(nèi)的歷史數(shù)據(jù)和開(kāi)源數(shù)據(jù)集C、僅依賴于合成數(shù)據(jù)D、采用隨機(jī)生成的數(shù)據(jù)參考答案:B13.在構(gòu)建大型模型的知識(shí)庫(kù)時(shí),以下選項(xiàng)不是必須考慮的因素?A、知識(shí)庫(kù)的更新頻率B、知識(shí)庫(kù)的規(guī)模大小C、知識(shí)庫(kù)的精度D、模型的運(yùn)行速度參考答案:D14.在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過(guò)程。A、算法B、模型C、程序D、算法模型參考答案:D15.在電網(wǎng)運(yùn)行分析中,為了滿足人工智能模型對(duì)大量訓(xùn)練樣本的需求,以下哪種方法不是用來(lái)生成具備實(shí)測(cè)數(shù)據(jù)特征的樣本以增強(qiáng)數(shù)據(jù)集的方法?A、擴(kuò)展式模型B、對(duì)抗生成網(wǎng)絡(luò)C、高斯濾波器D、擴(kuò)散式模型參考答案:A16.在Python中,下列哪種說(shuō)法是錯(cuò)誤的()。A、除字典類型外,所有標(biāo)準(zhǔn)對(duì)象均可以用于布爾測(cè)試B、空字符串的布爾值是FalseC、空列表對(duì)象的布爾值是FalseD、值為0的數(shù)值型數(shù)據(jù)的布爾值是False參考答案:A17.在python中,x=[11,8,7,2,3],x、insert(4,[4,5]),列表x的值為()。A、11,8,7,2,4,5],3]B、11,8,7,2,4,5,3]C、11,8,7,4,5],2,3]D、11,8,7,4,5,2,3]參考答案:A18.在NoSQL數(shù)據(jù)庫(kù)的復(fù)制機(jī)制中,"主從復(fù)制"是將數(shù)據(jù)復(fù)制到多個(gè)節(jié)點(diǎn),用戶可以讀取該節(jié)點(diǎn)的數(shù)據(jù),但不能直接更新它,此類節(jié)點(diǎn)為()。A、Main節(jié)點(diǎn)B、Master節(jié)點(diǎn)C、Slave節(jié)點(diǎn)D、Save節(jié)點(diǎn)參考答案:C19.在GPT-4模型中,哪項(xiàng)技術(shù)或方法主要用于提升模型的生成質(zhì)量和理解能力?A、跨模態(tài)學(xué)習(xí)B、大規(guī)模的預(yù)訓(xùn)練數(shù)據(jù)集C、自適應(yīng)計(jì)算時(shí)間D、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)參考答案:B20.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知識(shí)的A、無(wú)悖性B、可擴(kuò)充性C、繼承性D、連貫性參考答案:C21.語(yǔ)言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨的一個(gè)問(wèn)題是沒(méi)有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語(yǔ)言模型的效果不好。為了解決這個(gè)問(wèn)題,需要使用()。A、平滑B、去噪C、隨機(jī)插值D、增加白噪音參考答案:A22.語(yǔ)句np、sum(arr3,axis=1)的作用是()?注:(已導(dǎo)入numpy庫(kù))importnumpyasnpA、對(duì)整個(gè)數(shù)組求和B、對(duì)每一行求和C、對(duì)第1列求和D、對(duì)每一列求和參考答案:B23.用樹(shù)形結(jié)構(gòu)來(lái)表示實(shí)體之間聯(lián)系的模型稱為A、關(guān)系模型B、層次模型C、網(wǎng)狀模型D、數(shù)據(jù)模型參考答案:B24.用numpy創(chuàng)建單位矩陣使用()A、np、identityB、np、onesC、np、random、randD、np、arange參考答案:A25.以下選項(xiàng)中,不是Python語(yǔ)言保留字的是A、whileB、exceptC、doD、pass參考答案:C26.以下哪一種芯片,不屬于FPGA的演進(jìn)過(guò)程中的芯片類型?A、CPLDB、PROMC、ASICD、PAL參考答案:B27.以下哪個(gè)選項(xiàng)是更大的浮點(diǎn)運(yùn)算單位?A、ZFLOPSB、GFLOPSC、EFLOPSD、PFLOPS參考答案:A28.以下關(guān)于芯片說(shuō)法正確的是?A、芯片通常是由半導(dǎo)體制成B、目前芯片普遍使用的半導(dǎo)體組件為二極管C、當(dāng)前芯片的制程工藝為納米級(jí)參考答案:A29.以下不屬于聚類算法的是()。A、K均值B、SANC、AprioriD、Jarvis-Patrik(JP)參考答案:C30.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識(shí)別D、數(shù)據(jù)增強(qiáng)參考答案:C31.已知f=exsiny,則▽f等于()。A、exsiny+excosyB、exsinyex+exsinyeyC、exsinyex+excosyeyD、excosyex+excosyey參考答案:C32.已知a={"fruits":pear,"animals":dog,"vegetables":carrot},則a["animals"]的值為()A、pearB、dogC、carrotD、以上選項(xiàng)均不參考答案:B33.一種將數(shù)據(jù)轉(zhuǎn)換成信息的分析過(guò)程叫做()。A、描述性分析B、診斷性分析C、預(yù)測(cè)性分析D、規(guī)范性分析參考答案:A34.一階規(guī)則的基本成分是()A、原子命題B、謂詞C、量詞D、原子公式參考答案:D35.一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪些流程?①抽象成數(shù)學(xué)問(wèn)題②獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運(yùn)行A、①②③④⑤B、②③④⑤⑥C、①②③④⑤⑥D(zhuǎn)、①②④⑤⑥參考答案:C36.下面哪個(gè)是Python中的不變的數(shù)據(jù)結(jié)構(gòu)()。A、setB、listC、tupleD、dict參考答案:C37.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?A、最大功率B、架構(gòu)C、整數(shù)精度D、7nm制程參考答案:B38.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不參考答案:B39.下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述是正確的?A、隱藏層層數(shù)增加,模型能力可能增加B、Dropout的比例增加,模型能力必然增加C、學(xué)習(xí)率增加,模型能力必然增加D、都不參考答案:A40.下列哪行python代碼有語(yǔ)法錯(cuò)誤()A、forsubitem:allItems:B、forkey,valueinip_map:C、withopensrc_file,'r'asread_stream:D、read_stream=opensrc_file,'r'參考答案:A41.下列哪部分不是專家系統(tǒng)的組成部分?A、用戶B、綜合數(shù)據(jù)庫(kù)C、推理機(jī)D、知識(shí)庫(kù)參考答案:A42.下列快捷鍵中能夠中斷(InterruptExecution)Python程序運(yùn)行的是A、F6B、Ctrl+QC、Ctrl+CD、Ctrl+F6參考答案:C43.下列關(guān)于冗余特征的說(shuō)法錯(cuò)誤的是()A、冗余特征是可以通過(guò)其他特征推演出來(lái)的特征B、冗余特征是無(wú)用的特征C、冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度D、去除冗余特征可以減輕學(xué)習(xí)過(guò)程的負(fù)擔(dān)參考答案:B44.下列關(guān)于聚類算法的說(shuō)法,正確的是()A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別B、聚類算法是一種監(jiān)督學(xué)習(xí)算法C、聚類算法可以用于回歸問(wèn)題D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別參考答案:D45.下列關(guān)于MapReduce說(shuō)法不正確的是()。A、MapReduce是一種計(jì)算框架B、MapReduce來(lái)源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語(yǔ)言編寫(xiě)D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用參考答案:C46.下列關(guān)于LARS算法的說(shuō)法正確的是()A、每次選擇一個(gè)與殘差相關(guān)性最大的特征B、是一種包裹式特征選擇法C、基于線性回歸平絕對(duì)誤差最小化D、是通過(guò)對(duì)LASSO稍加修改而實(shí)現(xiàn)參考答案:A47.下列度量不具有反演性的是()A、系數(shù)B、幾率C、Cohen度量D、興趣因子參考答案:D48.下列不屬于深度學(xué)習(xí)內(nèi)容的是A、深度置信網(wǎng)絡(luò)B、受限玻爾茲曼機(jī)C、卷積神經(jīng)網(wǎng)絡(luò)D、貝葉斯學(xué)習(xí)參考答案:D49.下列()不是建立專家系統(tǒng)的一般步驟A、設(shè)計(jì)初始知識(shí)庫(kù)B、排序與查詢C、原型機(jī)的開(kāi)發(fā)D、知識(shí)庫(kù)的改進(jìn)與歸納參考答案:B50.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維。選擇以下適合的方案①使用前向特征選擇方法②使用后向特征排除方法③我們先把所有特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn)然后我們?nèi)サ粢粋€(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn),如果表現(xiàn)比原來(lái)還要好,我們可以去除這個(gè)特征④查看相關(guān)性表,去除相關(guān)性最高的一些特征A、①②B、②③④C、①②④D、①②③④參考答案:D51.我們常說(shuō)"人類是智能回路的總開(kāi)關(guān)",即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對(duì)這個(gè)觀點(diǎn)的描述不正確A、人類智能是機(jī)器智能的設(shè)計(jì)者B、機(jī)器智能目前無(wú)法完全模擬人類所有智能C、機(jī)器智能目前已經(jīng)超越了人類智能D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能參考答案:C52.通過(guò)圖像視頻智能分析、人臉識(shí)別、圖文識(shí)別等()融合應(yīng)用,依托智能視頻終端、智能工器具等智能裝備,開(kāi)展現(xiàn)場(chǎng)作業(yè)智能管控應(yīng)用建設(shè),構(gòu)建行為違章、裝置違章等4大類算法模型,智能識(shí)別人員作業(yè)違章和現(xiàn)場(chǎng)安全風(fēng)險(xiǎn),優(yōu)化現(xiàn)場(chǎng)作業(yè)管控模式,提升現(xiàn)場(chǎng)作業(yè)安全管控效率和覆蓋率。A、人工智能技術(shù)B、數(shù)據(jù)挖掘技術(shù)C、模型推理技術(shù)D、數(shù)據(jù)清洗技術(shù)參考答案:A53.通常池化操作的效果是:A、使圖片變大B、使圖片變小C、使圖片變成三角形D、使圖片變成圓形參考答案:B54.梯度下降算法的正確步驟是什么?A、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2參考答案:D55.隨機(jī)森林是Bagging的一個(gè)擴(kuò)展變體,它在以決策樹(shù)為基學(xué)習(xí)器構(gòu)建Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹(shù)的訓(xùn)練過(guò)程中引入了()選擇。A、隨機(jī)屬性B、分支屬性C、機(jī)器屬性D、以上都不對(duì)參考答案:A56.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動(dòng)車車牌識(shí)別系統(tǒng)。A、圖像變換B、圖像增強(qiáng)C、圖像分割D、圖像復(fù)原參考答案:C57.實(shí)現(xiàn)多路分支的最佳控制結(jié)構(gòu)是A、ifB、tryC、if-elif-elseD、if-else參考答案:C58.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,用于評(píng)估模型預(yù)測(cè)準(zhǔn)確性的函數(shù)是A、激活函數(shù)B、損失函數(shù)C、權(quán)重函數(shù)D、優(yōu)化函數(shù)參考答案:B59.什么是KDD?()A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)B、領(lǐng)域知識(shí)發(fā)現(xiàn)C、文檔知識(shí)發(fā)現(xiàn)D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)參考答案:A60.如何選取合適的卷積核大???A、分布范圍廣>較小的卷積核,大的感受野B、分布范圍小>較小的卷積核,小的感受野C、分布范圍小>較大的卷積核,小的感受野D、分布范圍大>較小的卷積核,小的感受野參考答案:B61.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)。為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這個(gè)模型,下列哪種做法是正確的A、增加樹(shù)的深度B、增加學(xué)習(xí)率C、減少樹(shù)的數(shù)量D、減小樹(shù)的深度參考答案:D62.如果一個(gè)訓(xùn)練好的模型在測(cè)試集上有100%的準(zhǔn)確率,這是不是意味著在一個(gè)新的數(shù)據(jù)集上,也會(huì)有同樣好的表現(xiàn)?A、是的,這說(shuō)明這個(gè)模型的范化能力已經(jīng)足以支持新的數(shù)據(jù)集合了B、不對(duì),依然后其他因素模型沒(méi)有考慮到,比如噪音數(shù)據(jù)參考答案:B63.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。A、圖靈機(jī)B、圖靈測(cè)試C、中文屋實(shí)驗(yàn)D、人類智能參考答案:B64.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能參考答案:B65.人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。A、單元學(xué)習(xí)算法B、多層網(wǎng)絡(luò)學(xué)習(xí)C、決策樹(shù)學(xué)習(xí)D、概念學(xué)習(xí)參考答案:B66.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策&B、&貝葉斯&C、&HMM&D、&最大后驗(yàn)概率參考答案:A67.前饋神經(jīng)網(wǎng)絡(luò)通過(guò)誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()機(jī)器學(xué)習(xí)手段A、監(jiān)督學(xué)習(xí)B、無(wú)監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合參考答案:A68.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個(gè)方向傳遞參考答案:D69.某二叉樹(shù)的前序序列為ABDECFG,中序序列為DBEAFCG,則后序序列為A、DEBFGCAB、DBEFCGAC、BDECFGAD、DEFGBCA參考答案:A70.利用計(jì)算機(jī)來(lái)模擬人類的某些思維活動(dòng),如醫(yī)療診斷、定理證明,這些應(yīng)用屬于()A、數(shù)值計(jì)算B、自動(dòng)控制C、人工智能D、模擬仿真參考答案:C71.考慮值集{12243324556826},其四分位數(shù)極差是A、31B、24C、55D、3參考答案:A72.決策樹(shù)學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個(gè)最有助于分類實(shí)例的屬性,而其選擇是以()為依據(jù)的A、分類B、聚類C、概率D、信息熵參考答案:D73.決策管理系統(tǒng)幫助用戶制定、細(xì)化、實(shí)施、()各種決策,并將這些決策引入具體的環(huán)境中發(fā)揮作用。A、核對(duì)B、驗(yàn)證C、檢驗(yàn)D、跟蹤參考答案:D74.將輸出標(biāo)記的對(duì)數(shù)作為線性模型逼近的目標(biāo)是A、對(duì)數(shù)幾率回歸B、對(duì)數(shù)線性回歸C、極大似然法D、正則化參考答案:B75.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、都可以參考答案:D76.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估標(biāo)準(zhǔn)的log-loss的正確解釋。()A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)它。B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對(duì)log-loss的相應(yīng)分布會(huì)非常大。C、log-loss越低,模型越好D、以上都是參考答案:D77.假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:①如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。②如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。關(guān)于這兩句話,下列說(shuō)法正確的是?A、①和②都錯(cuò)誤B、①正確,②錯(cuò)誤C、①錯(cuò)誤,②正確D、①和②都參考答案:B78.基于深度學(xué)習(xí)的電力設(shè)備故障檢測(cè)主要采用()的方法,通過(guò)對(duì)大量歷史數(shù)據(jù)進(jìn)行線下訓(xùn)練,生成智能分析模型。A、小樣本學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、無(wú)監(jiān)督學(xué)習(xí)D、有監(jiān)督學(xué)習(xí)參考答案:D79.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過(guò)程,須有一定的機(jī)制來(lái)緩解過(guò)擬合的風(fēng)險(xiǎn),最常見(jiàn)的做法是()A、序列化B、剪枝C、去重D、重組參考答案:B80.關(guān)于正態(tài)分布,下列說(shuō)法錯(cuò)誤的是A、正態(tài)分布具有集中性和對(duì)稱性B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C、正態(tài)分布的偏度為0,峰度為1D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1參考答案:C81.關(guān)于語(yǔ)音識(shí)別服務(wù)中的一句話識(shí)別指的是,用于短語(yǔ)音的同步識(shí)別。一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。A、TRUEB、FALSE參考答案:A82.關(guān)于Transformer中的編碼器(Encoder),下列說(shuō)法正確的是:A、編碼器僅負(fù)責(zé)接收輸入序列而不進(jìn)行處理B、編碼器輸出的是變長(zhǎng)的上下文向量C、編碼器負(fù)責(zé)理解并編碼輸入序列的信息,將其轉(zhuǎn)換為固定長(zhǎng)度的上下文向量D、編碼器的功能是在解碼器之后執(zhí)行參考答案:C83.關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是()A、單隱層前饋神經(jīng)網(wǎng)絡(luò);B、隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);C、輸出層是對(duì)隱層神經(jīng)元輸出的非線性組合;D、可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;參考答案:C84.關(guān)于python程序設(shè)計(jì)語(yǔ)言,下列說(shuō)法不正確的是()A、python源文件以***、py為擴(kuò)展名B、python的默認(rèn)交互提示符是:>>>C、python只能在文件模式中編寫(xiě)代碼D、python具有豐富和強(qiáng)大的模塊參考答案:C85.關(guān)于k折交叉驗(yàn)證,下列說(shuō)法正確的是?()A、k值并不是越大越好,k值過(guò)大,會(huì)降低運(yùn)算速度B、選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近整個(gè)訓(xùn)練樣本C、選擇合適的k值,能減小驗(yàn)方差D、以上說(shuō)法都參考答案:D86.關(guān)于"與/或"圖表示知識(shí)的敘述,錯(cuò)誤的有。A、用"與/或"圖表示知識(shí)方便使用程序設(shè)計(jì)語(yǔ)言表達(dá),也便于計(jì)算機(jī)存儲(chǔ)處理。B、"與/或"圖表示知識(shí)時(shí)一定同時(shí)有"與節(jié)點(diǎn)"和"或節(jié)點(diǎn)"。C、"與/或"圖能方便地表示陳述性知識(shí)和過(guò)程性知識(shí)。D、能用"與/或"圖表示的知識(shí)不適宜用其他方法表示。參考答案:D87.關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分為()類A、3B、4C、5D、$6參考答案:A88.工信部發(fā)布的新型數(shù)據(jù)中心發(fā)展三年行動(dòng)計(jì)劃指出到2023年底,新建大型及以上數(shù)據(jù)中心PUE降低到多少以下?A、1B、25C、05D、3參考答案:C89.對(duì)中文語(yǔ)料樣本來(lái)說(shuō),為了便于模型理解,第一步是將句子拆分為詞元,詞元又稱為A、embeddingB、詞嵌入C、tokenD、基礎(chǔ)語(yǔ)料參考答案:C90.對(duì)于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是()A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不參考答案:C91.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()。A、1B、1和3C、1和2D、2參考答案:A92.電力安監(jiān)領(lǐng)域人工智能技術(shù)通常不涉及以下哪個(gè)技術(shù)()。A、目標(biāo)檢測(cè)B、視頻分類C、姿態(tài)估計(jì)D、強(qiáng)化學(xué)習(xí)參考答案:D93.黨中央、國(guó)務(wù)院高度重視人工智能技術(shù)發(fā)展,積極推進(jìn)人工智能和()深度融合,營(yíng)造通用人工智能發(fā)展創(chuàng)新生態(tài)A、實(shí)體經(jīng)濟(jì)B、商業(yè)C、體育D、文藝參考答案:A94.大模型訓(xùn)練過(guò)程被拆分為預(yù)訓(xùn)練和精調(diào)適配階段,這樣做有什么優(yōu)勢(shì)?A、增加了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效B、通過(guò)增大規(guī)模、無(wú)監(jiān)督的預(yù)訓(xùn)練階段,大幅降低了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效率C、大幅降低了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效率,減少了模型的泛化能力D、通過(guò)增大規(guī)模,增加了訓(xùn)練所需的時(shí)間和計(jì)算資源參考答案:B95.從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。A、戰(zhàn)略規(guī)劃B、咨詢報(bào)告C、AppsD、數(shù)據(jù)庫(kù)參考答案:A96.從產(chǎn)品形態(tài)看,以下()屬于數(shù)據(jù)產(chǎn)品中的數(shù)據(jù)類產(chǎn)品。A、脫敏數(shù)據(jù)B、數(shù)據(jù)訂閱C、知識(shí)庫(kù)D、決策支持參考答案:A97.查準(zhǔn)率和查全率是一對(duì)()的度量A、相容B、相等C、矛盾D、包含參考答案:C98.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、不斷遞歸而衰退B、不斷遞歸而增強(qiáng)C、先增強(qiáng)后減弱D、先減弱后增強(qiáng)參考答案:A99.變量的不確定性越大,相對(duì)應(yīng)信息熵有什么變化()A、熵變小B、熵變大C、不變D、以上都不對(duì)參考答案:B100.貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過(guò)()手段進(jìn)行學(xué)習(xí)的方法。A、邏輯B、概率C、推理D、假定參考答案:B101.貝葉斯網(wǎng)絡(luò)是基于概率推理的()模型。A、數(shù)據(jù)B、數(shù)學(xué)C、判斷D、圖形參考答案:B102.TensorFlow程序開(kāi)發(fā)時(shí)經(jīng)常會(huì)使用到placeholder,placeholder是指A、常量B、變量C、張量D、占位符參考答案:D103.SOM網(wǎng)絡(luò)是一種()的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間。A、競(jìng)爭(zhēng)學(xué)習(xí)型B、增量學(xué)習(xí)型C、在線學(xué)習(xí)型D、匹配學(xué)習(xí)型參考答案:A104.Softmax算法中溫度趨近于0時(shí)Softmax將趨于()A、僅探索B、僅利用C、全探索D、全利用參考答案:B105.scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、FitB、fitC、TrainD、train參考答案:B106.Python3中獲取用戶輸入并默認(rèn)以字符串存儲(chǔ)的函數(shù)是()A、raw_inputB、inputC、rawD、print參考答案:B107.NMS算法中文名為()A、非極大值抑制B、非極小值抑制C、極大值抑制D、極小值抑制參考答案:A108.LVW屬于哪種特征選擇方法()A、包裹式B、啟發(fā)式C、嵌入式D、過(guò)濾式參考答案:A109.GPT模型是基于哪種類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)?A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)B、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)C、變換器(Transformer)D、自編碼器參考答案:C110.AI的是哪兩個(gè)英文單詞的縮寫(xiě)A、AutomaticIntelligenceB、ArtificialIntelligenceC、AutomaticInformationD、ArtificialInformation參考答案:B111.《國(guó)家人工智能產(chǎn)業(yè)綜合標(biāo)準(zhǔn)化體系建設(shè)指南》對(duì)人工智能產(chǎn)業(yè)鏈作出了具體介紹,其中人工智能產(chǎn)業(yè)鏈包括()等4個(gè)部分A、基礎(chǔ)層、框架層、模型層、應(yīng)用層B、基礎(chǔ)層、強(qiáng)化層、改善層、創(chuàng)新層C、初始層、框架層、網(wǎng)絡(luò)層、創(chuàng)新層D、初始層、強(qiáng)化層、網(wǎng)絡(luò)層、應(yīng)用層參考答案:A112.()是在統(tǒng)一規(guī)范標(biāo)準(zhǔn)下,運(yùn)用自然語(yǔ)言處理、知識(shí)圖譜、智能搜索等關(guān)鍵技術(shù),對(duì)主變壓器、斷路器等電網(wǎng)主設(shè)備的知識(shí)資源進(jìn)行數(shù)字化解析、知識(shí)化關(guān)聯(lián)、智能化應(yīng)用,打造企業(yè)級(jí)電網(wǎng)設(shè)備知識(shí)服務(wù)平臺(tái),為設(shè)備管理專業(yè)人員提供設(shè)備故障輔助研判、設(shè)備缺陷定級(jí)分析等核心知識(shí)服務(wù)。A、電網(wǎng)B、主設(shè)備知識(shí)服務(wù)C、發(fā)電D、售電參考答案:B113.()是人工智能地核心,是使計(jì)算機(jī)具有智能地主要方法,其應(yīng)用遍及人工智能地各個(gè)領(lǐng)域。A、深度學(xué)習(xí)B、機(jī)器學(xué)習(xí)C、人機(jī)交互D、智能芯片參考答案:B114.()是科學(xué)推理的兩大基本手段。A、歸納和演繹B、歸納和泛化C、歸納和特化D、演繹和泛化參考答案:A115.()是概率框架下實(shí)施決策的基本方法。A、決策樹(shù)B、神經(jīng)網(wǎng)絡(luò)C、貝葉斯決策論D、支持向量機(jī)參考答案:C116.()是從輸電"動(dòng)脈"接受電能,逐級(jí)分配給千家萬(wàn)戶的"毛細(xì)血管"。A、配電網(wǎng)B、攝像機(jī)C、無(wú)人機(jī)D、邊端設(shè)備參考答案:A117.()年,一名名叫HenryBeck的機(jī)械制圖員借鑒電路圖的制圖方法設(shè)計(jì)出了倫敦地鐵線路圖,逐漸成為全球地鐵路線的標(biāo)準(zhǔn)可視化方法,沿用至今。A、1930B、1931C、1932D、$1,933參考答案:B118.()庫(kù)是一個(gè)具有強(qiáng)大圖像處理能力的第三方庫(kù)。用途:圖像處理、A、numpyB、pandasC、MatplotlibD、PIL參考答案:D119.()就是指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目差別很大的情況A、類別不平衡B、類別不相同C、類別不對(duì)等D、類別數(shù)不同參考答案:A120.()技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)圖的方式展現(xiàn)出來(lái)。A、支持向量機(jī)B、神經(jīng)網(wǎng)絡(luò)C、數(shù)據(jù)可視化D、數(shù)據(jù)挖掘參考答案:C121.()方法用于返回當(dāng)前工作目錄。A、os、chdirB、os、removedirsC、os、getcwdD、os、rename參考答案:C122.()的神經(jīng)形態(tài)芯片已經(jīng)可以搭建較大規(guī)模的類腦計(jì)算系統(tǒng),為類腦計(jì)算模型提供快速運(yùn)行平臺(tái)。A、基于腦電波神經(jīng)網(wǎng)絡(luò)B、基于脈沖神經(jīng)網(wǎng)絡(luò)C、基于腦回路神經(jīng)網(wǎng)絡(luò)D、基于類腦神經(jīng)網(wǎng)絡(luò)參考答案:B123.()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來(lái)西亞等城市和國(guó)家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。A、浪潮云B、華為云C、阿里云D、海爾云參考答案:C多選題1.智能寫(xiě)作平臺(tái)基于()等相對(duì)成熟的文章分析工具,自動(dòng)收集省公司、所轄市縣公司和支撐單位的網(wǎng)站新聞A、全文檢索B、分詞技術(shù)C、熱詞分析D、情報(bào)搜集參考答案:ABCD2.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器參考答案:ABC3.在自然語(yǔ)言處理任務(wù)中,首先需要考慮字、詞如何在計(jì)算機(jī)中表示。通常,有兩種表示方式:()表示和()表示A、分布式B、on-hotC、one-hotD、集中式參考答案:AC4.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)分類任務(wù)前,應(yīng)優(yōu)先考慮()問(wèn)題。A、確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。B、選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)C、初始化權(quán)值和偏置D、去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來(lái)代替參考答案:ABCD5.在配網(wǎng)調(diào)度中應(yīng)用AIforScience(AI4S)時(shí),以下哪些技術(shù)可以幫助提升電力系統(tǒng)的穩(wěn)定性和可靠性。A、深度學(xué)習(xí)B、神經(jīng)網(wǎng)絡(luò)C、進(jìn)化算法D、遺傳算法參考答案:ABC6.在處理大規(guī)模語(yǔ)言模型時(shí),哪種方法可以用于提高模型的推理效率?A、剪枝技術(shù)(PruningTechniques)B、知識(shí)蒸餾(KnowledgeDistillation)C、稀疏矩陣技術(shù)(SparseMatrices)D、增量訓(xùn)練(IncrementalTraining)參考答案:ABC7.在Python中,執(zhí)行importdatetimeasdt語(yǔ)句后,如下時(shí)間或日期定義方式正確的是()。A、dt、datetime(2019,0,0,23,23,23))B、dt、datetime(2019,12,12,23,23,23)C、dt、time(23,23,23D、dt、datetime(2019,12,12,0)參考答案:BCD8.在Python中,令cars=['bmw','audi','toyota','subaru']運(yùn)行cars、sort(reverse=True)后,cars的值為();運(yùn)行sorted(cars,reverse=True)后,cars的值為()A、['subaru','toyota','audi','bmw']B、['audi','bmw','subaru','toyota']C、['toyota','subaru','bmw','audi']D、['bmw','audi','toyota','subaru']參考答案:CD9.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A、顯著減少測(cè)試時(shí)間開(kāi)銷B、降低過(guò)擬合風(fēng)險(xiǎn)C、提高欠擬合風(fēng)險(xiǎn)D、顯著減少訓(xùn)練時(shí)間開(kāi)銷參考答案:ABCD10.語(yǔ)音識(shí)別的方法()。A、利用仍神經(jīng)網(wǎng)絡(luò)的方法B、聲道模型方法C、語(yǔ)音知識(shí)方法D、模板匹配的方法參考答案:ABCD11.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()A、冠詞與數(shù)詞B、可數(shù)名詞與不可數(shù)名詞C、單復(fù)數(shù)D、謂語(yǔ)與非謂語(yǔ)參考答案:BC12.以下選項(xiàng)中是Python語(yǔ)言的保留字的是A、passB、whileC、doD、except參考答案:ABD13.以下選項(xiàng)中能提升神經(jīng)網(wǎng)絡(luò)模型計(jì)算效率的是()。A、TPUB、GPUC、FPGAD、大規(guī)模分布式集群參考答案:ABCD14.以下說(shuō)法錯(cuò)誤的是()A、python不區(qū)分大小寫(xiě)B(tài)、set不是python數(shù)據(jù)類型C、python可以在Linux系統(tǒng)運(yùn)行D、tuple和list不可以定義為空參考答案:ABD15.以下屬于優(yōu)化器的是A、AdamB、SGDC、MomentumD、lr參考答案:ABC16.以下屬于梯度下降的是A、BGDB、SGDC、Mini-BatchD、dropout參考答案:ABC17.以下哪種評(píng)估方法受隨機(jī)樣本的影響?A、交叉驗(yàn)證法B、自助法C、留一法D、流出法參考答案:ABD18.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當(dāng)前層自身作為輸入()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、LSTM網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、多層感知機(jī)參考答案:AB19.以下哪些是屬于人工智能研究領(lǐng)域()A、圖像識(shí)別B、語(yǔ)言識(shí)別C、機(jī)器人D、專家系統(tǒng)參考答案:ABCD20.以下哪些是常見(jiàn)的神經(jīng)網(wǎng)絡(luò)()?A、RBF網(wǎng)絡(luò)B、RIO網(wǎng)絡(luò)C、ART網(wǎng)絡(luò)D、SQM網(wǎng)絡(luò)E、SOM網(wǎng)絡(luò)參考答案:ACE21.以下哪些技術(shù)是國(guó)產(chǎn)AI加速卡在提高環(huán)保和能效方面采用的創(chuàng)新措施?A、提高能效比,通過(guò)優(yōu)化芯片架構(gòu)和制程工藝,實(shí)現(xiàn)更高的性能和更低的能耗B、采用先進(jìn)制程技術(shù),以減少功耗并提高計(jì)算效率C、風(fēng)冷技術(shù),通過(guò)自然環(huán)境和條件提高數(shù)據(jù)中心的冷卻效率并減少能源消耗D、異構(gòu)計(jì)算,實(shí)現(xiàn)了不同種類芯片的大規(guī)模并行計(jì)算,提升了能效比參考答案:ABD22.以下哪些方法可以用于圖像中的目標(biāo)檢測(cè)。A、R-CNN(RegionswithCNNfeatures)B、YOLO(YouOnlyLookOnce)C、FasterR-CNND、U-Net參考答案:ABC23.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?A、AscendB、CANNC、ModelArtsD、MindSpore參考答案:ABCD24.以下技術(shù)BERT使用的包括哪些?()A、TransformerB、Sel-Attention模塊C、RNN循環(huán)連接D、文本卷積參考答案:AB25.已知A、B、C均為m階矩陣,則下列式子一定成立的是()。A、A+B=B+AB、AB=BAC、A(B+C)=AB+ACD、(A+B)^2=A^2+2AB+B^2參考答案:AC26.一般說(shuō)來(lái),人工智能技術(shù)包括A、人機(jī)交互、生物信息技術(shù)、智能芯片B、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理C、虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)、機(jī)器人技術(shù)D、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)參考答案:ABCD27.樣本庫(kù)功能要求為:數(shù)據(jù)預(yù)處理包括()等。A、灰度校正B、特征提取C、加注標(biāo)簽D、平滑去噪?yún)⒖即鸢福篈BD28.線性回歸的基本假設(shè)有哪些?A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量;B、對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差;C、隨機(jī)誤差項(xiàng)彼此相關(guān);D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立;E、隨機(jī)誤差項(xiàng)服從正態(tài)分布參考答案:ABDE29.下面哪些是基于核的機(jī)器學(xué)習(xí)算法()A、徑向基核函數(shù)B、支持向量機(jī)C、線性判別分析法D、最大期望算法參考答案:ABC30.下面關(guān)于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說(shuō)法是哪些?A、LSTM中通過(guò)引入輸入門、遺忘門、輸出門解決了RNN中存在的梯度消失和梯度爆炸B、LSTM中門的開(kāi)關(guān)程度是由信息的權(quán)重決定的,即訓(xùn)練過(guò)程中記住重要信息C、與RNN相比,LSTM中引入更多參數(shù),所以其訓(xùn)練周期更久D、LSTM中使用Sigmoid實(shí)現(xiàn)門限控制,而用TanH實(shí)現(xiàn)數(shù)據(jù)處理參考答案:BCD31.下面關(guān)于k近鄰的說(shuō)法,正確的是:A、根據(jù)特征向量X計(jì)算樣本之間的相似性,選擇離中心點(diǎn)最相似的k個(gè)樣本B、k近鄰既可以用于分類,也可以用于回歸C、k近鄰用于分類時(shí),對(duì)于新的樣本,計(jì)算離其最近的k個(gè)樣本的平均值,作為新樣本的預(yù)測(cè)值D、k近鄰用于分類時(shí),對(duì)于新的樣本,根據(jù)其k個(gè)最近鄰樣本的類別,通過(guò)多數(shù)表決的方式預(yù)測(cè)新樣本的類別參考答案:BD32.下面的Python開(kāi)發(fā)包中,屬于深度學(xué)習(xí)框架的有()A、KerasB、TensorflowC、MxnetD、flask參考答案:ABC33.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問(wèn)題的算法有A、邏輯回歸B、支持向量機(jī)C、線性回歸D、隨機(jī)森林參考答案:ABD34.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)()A、數(shù)字屬性的缺失值補(bǔ)0B、LabelEncoderC、one-hotencoderD、CountVectorize參考答案:ABCD35.下列哪些是卷積操作的優(yōu)點(diǎn)?()A、具有局部感受野B、操作復(fù)雜度與輸入尺寸無(wú)關(guān)C、可有效捕捉序列化數(shù)據(jù)的特征D、對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享參考答案:AD36.下列哪些是常見(jiàn)的算力單位?A、FLOPSB、TFLOPSC、PFLOPSD、GBE、MHz參考答案:ABC37.下列哪些模型可以E2E訓(xùn)練()A、YOLOv3B、YOLOv2C、RCNND、fastRCNN參考答案:ABD38.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的是A、如果MLE存在,那么它的解可能不是唯一的B、如果MLE存在,那么它的解一定是唯一的C、MLE可能并不存在D、MLE總是存在參考答案:AC39.推進(jìn)人工智能大發(fā)展的因素有()。A、數(shù)據(jù)井噴B、算法技術(shù)與模型優(yōu)化C、產(chǎn)業(yè)效益提升D、計(jì)算能力突破參考答案:ABD40.圖像平滑目的是()。A、減小突變梯度;B、使圖像亮度平緩漸變;C、改善圖像質(zhì)量;D、突出圖像的窄小區(qū)域參考答案:ABC41.圖像邊緣檢測(cè)中常用的邊緣檢測(cè)算子有哪些?A、Roberts算子B、Prewitt算子C、Sobel算子D、Canny算子參考答案:ABCD42.通過(guò)繼承創(chuàng)建的新類稱為()。A、子類B、父類C、派生類D、基類參考答案:AC43.通過(guò)迭代優(yōu)化來(lái)近似求解的是()A、學(xué)習(xí)向量量化B、k均值算法C、高斯混合聚類D、以上都不對(duì)參考答案:BC44.提供算法模型訓(xùn)練所采用的數(shù)據(jù)集相關(guān)描述,應(yīng)包括但不限于()。A、推理數(shù)據(jù)集B、測(cè)試數(shù)據(jù)集C、訓(xùn)練數(shù)據(jù)集D、驗(yàn)證數(shù)據(jù)集參考答案:BCD45.縮略圖不能直接雙擊打開(kāi),要使用PIL、Image的()讀取,然后使用()方法進(jìn)行顯示。A、dis()B、readC、show()D、open參考答案:CD46.數(shù)字孿生可以在以下哪些場(chǎng)景應(yīng)用()。A、基建工程B、智慧醫(yī)療C、智慧城市D、工業(yè)制造參考答案:ABCD47.數(shù)據(jù)平臺(tái)可以幫助我們進(jìn)行()。A、數(shù)據(jù)集成B、數(shù)據(jù)管理C、數(shù)據(jù)可視化D、數(shù)據(jù)治理參考答案:ABCD48.生成對(duì)抗網(wǎng)絡(luò)GAN的基本結(jié)構(gòu)主要包括以下哪些A、觸發(fā)器B、生成器C、判別器D、聚合器參考答案:BC49.神經(jīng)元分為三種不同類型的層次:A、隱藏層B、輸入層C、輸出層D、傳輸層參考答案:ABC50.如何運(yùn)行一個(gè)shell腳本。A、chmod+x、/test、shB、/bin/shtest、shC、test、shD、/test、sh參考答案:BD51.如果以特征向量的相關(guān)系數(shù)作為模式相似性測(cè)度,則影響聚類算法結(jié)果的主要因素有?A、已知類別樣本質(zhì)量B、分類準(zhǔn)則C、特征選取D、量綱參考答案:BC52.人工智能訓(xùn)練運(yùn)行平臺(tái)應(yīng)包括:()和服務(wù)發(fā)布等4部分。A、&模型部署&B、&模型評(píng)估C、&模型構(gòu)建&D、模型訓(xùn)練&參考答案:ABD53.人工智能驅(qū)動(dòng)數(shù)據(jù)安全治理加速向()方向演進(jìn)。A、自動(dòng)化B、精準(zhǔn)化C、高效化D、智能化參考答案:ABCD54.人工智能平臺(tái)中運(yùn)行()組件、()組件和具有預(yù)標(biāo)注功能的()組件的服務(wù)器應(yīng)具備獨(dú)立的AI芯片計(jì)算資源。A、模型B、訓(xùn)練C、推理D、標(biāo)注參考答案:BCD55.人工智能平臺(tái)樣本分類為()、()、()、()。A、語(yǔ)音B、圖像C、文本D、視頻參考答案:ABCD56.人工智能平臺(tái)功能應(yīng)包括:()。A、訓(xùn)練運(yùn)行平臺(tái)B、數(shù)據(jù)庫(kù)C、模型庫(kù)D、樣本庫(kù)參考答案:ACD57.人工智能技術(shù)可以在()方面與元宇宙技術(shù)相結(jié)合。A、使用人工智能技術(shù)處理元宇宙產(chǎn)生的海量且復(fù)雜的數(shù)據(jù)。B、使用人工智能技術(shù)在增強(qiáng)現(xiàn)實(shí)和虛擬現(xiàn)實(shí)中創(chuàng)造更智能、更身臨其境的世界。C、使用人工智能解決芯片的計(jì)算能力。D、使用人工智能技術(shù)來(lái)模仿和取代人類行為。參考答案:ABCD58.人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?huì)生活、改變世界,我國(guó)人工智能發(fā)展三個(gè)階段的目標(biāo)是()A、2025年部分達(dá)到世界領(lǐng)先水平B、2020年與世界先進(jìn)水平同步C、2025年與世界先進(jìn)水平同步D、2030年總體達(dá)到世界領(lǐng)先水平參考答案:ABD59.人工智能的三大學(xué)派是A、符號(hào)主義學(xué)派B、連接主義學(xué)派C、行為主義學(xué)派D、統(tǒng)計(jì)主義學(xué)派參考答案:ABC60.驅(qū)動(dòng)深度學(xué)習(xí)的三駕馬車是指?()A、大算力B、大模型C、大應(yīng)用D、大數(shù)據(jù)參考答案:ABD61.強(qiáng)化學(xué)習(xí)問(wèn)題的三種方法分別是()A、基于模型(model-based)B、基于策略(policy-based)C、基于價(jià)值(value-based)D、nan參考答案:ABC62.遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,包含以下兩種開(kāi)發(fā)方法()。A、數(shù)據(jù)清洗B、預(yù)訓(xùn)練模型的方法C、開(kāi)發(fā)模型的方法D、似然變換參考答案:BC63.模型壓縮的主要方法有哪些?A、模型蒸餾B、模型剪枝C、模型參數(shù)量化D、nan參考答案:ABC64.兩步聚類的兩個(gè)主要步驟為()。A、預(yù)聚類B、測(cè)試C、聚類D、建模參考答案:AC65.可以提高輸電線路智能巡視系統(tǒng)識(shí)別準(zhǔn)確率的方法包含()。A、多收集輸電線路巡視的樣本B、提高輸電線路巡視樣本標(biāo)注的質(zhì)量C、引入更深入的輸電巡檢專家知識(shí)D、指導(dǎo)無(wú)人機(jī)飛手拍攝更符合規(guī)范的樣本參考答案:ABCD66.決策樹(shù)的生成是一個(gè)遞歸過(guò)程、在決策樹(shù)基本算法中導(dǎo)致遞歸返回的情況包括()A、當(dāng)前屬性集為空,無(wú)法劃分B、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無(wú)需劃分C、所有樣本在所有屬性上取值相同,無(wú)法劃分D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分參考答案:ABCD67.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性:()、()、(),能有效減少網(wǎng)絡(luò)參數(shù),加快訓(xùn)練速度。A、上采樣B、權(quán)重共享C、下采樣D、局部連接參考答案:BCD68.聚類算法常見(jiàn)的性能評(píng)估指標(biāo)有哪些?A、AdjustRandIndex衡量?jī)蓚€(gè)序列相似性的算法。B、齊次性和完整性C、輪廓系數(shù)參考答案:ABC69.經(jīng)過(guò)全面訓(xùn)練的計(jì)算機(jī)視覺(jué)模型可以開(kāi)展對(duì)象的(),具有更強(qiáng)大的特征學(xué)習(xí)和表示能力A、跟蹤B、檢測(cè)C、分類D、識(shí)別參考答案:ABCD70.假設(shè)在卷積操作過(guò)程中,對(duì)于size為3*3的image,如需提取100個(gè)特征,卷積層需要()個(gè)卷積核,假設(shè)卷積核大小為4,則共需()個(gè)參數(shù)。A、100B、200C、$800D、400參考答案:AD71.假設(shè)你需要改變參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),可以使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化參考答案:ABC72.假設(shè)檢查的步驟()。A、選定統(tǒng)計(jì)方法B、提出假設(shè)C、設(shè)定檢驗(yàn)水準(zhǔn)D、確定檢驗(yàn)假設(shè)成立的可能性P大小并判斷參考答案:ABCD73.計(jì)算智能的主要研究領(lǐng)域包括()。A、模糊計(jì)算B、進(jìn)化計(jì)算C、神經(jīng)計(jì)算D、數(shù)字計(jì)算參考答案:ABC74.計(jì)算機(jī)系統(tǒng)中運(yùn)行在硬件之上的一層是操作系統(tǒng)OS,它控制和管理著系統(tǒng)硬件,操作系統(tǒng)的功能主要有()。A、文件管理B、設(shè)備管理C、進(jìn)程管理D、存儲(chǔ)管理參考答案:ABCD75.幾乎所有的活動(dòng)都需要一些在不確定性存在的情況下進(jìn)行推理的能力。不確定性有()等可能的來(lái)源。A、不完全觀測(cè)B、不完全建模C、被建模系統(tǒng)內(nèi)在的隨機(jī)性D、不完全判斷參考答案:ABC76.基因遺傳算法的兩個(gè)常用的結(jié)束條件為()。A、達(dá)到一定的變異次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求C、達(dá)到一定的迭代次數(shù)D、達(dá)到一定的交叉次數(shù)參考答案:BC77.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是?A、使用L1可以得到稀疏的權(quán)值B、使用L1可以得到平滑的權(quán)值C、使用L2可以得到稀疏的權(quán)值D、使用L2可以得到平滑的權(quán)值參考答案:AD78.機(jī)器學(xué)習(xí)的一般流程包括()A、模型驗(yàn)證B、分析案例C、數(shù)據(jù)獲取D、模型訓(xùn)練參考答案:ABCD79.機(jī)器翻譯的局限性在于()A、基于已有的既成案例B、只能處理簡(jiǎn)單句C、訓(xùn)練樣本單一D、錯(cuò)誤較多參考答案:AB80.華為云ModelArts是面向AI開(kāi)發(fā)的一戰(zhàn)式開(kāi)發(fā)平臺(tái),以下哪些功能在Mode1Arts上可以具備?A、數(shù)據(jù)治理B、AI市場(chǎng)C、可視化工作流D、自動(dòng)學(xué)習(xí)參考答案:ABCD81.關(guān)于有向圖模型,說(shuō)法正確的時(shí)()A、有向圖又稱為貝葉斯網(wǎng)絡(luò)或者信念網(wǎng)絡(luò)B、網(wǎng)絡(luò)中的邊用有向箭頭表示子節(jié)點(diǎn)依賴于父節(jié)點(diǎn)C、變量之間的關(guān)系通過(guò)箭頭對(duì)變量進(jìn)行了某種"拓?fù)?D、在排序條件下,每個(gè)節(jié)點(diǎn)都只依賴和它直接相連的父節(jié)點(diǎn),而不依賴與所有的前輩節(jié)點(diǎn)參考答案:ABCD82.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不正確的()A、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的B、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的C、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了參考答案:ABD83.關(guān)于連接主義,描述正確的是A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、產(chǎn)生在20實(shí)際50年代C、又稱為仿生學(xué)派D、深度學(xué)習(xí)屬于連接主義參考答案:ABCD84.關(guān)于Python字典中,正確的是A、可以使用has_key()方法來(lái)檢驗(yàn)一個(gè)鍵值對(duì)是否存在&B、可以使用字典對(duì)象的values()方法可以返回字典的"值"C、可以使用字典對(duì)象的keys()方法可以返回字典的"鍵"&D、可以使用字典對(duì)象的items()方法可以返回字典的"鍵-值對(duì)"&參考答案:ABCD85.關(guān)于OLAP和OLTP的區(qū)別描述,正確的是?A、OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù)、它與OTAP應(yīng)用程序不同B、與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù)、C、OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高、D、OLAP是以數(shù)據(jù)倉(cāng)庫(kù)為基礎(chǔ)的,但其最終數(shù)據(jù)來(lái)源與OLTP一樣均來(lái)自底層的數(shù)據(jù)庫(kù)系統(tǒng),兩者面對(duì)的用戶是相同的、參考答案:ABD86.根據(jù)整數(shù)和實(shí)數(shù),可以將數(shù)值變量分為()。A、連續(xù)數(shù)值變量B、離散數(shù)值變量C、順序數(shù)值變量D、名詞性變量E、順序變量參考答案:AB87.高算力服務(wù)器適用于哪些場(chǎng)景?A、科學(xué)計(jì)算B、大型游戲開(kāi)發(fā)C、企業(yè)辦公自動(dòng)化D、人工智能研發(fā)E、個(gè)人網(wǎng)頁(yè)瀏覽參考答案:ABD88.非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()A、低秩逼近B、隨機(jī)傅里葉特征C、隨機(jī)分布D、采樣參考答案:ABD89.對(duì)現(xiàn)階段人工智能成功的關(guān)鍵要素漣漪效應(yīng)描述正確的是A、為了達(dá)成漣漪效應(yīng),必須盡可能的獲取產(chǎn)品中的各種數(shù)據(jù);B、漣漪效應(yīng)通過(guò)記錄產(chǎn)品中生成各類數(shù)據(jù),并將這些數(shù)據(jù)用于優(yōu)化機(jī)器模型;C、必須將收集到的原始數(shù)據(jù)全部進(jìn)行高成本的精細(xì)標(biāo)注,加入到模型訓(xùn)練中去,才能實(shí)現(xiàn)漣漪效應(yīng);D、搜索引擎中的用戶點(diǎn)擊記錄也是實(shí)現(xiàn)漣漪效應(yīng)的一種方式參考答案:ABD90.電力系統(tǒng)缺陷識(shí)別是深度學(xué)習(xí)在電力系統(tǒng)應(yīng)用中的一個(gè)重要組成部分,下列屬于電力系統(tǒng)缺陷識(shí)別所面臨的挑戰(zhàn)的是()。A、缺陷尺度跨度較大,小缺陷識(shí)別精度低B、樣本背景復(fù)雜,角度多變,相互遮擋C、樣本數(shù)量過(guò)多,難以篩選D、不同缺陷樣本分布不平衡,低概率缺陷樣本難收集參考答案:ABD91.電力行業(yè)中圖像識(shí)別技術(shù)的主要應(yīng)用包括()。A、輸電線路巡檢B、服務(wù)系統(tǒng)智能問(wèn)答C、變電站巡檢D、設(shè)備運(yùn)行監(jiān)測(cè)參考答案:ACD92.大模型相較于傳統(tǒng)模型具有哪些特征?A、規(guī)??蓴U(kuò)展性強(qiáng)B、多任務(wù)適應(yīng)性強(qiáng)C、能力可塑性強(qiáng)D、訓(xùn)練速度快參考答案:ABC93.常用的數(shù)據(jù)歸約方法有()。A、類歸約B、維歸約C、值歸約D、量歸約參考答案:BC94.常見(jiàn)的聚類算法有()。A、分層(Hierarchical)聚類B、兩步(TwoStep)聚類C、KohonennetworkD、KNN算法E、K平均值(K-means)算法參考答案:ABCE95.產(chǎn)生式系統(tǒng)的組成部分包括()A、綜合數(shù)據(jù)庫(kù)B、控制策略C、狀態(tài)空間D、規(guī)則集參考答案:ABD96.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?A、多個(gè)變量其實(shí)有相同的用處B、變量對(duì)于模型的解釋有多大作用C、特征攜帶的信息D、交叉驗(yàn)證參考答案:ACD97.按照不同的輸入劃分,文本自動(dòng)生成可包括A、文本到文本的生成B、音頻到文本的生成C、傳感器數(shù)據(jù)到文本的生成D、圖像到文本的生成參考答案:ABCD98.Yarn架構(gòu)在Hadoop生態(tài)圈中有哪些作用?A、隔離B、調(diào)度C、計(jì)算D、資源分配參考答案:ABD99.python中常用模塊有()。A、randomB、jsonC、datetimeD、sys參考答案:ABCD100.One-hot獨(dú)熱編碼有哪些特點(diǎn)?A、特征稠密B、詞之間相互獨(dú)立,沒(méi)有順序關(guān)系C、特征稀疏D、不能表征詞與詞之間的關(guān)系,one-hot之間正交參考答案:BCD101.Matplotlib庫(kù)中pyplot的基礎(chǔ)圖標(biāo)函數(shù)包括()。A、plt、stem(x,y,linefmt,markerfmt)B、plt、barh(width,bottom,left,height)C、plt、cohere(x,y,NFFT=256,F(xiàn)s)D、plt、bar(left,height,width,bottom)參考答案:ABCD102.linux支持的文件系統(tǒng)有?A、ext3B、ext4C、ntfsD、vfat參考答案:ABCD103.faster-rcnn網(wǎng)絡(luò)每個(gè)位置生成哪幾種比例的anchor?A、2比2B、2比1C、1比1D、1比2參考答案:BCD104.f(x+y)=f(x)+f(y),則關(guān)于f(x)不正確的是()。A、偶函數(shù)B、非奇非偶函數(shù)C、奇偶性不確定D、奇函數(shù)參考答案:ABC105.EM算法每次迭代包括哪些步驟?A、求方差B、求期望C、求標(biāo)準(zhǔn)差D、求極大值參考答案:BD106.BP神經(jīng)網(wǎng)絡(luò)的流程:A、對(duì)某個(gè)輸入從輸入層沿網(wǎng)絡(luò)傳播到輸出層B、從輸出層開(kāi)始從后向前計(jì)算每個(gè)單元的deltaC、計(jì)算該輸入對(duì)每個(gè)權(quán)值梯度的貢獻(xiàn)D、所有輸入對(duì)梯度的貢獻(xiàn)求和得到總梯度,根據(jù)學(xué)習(xí)率來(lái)改變?cè)瓉?lái)的權(quán)值,完成了權(quán)值的一次修改參考答案:ABCD107.ASIC芯片的優(yōu)勢(shì)包括()。A、通用性強(qiáng)B、高性能C、低功耗D、小體積參考答案:BCD108.21世紀(jì)新興的技術(shù)有()。A、云計(jì)算B、計(jì)算機(jī)C、大數(shù)據(jù)D、物聯(lián)網(wǎng)參考答案:ACD109.《新一代人工智能倫理規(guī)范》提出了增進(jìn)人類福祉、()、提升倫理素養(yǎng)等基本倫理要求。A、促進(jìn)公平公正B、強(qiáng)化責(zé)任擔(dān)當(dāng)C、保護(hù)隱私安全D、確??煽乜尚艆⒖即鸢福篈BCD110.()類型的數(shù)據(jù)集不適合用深度學(xué)習(xí)?
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年心理診斷技術(shù)考試題庫(kù)及一套答案
- 2026廣東佛山南海區(qū)西樵鎮(zhèn)樵北中學(xué)招聘一名筆試備考試題及答案解析
- 2026年心理品格考試題庫(kù)及完整答案一套
- 2026四川內(nèi)江市隆昌市發(fā)展和改革局招聘2人筆試備考題庫(kù)及答案解析
- 2026年新疆輕工職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)技能測(cè)試題庫(kù)附答案
- 2026年濰坊保密知識(shí)網(wǎng)上測(cè)試題及完整答案1套
- 2026年成都工貿(mào)職業(yè)技術(shù)學(xué)院?jiǎn)握芯C合素質(zhì)考試模擬測(cè)試卷附答案
- 2026年廣東省汕尾市單招職業(yè)傾向性測(cè)試模擬測(cè)試卷附答案
- 2025內(nèi)蒙古呼和浩特春華水務(wù)開(kāi)發(fā)集團(tuán)有限責(zé)任公司招聘遞補(bǔ)進(jìn)入體檢考察范圍人員筆試備考題庫(kù)及答案解析
- 2026云南云廣文化傳媒有限公司財(cái)務(wù)人員招聘1人筆試模擬試題及答案解析
- 四川省遂寧市射洪縣九年級(jí)2024-2025學(xué)年(上)期末化學(xué)試卷(含答案)
- 2025-2030中國(guó)器官芯片行業(yè)市場(chǎng)發(fā)展趨勢(shì)與前景展望戰(zhàn)略研究報(bào)告
- 醫(yī)院醫(yī)療保險(xiǎn)費(fèi)用審核制度
- 村衛(wèi)生室醫(yī)療質(zhì)量相關(guān)管理制度
- 非遺傳承人激勵(lì)機(jī)制探索-深度研究
- 中小學(xué)校園中匹克球推廣策略與實(shí)踐研究
- 2024年世界職業(yè)院校技能大賽高職組“體育活動(dòng)設(shè)計(jì)與實(shí)施組”賽項(xiàng)考試題庫(kù)(含答案)
- 高中地理選擇性必修一(湘教版)期末檢測(cè)卷02(原卷版)
- 滬教版九年級(jí)化學(xué)上冊(cè)(上海版)全套講義
- 三角函數(shù)圖像變化課件
- 《內(nèi)存條知識(shí)培訓(xùn)》課件
評(píng)論
0/150
提交評(píng)論