版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
華為ICT大賽2025-2026中國(guó)區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論考試題(附答案)單選題1.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個(gè)像素在空間上存在什么鄰接關(guān)系?()A、不存在鄰接關(guān)系B、對(duì)角鄰接2.最近網(wǎng)絡(luò)上爆紅的一款軟件可以通過(guò)拍照后,將真實(shí)場(chǎng)景轉(zhuǎn)變供參考?A(GenerativeAdversarialNetworksforP3.自動(dòng)車險(xiǎn)定損場(chǎng)景中,用戶依次上傳車輛的全景照片、受損部位照片以及受損部位細(xì)節(jié)照片,然后定損系統(tǒng)通過(guò)所上傳圖片的A、語(yǔ)音合成和處理技術(shù)值?()D、插值法A、指定輸入維度D、指定網(wǎng)絡(luò)優(yōu)化器D、權(quán)值初始化10.在調(diào)用語(yǔ)音合成服務(wù)時(shí),需要提前設(shè)置一些參數(shù)值,下列哪個(gè)范圍的值可以作為音量值?C、空字符12.在使用ATC(AscendTensorCompler)進(jìn)行模型轉(zhuǎn)換時(shí)可以配置AIPP,支持兩種模式,動(dòng)態(tài)和靜態(tài),其中動(dòng)態(tài)AIPP可在根據(jù)業(yè)務(wù)要求改變預(yù)處理參數(shù)的情況下使用,以下那個(gè)場(chǎng)景需要使用動(dòng)態(tài)AIPP?A、輸入的圖片格式需要兼容YUV420和RGB等。B、輸入的圖片分辨率不確定。C、輸入圖片的batch大小不確定。D、輸入的圖片明暗度不一致。13.在昇騰AI軟件棧中,MindStudio屬于以下哪一種類別?A、管理運(yùn)維工具B、全流程開(kāi)發(fā)工具鏈C、異構(gòu)計(jì)算架構(gòu)D、深度學(xué)習(xí)框架14.在深度學(xué)習(xí)領(lǐng)域中,以下哪一項(xiàng)不是優(yōu)化器的作用?()A、減小超參數(shù)設(shè)置難度,主要是LearningRate(LR)B、尋找最優(yōu)超參數(shù)C、加快算法收斂速度D、緩解算法擴(kuò)散速度15.在全連接結(jié)構(gòu)中,使用一個(gè)包含1000個(gè)神經(jīng)元的隱藏層處理一張100*100分辨率的圖片,不考慮偏置項(xiàng),以下哪一項(xiàng)是正確的參數(shù)量?以下關(guān)于過(guò)擬合和欠擬合現(xiàn)象描述正確的是哪一項(xiàng)?()B、欠擬合指的是模型在訓(xùn)練時(shí)表現(xiàn)很好,預(yù)測(cè)時(shí)表現(xiàn)很差的情C、過(guò)擬合是指模型對(duì)于訓(xùn)練數(shù)據(jù)擬合不充分的情況。D、欠擬合指的是模型在訓(xùn)練和預(yù)測(cè)時(shí)表現(xiàn)都很好的情況。17.在邏輯回歸中,加入L1范數(shù),會(huì)產(chǎn)生什么效果?()A、可以做特征選擇B、能加快計(jì)算速度C、可以獲得更準(zhǔn)確的結(jié)果D、可以減小訓(xùn)練誤差18.在交通執(zhí)法的車輛檢測(cè)場(chǎng)景中,對(duì)違章車輛的罰寧可漏報(bào),不要誤報(bào),以免產(chǎn)生錯(cuò)誤的罰款,這需要系統(tǒng)的哪個(gè)指示很高?A、召回率B、置信度C、精度D、正確率19.在華為云EI中哪一項(xiàng)是面向開(kāi)發(fā)者的一站式AI開(kāi)發(fā)力,幫助用戶快速創(chuàng)建和部署模型,管理全周期AI工作流?A、落在分割平面上的點(diǎn)23.用一個(gè)3*3的卷積核對(duì)一幅三通道彩色圖像進(jìn)行卷積,要學(xué)檔有畸變.可以求出()個(gè)對(duì)應(yīng)關(guān)鍵點(diǎn)坐標(biāo),對(duì)圖像進(jìn)行()變換,將文檔圖像修正.()25.用兩個(gè)3x3的卷積核對(duì)一副三通道的彩色圖像進(jìn)卷積,得到的特征圖有幾個(gè)通道?()26.用戶自定義超參可以在ModelArts訓(xùn)練作業(yè)的哪個(gè)字段設(shè)置?A、資源池B、運(yùn)行參數(shù)C、計(jì)算節(jié)點(diǎn)個(gè)數(shù)D、算法來(lái)源參考答案:B27.以下在深度學(xué)習(xí)全流程描述中關(guān)于數(shù)據(jù)集的補(bǔ)充,正確的是哪一項(xiàng)?在模型訓(xùn)練中,需要遍歷(1)進(jìn)行訓(xùn)練,在訓(xùn)練過(guò)程中,可以邊訓(xùn)練,邊在(2)上進(jìn)行初步評(píng)估,方便及時(shí)發(fā)現(xiàn)模型或者參數(shù)的問(wèn)題。訓(xùn)練完成后,使用訓(xùn)練好的模型,在(3)上評(píng)估效果。A、1.驗(yàn)證集2.訓(xùn)練集3.測(cè)試集B、線性回歸A、狀態(tài)集合37.以下哪一項(xiàng)是在標(biāo)準(zhǔn)RNN結(jié)構(gòu)中的隱藏層中使用的激活函39.以下哪一項(xiàng)技術(shù)常用于圖像特征提取研究領(lǐng)域?A、Word2Vec技術(shù)B、樸素貝葉斯分類算法C、卷積神經(jīng)網(wǎng)絡(luò)D、長(zhǎng)短周期記憶網(wǎng)絡(luò)參考答案:C40.以下哪一項(xiàng)激活函數(shù)經(jīng)常用作分類任務(wù)的輸出層42.以下哪一項(xiàng)不屬于壓縮人工智能模型體積的方法?A、緊湊網(wǎng)絡(luò)設(shè)計(jì)B、低秩近似C、網(wǎng)絡(luò)量化D、減小有效數(shù)據(jù)量參考答案:D43.以下哪一項(xiàng)不屬于IindRT子系統(tǒng)的功能特性?A、算子同步、異構(gòu)執(zhí)行,多流并發(fā)。B、內(nèi)存池化管理,高效內(nèi)存復(fù)用。C、支持多種硬件設(shè)置的調(diào)度管理D、支持端、云多種設(shè)備形態(tài)要求。44.以下哪一個(gè)選項(xiàng)不屬于AI計(jì)算復(fù)雜性特點(diǎn)?A、混合精度計(jì)算B、數(shù)據(jù)和計(jì)算并行C、通信和計(jì)算并行D、結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)并行45.以下哪一個(gè)選項(xiàng)不是HiQ量子計(jì)算云平臺(tái)的亮點(diǎn)?A、無(wú)需編程即可完成計(jì)算任務(wù)B、簡(jiǎn)單易用C、功能豐富D、提供豐富的教程文檔E、追求簡(jiǎn)單易用的用戶體驗(yàn)(選項(xiàng)F、以及擁有多樣化的功能以滿足不同用戶的需求(選項(xiàng)G、。而“無(wú)需編程即可完成計(jì)算任務(wù)”(選項(xiàng)H、雖然是一個(gè)理想化的特點(diǎn),但在當(dāng)前的量子計(jì)算云平臺(tái)中,由于量子計(jì)算的復(fù)雜性和專業(yè)性,通常還是需要一定的編程知識(shí)來(lái)完成計(jì)算任務(wù)。因此,選項(xiàng)C不是HiQ量子計(jì)算云平臺(tái)的亮點(diǎn),是正確答案。46.以下哪一個(gè)概念是用來(lái)計(jì)算復(fù)合函數(shù)的導(dǎo)數(shù)?()A、微積分中的鏈?zhǔn)浇Y(jié)構(gòu)B、硬雙曲正切函數(shù)D、勁向基函數(shù)參考答案:A47.以下哪個(gè)選項(xiàng)屬于自然語(yǔ)言處理技術(shù)的三個(gè)層面?A、詞法分析B、分辨率分析C、語(yǔ)義分割D、音律分析48.以下哪個(gè)選項(xiàng)是華為的人工智能計(jì)算平臺(tái)?()B、華為云EI49.以下哪個(gè)選項(xiàng)是華為Atlas系列芯片采用的架構(gòu)?()50.以下哪個(gè)選項(xiàng)是AI芯片業(yè)務(wù)從應(yīng)用上的分類?()B、加速和訓(xùn)練C、訓(xùn)練和推理52.以下哪個(gè)選項(xiàng)不屬于ModelArts的特點(diǎn)?()B、支持模型管理C、支持自動(dòng)調(diào)優(yōu)D、內(nèi)置多個(gè)模型53.以下哪個(gè)選項(xiàng)不屬于LSTM?A、遺忘門(mén)B、輸入門(mén)C、記憶門(mén)D、輸出門(mén)54.以下哪個(gè)選項(xiàng)不是在自然語(yǔ)言處理發(fā)展過(guò)程中的方法?()A、基于統(tǒng)計(jì)的方法B、基于規(guī)則的方法C、基于深度學(xué)習(xí)的方法D、基于遞歸的方法55.以下哪個(gè)網(wǎng)絡(luò)是一種處理時(shí)序數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用于語(yǔ)音識(shí)別、機(jī)器翻譯等領(lǐng)域?A、前饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、對(duì)抗神經(jīng)網(wǎng)絡(luò)56.以下哪個(gè)激活函數(shù)可以很好的緩解梯度消失問(wèn)題?57.以下哪個(gè)概念是用于計(jì)算復(fù)合函數(shù)的導(dǎo)數(shù)。A、徑向基函數(shù)C、微積分中的鏈?zhǔn)椒▌tD、硬雙曲正切函數(shù)58.以下哪個(gè)不是文本向量化的常用方法?59.以下哪個(gè)不是Mindspore常用的Operation?參考答案:A60.以下列哪一項(xiàng)不屬于語(yǔ)音識(shí)別場(chǎng)景的應(yīng)用?A、會(huì)議記錄D、人臉識(shí)別61.以下關(guān)于支持向量機(jī)的描述中,哪一項(xiàng)是錯(cuò)誤的?A、支持向量機(jī)是一種分類模型,它的基本模型是定義在特征空間上的間隔最大的線性分類器。B、支持向量機(jī)還包括核技巧,這使它成為實(shí)質(zhì)上的非線性分類C、對(duì)于線性不可分的情況,通過(guò)使用非線性映射算法將低維輸入空間線性不可分的樣本轉(zhuǎn)化到高維特征空間使其線性可分。D、支持向量機(jī)只能解決線性分類問(wèn)題。62.以下關(guān)于輸入緩沖區(qū)的描述,正確的是哪一個(gè)選項(xiàng)?A、降低總線上產(chǎn)生擁堵的風(fēng)險(xiǎn)。B、需要每次都通過(guò)總線接口到AICore的外部進(jìn)行讀取。C、可永久保留需要重復(fù)使用的數(shù)據(jù)D、用來(lái)存放神經(jīng)網(wǎng)絡(luò)中的初始量。63.以下關(guān)于昇騰910AI處理器所適用的產(chǎn)品,錯(cuò)誤的是哪一個(gè)選C、Atlas800AI服務(wù)器D、Atlas300AI加速卡64.以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)的描述中,錯(cuò)誤的是哪一項(xiàng)?A、各層節(jié)點(diǎn)中具有計(jì)算功能的神經(jīng)元,稱為計(jì)算單元,每個(gè)神經(jīng)元只與前一層的神經(jīng)元相連。B、輸入節(jié)點(diǎn)具有計(jì)算功能,不只是為了表征輸入矢量各元素值C、前饋神經(jīng)網(wǎng)絡(luò)是一種最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列。D、多層的感知器屬于前饋神經(jīng)網(wǎng)絡(luò)。參考答案:B65.以下關(guān)于聯(lián)邦學(xué)習(xí)的描述,哪一個(gè)選項(xiàng)是錯(cuò)誤的?A、聯(lián)邦學(xué)習(xí)有助于實(shí)現(xiàn)更安全的數(shù)據(jù)共享。B、聯(lián)邦學(xué)習(xí)原本用于解決安卓手機(jī)終端用戶在本地更新模型的C、聯(lián)邦學(xué)習(xí)的目的在于保證數(shù)據(jù)隱私安全及合法合規(guī)的基礎(chǔ)上,實(shí)現(xiàn)共同建模,提升AI橫型的效果D、聯(lián)邦學(xué)習(xí)最早在2016年由百度公司提出。A、決策樹(shù)容易過(guò)擬合需要剪枝來(lái)縮小樹(shù)的結(jié)構(gòu)和規(guī)模。B、預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。C、ID3算法中都會(huì)進(jìn)行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝。67.以下關(guān)于機(jī)器學(xué)習(xí)中分類模型與回歸模型的說(shuō)法,哪一項(xiàng)說(shuō)法是正確的?A、輸出變量為有限個(gè)離散變量的預(yù)測(cè)問(wèn)題是回歸問(wèn)題;輸出變量為連續(xù)變量的預(yù)測(cè)問(wèn)題是分類問(wèn)題。B、對(duì)回歸問(wèn)題和分類問(wèn)題的評(píng)價(jià),最常用的指標(biāo)都是準(zhǔn)確率和C、回歸問(wèn)題和分類問(wèn)題都有可能發(fā)生過(guò)擬合。D、邏輯回歸是一種典型的回歸模型。參考答案:C68.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是哪個(gè)選項(xiàng)?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系D、以上都不對(duì)69.以下關(guān)于機(jī)器學(xué)習(xí)常見(jiàn)算法的說(shuō)法中,哪一項(xiàng)是錯(cuò)誤的?A、樸素貝葉斯是一種簡(jiǎn)單的分類算法,基于貝葉斯定理,并假設(shè)特征之間是獨(dú)立的。B、隨機(jī)森林對(duì)列采樣引入了隨機(jī)性,因此無(wú)需剪枝也不容易發(fā)C、Xgboost收斂速度快,對(duì)于異常值不敏感。D、SVI的核心思路是找到一條直線,使離直線比較近的點(diǎn),盡可能遠(yuǎn)離這條直線。70.以下關(guān)于共現(xiàn)矩陣+SVD缺點(diǎn)的描述,錯(cuò)誤的是哪—選項(xiàng)?()A、SVD學(xué)到的只是淺層的語(yǔ)義(說(shuō)法正確)B、共現(xiàn)矩陣沒(méi)有考慮詞的順序信息(說(shuō)法正確)C、SVD計(jì)算量較大D、共現(xiàn)矩陣高維稀疏(說(shuō)法正確)參考答案:C71.以下關(guān)于分詞說(shuō)法不正確的是?()A、基于規(guī)則的分詞簡(jiǎn)單高效,但是詞典維護(hù)困難。B、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法。C、統(tǒng)計(jì)分詞的目的就是對(duì)分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最D、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法樹(shù)等其他模塊的72.以下關(guān)于非線性支持向量機(jī)的描述中,哪一項(xiàng)是錯(cuò)誤的?A、高斯核函數(shù)是使用較為頻繁的核函數(shù)。B、使用線性支持向量機(jī)可以很好的作用在線性可分?jǐn)?shù)據(jù)集上,因此非線性支持向量機(jī)效果比較差C、可以使用核函數(shù)來(lái)構(gòu)建非線性支持向量機(jī)。D、核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面73.以下關(guān)于達(dá)芬奇架構(gòu)的描述,錯(cuò)誤的是哪一選項(xiàng)?A、ICore的片上存儲(chǔ)單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲(chǔ)系統(tǒng)。B、控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行。C、計(jì)算單元包含四種基礎(chǔ)計(jì)算資源。D、通過(guò)總線接口單元,將數(shù)據(jù)搬到輸入緩沖區(qū)74.以下關(guān)于詞向量說(shuō)法錯(cuò)誤的是哪一項(xiàng)?A、BERT與ELMo都可以生成動(dòng)態(tài)詞向量。C、原始的Glove方法可以很好的處理未登錄詞問(wèn)題。D、用fastText獲取詞向量能夠考慮子詞級(jí)別信息。參考答案:C75.以下關(guān)于Mindspore子系統(tǒng)的設(shè)計(jì)目標(biāo)的描述,錯(cuò)誤的是哪一A、向用戶提供統(tǒng)一的模型訓(xùn)練,推理和A.導(dǎo)出等接口,滿足端,邊,云等不同場(chǎng)景B、兩層用戶API設(shè)計(jì),支撐用戶進(jìn)行網(wǎng)B.絡(luò)構(gòu)建,整圖執(zhí)行,子圖執(zhí)行1以及單算子執(zhí)行C、單機(jī)和分布式訓(xùn)練統(tǒng)一的編碼方式D、動(dòng)態(tài)圖和靜態(tài)圖差異化編碼方式參考答案:D76.以下方法中屬于特征選擇嵌入法(Embedded)的是哪一項(xiàng)?A、方差B、特征遞歸消除法D、互信息法參考答案:C77.以下對(duì)超參數(shù)學(xué)習(xí)率的作用的描述,正確的是哪一項(xiàng)?A、減少過(guò)擬合C、減少偏差78.以下不屬于隱馬爾科夫模型在語(yǔ)音識(shí)別中應(yīng)用的是?()A、計(jì)算輸出序列D、根據(jù)標(biāo)簽形成詞和句子79.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式80.以下不是語(yǔ)音特征提取方法的是?()81.一副照片在存放過(guò)程出現(xiàn)了很多小的噪點(diǎn),對(duì)其掃描件進(jìn)行哪個(gè)操作的去噪效果最好?A、拉普拉斯濾波B、高斯濾波C、中值濾波D、均值濾波參考答案:C82.一副8位的RGB彩色圖像中,其中(255,255,255)代表什么顏色?參考答案:A83.循環(huán)神經(jīng)網(wǎng)絡(luò)不適合用于以下哪種場(chǎng)景?A、情感分析B、圖像分類C、語(yǔ)音識(shí)別D、機(jī)器翻譯參考答案:B84.線性回歸在3維以上的維度中擬合面是?D、超曲面品86.下圖中,像素點(diǎn)p和s之間的棋盤(pán)距離是?88.下面哪一個(gè)模板可以實(shí)現(xiàn)圖像的銳化()參考答案:A92.下列哪一項(xiàng)不屬于深度學(xué)習(xí)中常用的優(yōu)化器?93.下列哪個(gè)不是tensorFlow中的元素?參考答案:B95.我們目前所實(shí)現(xiàn)的人工智能技術(shù)處于以下哪一個(gè)階段?A、強(qiáng)人工智能B、單人工智能C、多維多元人工智能D、弱人工智能96.我們常說(shuō)對(duì)720P的視頻格式,720代表什么?()A、視頻的幀率B、圖像分辨率的高度C、圖像分辨率的寬度D、視頻的灰度級(jí)97.圖像中的目標(biāo)相對(duì)中心位置偏右了15個(gè)像素,可使用下面哪種平移量的平移坐標(biāo)變換,將目標(biāo)移動(dòng)到畫(huà)面中心?()參考答案:D98.圖像識(shí)別任務(wù)可以分為三個(gè)層次,根據(jù)處理內(nèi)容的抽象性,從低到高依次為?A、圖像處理,圖像分析,圖像理解B、圖像分析,圖像理解,圖像處理A、用橢圓框住目標(biāo)100.圖像分類主要依據(jù)?()A、顏色B、形狀D、圖像大小A、真實(shí)性B、幻覺(jué)A、圖像預(yù)處理——圖像識(shí)別——人臉檢測(cè)B、人臉識(shí)別——圖像預(yù)處理——圖像檢測(cè)C、圖像預(yù)處理——目標(biāo)檢測(cè)——人臉識(shí)別D、圖像預(yù)處理——人臉識(shí)別——人臉?lè)指顓⒖即鸢福篊103.數(shù)據(jù)管理中的物體檢測(cè)作業(yè)如何標(biāo)注?A、給圖片輸入類別標(biāo)簽B、用矩陣框住目標(biāo)C、用橢圓框住目標(biāo)D、用圓形框住目標(biāo)104.數(shù)據(jù)管理中的物體檢測(cè)作業(yè)不能通過(guò)以下哪種方式進(jìn)行標(biāo)注?A、用橢圓框住目標(biāo)B、用圓形框住目標(biāo)C、用多邊形框出目標(biāo)D、用矩形框住目標(biāo)105.輸入一個(gè)32x32的圖像,用大小為5x5的卷積核進(jìn)行做步長(zhǎng)為一的卷積計(jì)算,輸出的圖像尺寸為以下哪個(gè)選項(xiàng)?106.使用梯度下降法的目的是什么?A、尋找標(biāo)簽值B、改變模型結(jié)構(gòu)C、優(yōu)化參數(shù)D、預(yù)測(cè)結(jié)果參考答案:C值型連續(xù)數(shù)據(jù),以下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型C、離散值和分類模型D、連續(xù)數(shù)值和回歸模型108.使用MindSpore執(zhí)行圖片中的代碼時(shí),以下哪一項(xiàng)是這段代碼的正確輸出結(jié)果?Tensor=Tensor(np.array([[0,1],[2,3]]).astype參考答案:D109.昇騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?C、AI計(jì)算引擎D、芯片系統(tǒng)控制CPU參考答案:B110.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語(yǔ)義分割C、信息檢索D、圖像生成參考答案:D111.人臉識(shí)別案例中,使用的是哪種神經(jīng)網(wǎng)絡(luò)()112.哪個(gè)統(tǒng)計(jì)分析圖標(biāo),用于分析用戶轉(zhuǎn)化的瓶頸?()A、用戶日活B、崩潰趨勢(shì)C、渠道分析D、路徑漏斗模型參考答案:D113.某企業(yè)在使用MindSpore構(gòu)建AI應(yīng)用后,又想和合作伙伴共享數(shù)據(jù)進(jìn)一步增加模型的準(zhǔn)確度但是數(shù)據(jù)需要保密不能直接提供他們可以通過(guò)以下哪個(gè)工具解決這個(gè)問(wèn)題?114.某機(jī)器學(xué)習(xí)模型對(duì)訓(xùn)練集的準(zhǔn)確率很高,但對(duì)測(cè)試集則效果不佳,其原因可能是以下哪一項(xiàng)?B、過(guò)擬合C、參數(shù)計(jì)少D、機(jī)器性能問(wèn)題115.某公司希望可以根據(jù)用戶昵稱自動(dòng)為用戶生成頭像,可以選擇以下哪個(gè)模型實(shí)現(xiàn)?116.某公司辦公樓準(zhǔn)入系統(tǒng)用來(lái)識(shí)別待進(jìn)人員的所屬部門(mén),該公司共有六個(gè)不同的部門(mén),適合此種應(yīng)用需求的學(xué)習(xí)方法是以下哪一種?A、二分類問(wèn)題B、多分類問(wèn)題C、聚類問(wèn)題D、回歸問(wèn)題117.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問(wèn)題,那么該公司可以使用以下哪一種EI服務(wù)?A、園區(qū)智能體B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪A、新協(xié)作方式119.面對(duì)超大規(guī)模模型需要實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn),MindSpore的處理方式為?A、自動(dòng)并行C、手動(dòng)并行B、每一個(gè)卷積核在追歷整個(gè)圖像的時(shí)候,卷積核的參數(shù)是固定C、圖像的空間聯(lián)系是局部像素較為緊密,而距離較遠(yuǎn)的像素相的B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法服務(wù)的具體流程正確的是?A、申請(qǐng)服務(wù)一獲取請(qǐng)求認(rèn)證一調(diào)用API一查看服務(wù)使用信息B、申請(qǐng)服務(wù)一調(diào)用API-獲取請(qǐng)求認(rèn)證一查看服務(wù)使用信息C、獲取請(qǐng)求認(rèn)證一申請(qǐng)服務(wù)一調(diào)用API一查看服務(wù)使用信息D、獲取請(qǐng)求認(rèn)證一申請(qǐng)服務(wù)一查看服務(wù)使用信息一調(diào)用API126.華為云API符合RESTful的設(shè)計(jì)規(guī)范,以下哪個(gè)選項(xiàng)不視疲勞。這項(xiàng)功能可以通過(guò)調(diào)整顯示圖像的()實(shí)現(xiàn)。C、飽和度B、圖像采集→>圖像預(yù)改處理→>特征提取—>圖像識(shí)別130.關(guān)于CBOW與Skip-Gram算法。以下說(shuō)法不正確的是?A、CBOW是根據(jù)某個(gè)詞然后分別計(jì)算它前后幾個(gè)詞的各個(gè)概B、無(wú)論是CBOW模型還是Skip-gram模型。都是以Huffman樹(shù)作為基礎(chǔ)的。C、BOW和Skip-gram都是可以訓(xùn)練詞向量的方法。D、CBOW是根據(jù)某個(gè)詞前面的n個(gè)詞或者前后n個(gè)連續(xù)的詞,來(lái)計(jì)算某個(gè)詞出現(xiàn)多現(xiàn)的概率。131.根據(jù)美國(guó)汽車工程師協(xié)會(huì)(SA.E)將自動(dòng)駕駛按照車輛行駛對(duì)于系統(tǒng)依賴程度分為哪些級(jí)別?132.高斯混合模型在語(yǔ)音識(shí)別中的作用是?()A、表示因素之間的概率轉(zhuǎn)移B、用來(lái)表示一個(gè)音素的多維數(shù)值分布C、用來(lái)區(qū)分不同的音素133.感知機(jī)的結(jié)構(gòu)是模擬以下哪種生物結(jié)構(gòu)?()B、神經(jīng)元C、眼睛D、耳朵134.符號(hào)主義的落腳點(diǎn)主要體現(xiàn)在哪里?A、落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、落腳點(diǎn)在推理,符號(hào)推理與機(jī)器推理。C、落腳點(diǎn)在感知和行動(dòng)。D、落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算。135.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以下哪項(xiàng)關(guān)于其算法步驟是正確的?A、先反向傳播計(jì)算出誤差,再正向傳播計(jì)算梯度B、只有反向傳播計(jì)算輸出結(jié)果。C、只有反向傳播計(jì)算梯度D、先正向傳播計(jì)算出誤差,再反向傳播計(jì)算梯度。136.反向傳播算法的做法是:計(jì)算之后將其進(jìn)行反向傳播。以下哪一項(xiàng)為空白處的正確內(nèi)容?A、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對(duì)137.對(duì)遠(yuǎn)程真機(jī)的描述正確的是?A、遠(yuǎn)程真機(jī)提供了華為最新最全的機(jī)型B、使用遠(yuǎn)程真機(jī)是危險(xiǎn)的,可能導(dǎo)致病毒C、一個(gè)用戶同時(shí)可以并發(fā)使用多臺(tái)遠(yuǎn)程真機(jī)D、可以無(wú)限時(shí)間的占用遠(yuǎn)程真機(jī)4鄰域,以下哪一項(xiàng)能夠正確表示該4鄰域的坐標(biāo)?139.代碼model.fit(mnist.train.in中的epochs參數(shù)代表?A、全體訓(xùn)練集將被訓(xùn)練5次B、全體測(cè)試集將被測(cè)試5次C、全體訓(xùn)練集將被分為6份D、全體訓(xùn)練集將被分為5份140.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯(cuò)誤的是哪一項(xiàng)?A、CPU的功能主要是解釋計(jì)算機(jī)指令以及處理計(jì)算機(jī)硬件中的B、FPGA實(shí)現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門(mén)在個(gè)人電腦、工作站,游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器。141.詞袋模型是最早的以詞語(yǔ)為基本處理單元的文本向量化方法。以下哪個(gè)選項(xiàng)不是TF-IDF的缺陷?A、維度災(zāi)難B、存在語(yǔ)義鴻溝C、無(wú)法保留次序信息D、沒(méi)有基于分布假說(shuō)般是一個(gè)多少維度的向量?143.測(cè)試誤差會(huì)隨著模型復(fù)雜度的上升不斷誠(chéng)小。()144.參數(shù)合成方法最大的問(wèn)題是?()145.不屬于語(yǔ)音聲學(xué)特征的是?()B、語(yǔ)義D、振幅C、權(quán)重D、隱藏層147.X=Tensor(np.array([[1,2],[3,4]]),32)在MindSA、修改tensor的維度B、創(chuàng)建tensorC、刪除tensorD、創(chuàng)建ndarray148.Tensorflow是下面哪家公司開(kāi)源的第二代用于數(shù)字計(jì)算的軟A、華為C、微軟D、谷歌149.TensorFlow2.0中可用于張量合并的方法有?參考答案:C150.TensorFlow2.0中查看張量維度的方法是?B、keras內(nèi)置優(yōu)化器C、keras模型部署工具D、Keras生成模型工具152.Tensorboard是什么()A、MXNet官方提供的深度學(xué)習(xí)可視化工具B、ModelArts自研的可視化工具C、Python提供的可視化工具包D、TensorFlow官方提供的深度學(xué)習(xí)可視化工具A、百度參考答案:C154.Pytorch是常見(jiàn)的機(jī)器學(xué)習(xí)計(jì)算框架,基于Torch,用于自然語(yǔ)言處理等應(yīng)用程序,以下哪種語(yǔ)言是Torch采用的編程語(yǔ)言?155.MoXing的自動(dòng)超參搜索功能的作用是什么()A、提供手動(dòng)調(diào)參的指導(dǎo)C、自動(dòng)搜索初最優(yōu)的學(xué)習(xí)率B、命名識(shí)別A、圖像分類B、物體檢測(cè)C、圖像分割159.ModelArts數(shù)據(jù)管理功能對(duì)應(yīng)深度學(xué)習(xí)開(kāi)發(fā)流程中的哪個(gè)部B、代碼調(diào)試160.ModelArts是一款華為發(fā)布的僅僅支持自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注的一站式AI開(kāi)發(fā)平臺(tái)。關(guān)于上述描述,以下哪一個(gè)說(shuō)法是正確A、該描述正確自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注是最重要的功能161.ModelArts開(kāi)發(fā)環(huán)境的作用是什么()A、訓(xùn)練的對(duì)象可以直接執(zhí)行以下說(shuō)法有誤的是?A、還有一些optim常用優(yōu)化器,wrap常用網(wǎng)絡(luò)包裝函數(shù)等與定義沒(méi)有語(yǔ)法限制,C、Bprop(可選)自定義模塊的方向等組件,進(jìn)行初始化的校驗(yàn)。166.Mindspore提供了自動(dòng)對(duì)圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)現(xiàn)算子的自動(dòng)選擇和執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?A、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)B、基于概率的自動(dòng)數(shù)據(jù)增強(qiáng)C、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)D、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)167.Mindspore深度學(xué)習(xí)框架可以支持動(dòng)態(tài)圖和靜態(tài)圖模式,下列哪一項(xiàng)是Mindspore靜態(tài)圖的設(shè)置代碼?(getal1=False,getbyist=False.se碼的描述中,正確的是哪一項(xiàng)?A、get_a11為False時(shí),會(huì)對(duì)所有輸入求導(dǎo)。B、sens_param對(duì)網(wǎng)絡(luò)的輸出值做縮放以改變最終梯度。D、GradOperation方法在梯度下降和反向傳播中沒(méi)有任何用處。169.Mary想將訓(xùn)練好的模型部署上線,她可以使用以下哪個(gè)服務(wù)?170.John自己編寫(xiě)了一個(gè)人工智能計(jì)算框架,其中部分算子不適配昇騰芯片,則John需要如何操作來(lái)解決這個(gè)問(wèn)題?A、通過(guò)CANN(ComputeArchitectureforneuralnetwork)中的已有算子進(jìn)行適配。B、通過(guò)適配層,完成不同框架的圖到FE(FusionEngine)IRGraphC、通過(guò)TBE(TensorBoostEngine),完成不同框架的算子到昇騰算子的映射。D、通過(guò)ATC(AscendTensorCompiler)完成算子轉(zhuǎn)換。參考答案:C171.John在使用模型生成文本時(shí),發(fā)現(xiàn)模型會(huì)產(chǎn)生不準(zhǔn)確、無(wú)關(guān)或虛構(gòu)的信息,這是模型的什么特性?A、涌現(xiàn)B、真實(shí)性D、可解釋性172.John在使用MindSpore練續(xù)里的時(shí)候保存了一個(gè)ckpt格式的檢查點(diǎn),然后他發(fā)現(xiàn)這種格式無(wú)法直接在昇騰310芯片上進(jìn)行推理使用,為了可以利用當(dāng)前模型在昇騰310處理器完成推理,以下選項(xiàng)中哪種做法是正確的?A、使用MindSpore加載當(dāng)前檢查點(diǎn)文件,然后導(dǎo)出為OM格式,即可在昇騰310處理器上進(jìn)行推理。B、使用Mindspore加載當(dāng)前檢查點(diǎn)文件,然后導(dǎo)出為AIR格式,隨后使用ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。C、將ckpt格式文件的后綴名修改為AlR,隨后使用ATC (AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。D、多查閱官方文檔,ckpt格式文件可以直接在昇騰310處理器上參考答案:B173.John在查看CANN(ComputeAarchitectureforNeuralNetwork)的功能介紹時(shí)發(fā)現(xiàn)有TBE(TensorBoostEngine)子系統(tǒng),其中有一個(gè)調(diào)度模塊,那么這個(gè)模塊的作用是什么?A、生成類字節(jié)碼的與硬件無(wú)關(guān)的代碼,可以被網(wǎng)絡(luò)模型直接加B、用于描述指定shape下算子如何在昇騰Al處理器上進(jìn)行切分C、提供算子邏輯的編寫(xiě)的接口(Compute接口),使用接口來(lái)編D、對(duì)生成的IR進(jìn)行編譯優(yōu)化。174.John目前正在規(guī)劃建設(shè)數(shù)據(jù)中心,以下哪個(gè)系統(tǒng)或設(shè)備是他在L2建設(shè)時(shí)需要考慮的?A、供電系統(tǒng)B、設(shè)備組網(wǎng)C、云管理平臺(tái)D、制冷系統(tǒng)175.John編寫(xiě)了運(yùn)行在昇騰芯片上的推理應(yīng)用,其中圖像預(yù)處理部分使用OpenCV編寫(xiě),而昇騰AI芯片上有專門(mén)用于圖像預(yù)處理的硬件模塊,可以提高圖像預(yù)處理效率,這個(gè)模塊是什么?176.HUAWEIHiAI平臺(tái)支持與哪一個(gè)工具集成?177.GRU特有的門(mén)結(jié)構(gòu)是?()A、輸入門(mén)B、輸出門(mén)C、遺忘門(mén)D、更新門(mén)參考答案:D178.FusionDirector為服務(wù)器和華為邊緣設(shè)備統(tǒng)一運(yùn)維管理軟件,以下哪一項(xiàng)不是它的特性?A、為數(shù)據(jù)中心提供硬件精細(xì)化管理能力B、為智算中心提供一站式軟件部署服務(wù)C、為公有云提供大規(guī)模服務(wù)器自動(dòng)化運(yùn)維能力D、為私有云提供一站式硬件管理能力179.CANN(ComputeArchitectureforNeuralNetwork)中包含多個(gè)子系統(tǒng),其中哪個(gè)子系統(tǒng)負(fù)責(zé)對(duì)子圖進(jìn)行優(yōu)化?C、算子適配插件參考答案:B180.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相互獨(dú)立C、后面的模型必須建立在前面的模型之上D、相關(guān)關(guān)系181.Atlas加速AI推理使用的是什么處理器?A、異騰310處理器C、異騰910處理器參考答案:A182.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基于鯤鵬處理器平臺(tái)的參考答案:B183.Atlas200DK所基于的昇騰310芯片主要的應(yīng)用是?A、模型訓(xùn)練B、模型構(gòu)建C、模型推理參考答案:C的4連通通路為()PuQRVTS下哪一個(gè)說(shuō)法是正確的?A、該說(shuō)法錯(cuò)誤是深度學(xué)習(xí)能對(duì)所有的數(shù)據(jù)都可以處理C、該說(shuō)法正確AI對(duì)于數(shù)據(jù)有很的學(xué)習(xí)能力D、該說(shuō)法措誤,需要對(duì)致?lián)M(jìn)行預(yù)處理等操作才可以輸入模型186.“批量推理是對(duì)批量數(shù)據(jù)進(jìn)行推理的批量作業(yè),使用批量推理之前,不需要對(duì)模型進(jìn)行訓(xùn)練。”關(guān)于上述描述,以下哪一個(gè)說(shuō)法是正確的?A、該描述錯(cuò)誤,批量推理不需要訓(xùn)練操作B、該描述錯(cuò)誤,推理之前要對(duì)模型進(jìn)行訓(xùn)練才可以C、該描述正確,推理意味著訓(xùn)練結(jié)束D、該描述正確,批量推理就是不需要再訓(xùn)練了187.“ModelArts是一款華為發(fā)布的僅僅支持自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注的一站式AI開(kāi)發(fā)平臺(tái)?!标P(guān)于上述描述,以下哪一個(gè)說(shuō)法的?A、該描述正確,自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注是最重要的功能。B、該描述正確,自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注可以極大的提升AI項(xiàng)目的D、該描述錯(cuò)誤,ModelArts僅支持自動(dòng)學(xué)習(xí)、自動(dòng)標(biāo)注和代碼調(diào)188.哪個(gè)MindSpore組件幫助實(shí)現(xiàn)“一次訓(xùn)練,多處部署”?()1.自然語(yǔ)言處理是目前比較火熱的領(lǐng)域,其實(shí)現(xiàn)過(guò)程也會(huì)遇到很多問(wèn)題和難點(diǎn),其中命名實(shí)體識(shí)別有哪些難點(diǎn)?A、長(zhǎng)度不確定B、嵌套情況復(fù)雜C、各類命名實(shí)體的數(shù)量眾多D、命名實(shí)體的構(gòu)成規(guī)律復(fù)雜2.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果B、求平均數(shù)C、投票制3.在使用華為云通用文字識(shí)別做實(shí)驗(yàn)時(shí),輸出結(jié)果包含非常多的信息。關(guān)于這些輸出信息,正確的有哪些選項(xiàng)?‘A、輸出信息.中wordsblockcount代表識(shí)別的文字塊數(shù)目。B、輸出信息中的Statuscode表示服務(wù)狀態(tài),200表示訪問(wèn)服務(wù)正C、words_block_list代表識(shí)別文字塊列表,輸出順序從左到右,D、words代表文字塊識(shí)別結(jié)果,location代表文字塊的區(qū)域位置信息,列表開(kāi)形式,包含文字區(qū)域四個(gè)頂點(diǎn)的二維坐標(biāo)Xy)。4.在昇騰AI處理器中,AICore的存儲(chǔ)控制單元可以完成以下哪些操作?A、補(bǔ)零B、轉(zhuǎn)置A、行為主義D、機(jī)器主義A、批次大小B、學(xué)習(xí)率C、優(yōu)化器類型D、損失值C、位置編碼D、前饋網(wǎng)絡(luò)層A、對(duì)文字類數(shù)據(jù)進(jìn)行隨機(jī)刪除C、對(duì)圖片數(shù)據(jù)進(jìn)行裁剪、反轉(zhuǎn)操作9.語(yǔ)音信號(hào)特征提取的方法有哪些?()10.語(yǔ)音合成中的文本分析包括哪些內(nèi)容?()A、缺失補(bǔ)全C、語(yǔ)音分析12.異構(gòu)計(jì)算架構(gòu)CANN包含以下哪些組件?13.以下有關(guān)華為云OCR文字識(shí)別服務(wù)的使用說(shuō)明,以下哪些選項(xiàng)是正確的?A、文字識(shí)別以開(kāi)放API的方式提供給用戶.用戶可以將文字識(shí)別集成到第三方系統(tǒng)調(diào)用APIB、用戶可以在管理控制臺(tái)申請(qǐng)開(kāi)通文字識(shí)別服務(wù),查看服務(wù)的調(diào)用成功和失敗次數(shù)于HTTPS請(qǐng)求的API管理方式D、每次使用服務(wù)都需要申請(qǐng)14.以下算法中屬于有監(jiān)督學(xué)習(xí)中分類算法的是哪些選項(xiàng)?A、決策樹(shù)B、線性回歸C、隨機(jī)森林D、支持向量機(jī)參考答案:ACD15.以下屬于序列標(biāo)注任務(wù)的是()B、中文分詞16.以下屬于文本分析的具體內(nèi)容的是?()B、語(yǔ)音合成A、構(gòu)建子學(xué)習(xí)器C、決策樹(shù)生成18.以下屬于LDA訓(xùn)練過(guò)程的是?()A、初始化22.以下哪些選項(xiàng)屬于神經(jīng)網(wǎng)絡(luò)的激活函數(shù)?()23.以下哪些選項(xiàng)屬于華為產(chǎn)品?()B、升騰310C、升騰91024.以下哪些選項(xiàng)屬于MindSporeLite的特性?27.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?A、優(yōu)化方法A、單通道變化B、對(duì)比度增加C、仿射變化D、直方圖31.以下哪些是隱藏單元?A、Maxout單元B、整流線性單元32.以下哪些是隱藏單元?()A、logisticsigmoid與雙曲正切函數(shù)B、整流線性單元(RELU的另一種翻譯方法)C、Borel單元D、maxout單元33.以下哪些是精度比對(duì)工具的評(píng)估指標(biāo)?()A、歐式距離34.以下哪些是激活函數(shù)設(shè)計(jì)的考慮因素()C、有界性D、單調(diào)性E、平滑性37.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝D.D.K(DeviceD.evelopmentKit)之前需要安裝的?38.以下哪些華為云EI自然語(yǔ)言處理服的API?()40.以下哪幾項(xiàng)屬于MindSpore里的激活函數(shù)算子?41.以下模型偏差和方差之間的組合,說(shuō)法正確的有哪幾項(xiàng)?A、高偏差+高方差,模型可以視為不良模型。B、低偏差+高方差,可以造成欠擬合。C、一個(gè)好的模型,方差和偏差都要求比較低。D、高偏差+低方差更可能造成欠擬合。A、短時(shí)范圍一般認(rèn)為在10-30msB、語(yǔ)音信號(hào)具有短時(shí)平穩(wěn)性號(hào)D、短時(shí)分析技術(shù)貫穿于語(yǔ)音信號(hào)分析的全過(guò)程43.以下關(guān)于條件隨機(jī)場(chǎng)CRF模型的描述,哪幾項(xiàng)是正確的?A、CRF可以與BiLSTM結(jié)合使用。B、理論上CRF也可以與其他深度學(xué)習(xí)方法結(jié)合,比如BERTC、RF中一般只使用一種特征函數(shù)。D、CRF中需要對(duì)不同序列的結(jié)果進(jìn)行概率歸一化。B、隨機(jī)梯度下降(SGD),隨機(jī)選取一個(gè)數(shù)據(jù)集中的樣本在當(dāng)前D、批量梯度下降(BGD),使用所有數(shù)據(jù)集中的樣本(共M個(gè)樣本)在當(dāng)前的梯度之和來(lái)對(duì)權(quán)重參數(shù)進(jìn)行更新操作C、需要GPU做并行運(yùn)算A、模型超參數(shù)通常由實(shí)踐者直接指定C、模型超參數(shù)通常根據(jù)給定的預(yù)測(cè)建模問(wèn)題而調(diào)整D、模型超參數(shù)通??梢允褂脝l(fā)式方法來(lái)設(shè)置47.以下關(guān)于決策樹(shù)的描述中,哪些選項(xiàng)是正確的?A、純度的量化指標(biāo)只能通過(guò)信息熵。B、常見(jiàn)的決策樹(shù)算法有ID3,C4.5,CART等。C、構(gòu)建決策樹(shù)的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對(duì)所有的劃分操作的結(jié)果集的“純度”進(jìn)行比較。D、決策樹(shù)的構(gòu)造就是進(jìn)行屬性的選擇,確定各個(gè)特征屬性之間48.以下關(guān)于決策樹(shù)的描述中,哪些選項(xiàng)是正確的?A、常見(jiàn)的決策樹(shù)算法有ID3,C4.5,CART等B、決策樹(shù)的構(gòu)造就是進(jìn)行屬性的選擇確定各個(gè)特征屬性之間的樹(shù)結(jié)構(gòu)C、純度的量化指標(biāo)只能通過(guò)信息嫡D、構(gòu)建決策樹(shù)的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操49.以下關(guān)于單層感知器的描述中,正確的是哪幾項(xiàng)?A、單層感知器可以解決XOR問(wèn)題。B、單層感知器本質(zhì)上是一種線性模型,只能處理線性分類問(wèn)題。C、單層感知器使用高維X向量做輸入,在高維空間對(duì)輸入的樣類C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)52.以下關(guān)于mindspore設(shè)計(jì)理念的描述中,正確的有哪幾項(xiàng)?能力給三方框架53.以下關(guān)于MindSpore邏輯架構(gòu)的設(shè)計(jì)目標(biāo)的描哪幾項(xiàng)?A、圖算深度融合,充分發(fā)揮AI芯片的算力B、實(shí)現(xiàn)遷移學(xué)習(xí)的業(yè)務(wù)時(shí),MindSpore代碼量遠(yuǎn)遠(yuǎn)比Tensorflow要多C、分布式并行原生支撐AI模型突破萬(wàn)億參數(shù)54.以下關(guān)于MindSporeOn-Device執(zhí)行關(guān)鍵技術(shù)的描述中,哪幾項(xiàng)是正確的?A、Mindspore推出的on-Device技術(shù)對(duì)性能并沒(méi)有太大的提升。B、傳統(tǒng)的模型面臨內(nèi)存墻,交互開(kāi)銷大、數(shù)據(jù)供給難等挑戰(zhàn)。C、Mindspore采用面向芯片的深度圖優(yōu)化技術(shù)同步等待少最大化“數(shù)據(jù)-計(jì)算-通信”的并行度。D、相比host力圖調(diào)度方式,訓(xùn)練性能大幅提升。55.以下關(guān)于GRU的描述,正確的是哪幾項(xiàng)B、GRU將遺忘門(mén)和輸入門(mén)合成了一個(gè)單一的更新門(mén)C、GRU會(huì)拼接上一時(shí)刻的輸出和當(dāng)前時(shí)核刻的輸入D、GRU混合了細(xì)胞狀態(tài)和隱藏狀態(tài)56.以下關(guān)于AI訓(xùn)練的描述,正確的是哪些選項(xiàng)?A、處理器的計(jì)算能力要求高。B、訓(xùn)練出的模型是一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)C、一般采用監(jiān)督學(xué)習(xí)方法D、訓(xùn)練需要大量的數(shù)據(jù)。57.一個(gè)完整的語(yǔ)音合成系統(tǒng)流程包括?A、音韻序列合成波形條件B、語(yǔ)音轉(zhuǎn)換成文字C、信息抽取D、文字序列轉(zhuǎn)換成音韻序列58.邀活函數(shù)作為神經(jīng)網(wǎng)絡(luò)的重要部分,其種類也是多種多樣,以下哪些函數(shù)屬于神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)?59.下列哪些選項(xiàng)屬于tf.keras常用的關(guān)于網(wǎng)絡(luò)編譯的方法與接口?60.下列哪幾項(xiàng)是圖引擎服務(wù)可以應(yīng)用的場(chǎng)景?A、推薦B、銷量預(yù)測(cè)D、知識(shí)圖譜61.下列哪幾項(xiàng)是華為云圖引擎服務(wù)(GraphEngineService)的優(yōu)A、豐富的圖分析算法庫(kù)B、語(yǔ)音交互C、高性能圖計(jì)算內(nèi)核D、分布式高性能圖存儲(chǔ)擎62.下列關(guān)于智能機(jī)器類別的觀點(diǎn)有哪些選項(xiàng)是正確的?A、理性的行動(dòng),屬于強(qiáng)人工智能。B、理性的思考,屬于弱人工智能領(lǐng)域C、像人一樣行動(dòng),屬于強(qiáng)人工智能。D、像人一樣思考,屬于弱人工智能領(lǐng)域63.下列對(duì)早期的全連接方式不適用于圖像特征提取的說(shuō)法,哪些選項(xiàng)是正確的?A、計(jì)算速度快B、充分利用像素間的位置信息C、參數(shù)數(shù)量太多D、容易過(guò)擬合64.下對(duì)于數(shù)據(jù)轉(zhuǎn)換的描述中,哪些選項(xiàng)是正確的?A、數(shù)值數(shù)據(jù)轉(zhuǎn)換為類別數(shù)據(jù)可以減少變量的值。B、在分類問(wèn)題中,將類別數(shù)據(jù)編碼成為對(duì)應(yīng)的數(shù)值表示C、在文本中,通過(guò)詞嵌入將詞轉(zhuǎn)化為詞向量也是一種數(shù)據(jù)轉(zhuǎn)換對(duì)數(shù)據(jù)進(jìn)行初步的預(yù)處理后,D、需要將其轉(zhuǎn)換為一種適合機(jī)器學(xué)習(xí)模型的表示形式65.文本向量化方法有?()B、幾何校正D、圖像濾波71.思維鏈(CoT)提示通過(guò)引入中能力,其中Zero-shot-CoT與Few-shot-CoT相比有哪些優(yōu)點(diǎn)?()B、無(wú)需人工設(shè)計(jì)示例73.數(shù)字圖像在采集時(shí),圖像的成像質(zhì)量由傳感器的哪些因素決定?A、傳感器的尺寸B、傳感性能C、傳感器單元數(shù)D、傳感器價(jià)格74.屬于語(yǔ)言學(xué)內(nèi)容的是?A、文字B、語(yǔ)音C、詞匯D、語(yǔ)法75.使用深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)處理語(yǔ)音識(shí)別的優(yōu)點(diǎn)有哪些?()A、不需要標(biāo)注樣本B、可以處理更長(zhǎng)的序列信號(hào)C、不需要語(yǔ)音信號(hào)特征提取(該答案待確定)D、可以end-to-end實(shí)現(xiàn)任務(wù)型訓(xùn)練完成后,評(píng)估結(jié)果會(huì)展現(xiàn)以下哪些選項(xiàng)?()A、召回率C、準(zhǔn)確率A、由文字生成圖像80.人工智能研究在國(guó)際上至今沒(méi)有統(tǒng)一的定義,目前普遍將只能機(jī)器分為以下哪幾類?A、理性地行動(dòng)B、理性地思考C、像人一樣思考D、像人一樣行動(dòng)81.人工智能四要素包括()A、數(shù)據(jù)B、算力C、算法D、場(chǎng)景82.人工智能的技術(shù)方向之一是語(yǔ)音技術(shù),語(yǔ)音前沿技術(shù)包括哪些?A、自適應(yīng)技術(shù)B、神經(jīng)網(wǎng)絡(luò)C、語(yǔ)言模型D、量子計(jì)算83.評(píng)判分類模型的F1值是以下哪些指標(biāo)的調(diào)和均值?B、有效率(validity)C、準(zhǔn)確率(accuracy)D、精確度(precision)參考答案:AD84.某廠商希望開(kāi)發(fā)一款應(yīng)用,可以實(shí)現(xiàn)實(shí)時(shí)人像摳圖然后完成背硬件使用了Atlas200DK,圖像數(shù)據(jù)預(yù)處理部分使用了OpenCV編寫(xiě),在實(shí)際運(yùn)行的時(shí)候發(fā)現(xiàn)效果很不理想,幀數(shù)很低,可以采用以下哪些方式提升效果?A、數(shù)據(jù)預(yù)處理采用AscendCL提供的CV2接口。B、更換網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單的模型。D、降低輸入和輸出視頻的分辨率。85.命名實(shí)體識(shí)別是指識(shí)別文本中具有特定意義的實(shí)體,主要包括哪些?B、地名C、機(jī)構(gòu)名86.命名實(shí)體識(shí)別是指識(shí)別文本中具有特定意義的實(shí)體,主要包括哪些?B、地名C、機(jī)構(gòu)名D、時(shí)間87.卷積神經(jīng)網(wǎng)絡(luò)中1x1卷積的作用包含以下哪幾項(xiàng)?A、控制輸出特征圖的通道數(shù)。B、拉通不同特征圖之間的信息C、提供防止過(guò)擬合的能力。D、調(diào)節(jié)超參數(shù)。88.卷積神經(jīng)網(wǎng)絡(luò)的核心思想?A、局部感知B、零填充C、參數(shù)共享D、全連接89.卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)共亨的優(yōu)點(diǎn)包含以下哪幾項(xiàng)?A、特征進(jìn)行降維B、緩解圖像位置不變性的問(wèn)題C、減少內(nèi)存需求D、輸出圖像類別90.解決過(guò)擬合問(wèn)題的方法包括以下哪幾項(xiàng)?B、丟棄法C、隨機(jī)梯度下降D、權(quán)重衰減91.計(jì)算機(jī)視覺(jué)的應(yīng)用場(chǎng)景有哪些?A、語(yǔ)音導(dǎo)航B、智能相冊(cè)C、圖片搜索D、視頻動(dòng)作分析92.機(jī)器學(xué)習(xí)場(chǎng)景的任務(wù)包括()A、回歸B、分類93.華為云文字識(shí)另別OCR技術(shù)的優(yōu)勢(shì)有哪幾項(xiàng)?A、識(shí)別精度高B、降低成本C、高適應(yīng)性D、快速高效94.華為云圖像標(biāo)簽實(shí)現(xiàn)智慧相冊(cè)的實(shí)驗(yàn)中,以下關(guān)于圖像標(biāo)簽A、返回值401說(shuō)明當(dāng)前請(qǐng)求需要用戶驗(yàn)證B、返回值403說(shuō)明沒(méi)有操作權(quán)限C、返回值400說(shuō)明語(yǔ)義有誤,當(dāng)前請(qǐng)求無(wú)法被服務(wù)器解析D、返回值500說(shuō)明請(qǐng)求失敗,在服務(wù)器上未找到請(qǐng)求所希望得到的資源95.華為云人臉識(shí)別服務(wù),是基于人的臉部特征信息,利用計(jì)算機(jī)對(duì)人臉圖像進(jìn)行處——分析和理解,進(jìn)行身份識(shí)別的一種智能服務(wù),當(dāng)前華為云人臉識(shí)別提供了哪幾種子服務(wù)()A、人臉?biāo)阉鰾、人臉跟蹤C(jī)、人臉檢測(cè)D、人臉對(duì)比96.華為云ModelArts中有AIGallery,可以提供以下哪些內(nèi)容?97.華為云ModelArts中推出了ModelBox用于端邊云聯(lián)合開(kāi)發(fā),B、硬件親和性C、可視化工作流99.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場(chǎng)景的不同也有很多種,目A、返回值403說(shuō)明沒(méi)有操作權(quán)限。D、返回值401說(shuō)明當(dāng)前請(qǐng)求需要用戶驗(yàn)證D、公有云103.華為Ascend系列芯片是面向哪些AI場(chǎng)景的?A、私有云B、邊緣計(jì)算C、消費(fèi)終端D、IOT行業(yè)終端E、公有云A、數(shù)據(jù)集合擴(kuò)充B、L1和L2正則化C、提前停止訓(xùn)練D、使用Dropout方法105.關(guān)于物體檢測(cè),說(shuō)法正確的有哪些?()A、檢測(cè)異常點(diǎn)B、可以檢測(cè)出圖像中的多個(gè)目標(biāo)C、識(shí)別目標(biāo)的類別D、識(shí)別目標(biāo)的位置106.關(guān)于概率與似然的描述正確的是?A、假如隨機(jī)變量X服從某種分布,似然是指在給定參數(shù)的條件B、假如隨機(jī)變量X服從某種分布,概率是指在給定參數(shù)的條件下,X=x的可能性C、假如隨機(jī)變量X服從某種分布,似然是指X=x條件下某一組參數(shù)的真實(shí)性大小D、假如隨機(jī)變量X服從某種分布,概率是指X=x的條件下某一組參數(shù)有真實(shí)性大小107.關(guān)于概率與似然的描述錯(cuò)誤的是以下哪些選項(xiàng)?A、似然指的是事件的先驗(yàn)概率B、假如隨機(jī)變量X服從某種分布,概率是指X=x的條件下某一組參數(shù)的真實(shí)性大小C、假如隨機(jī)變量X服從某種分布,最大似然是指X=x的條件下某一組參數(shù)的真實(shí)性最小可能D、假如隨機(jī)變量X服從某種分布,概率是指在給定參數(shù)的條件108.關(guān)于概率密度函數(shù)的性質(zhì)描述正確的是()A、概率密度函數(shù)的取值可以取任意值B、概率密度函數(shù)的取值大于等于0C、概率密度函數(shù)在正負(fù)無(wú)窮的積分為1D、概率密度函數(shù)在正負(fù)無(wú)窮的積分為0B、如果網(wǎng)絡(luò)中存在數(shù)個(gè)隱藏層。也可以使用求導(dǎo)的鏈?zhǔn)椒▌t逐C、損失函數(shù)中產(chǎn)生的誤差,是通過(guò)輸入層到隱藏層110.關(guān)于ResNet_v1_50,說(shuō)法正確的是()B、可以用作圖像分類C、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大于等于50層A、喉頭B、喉上C、喉中D、喉下113.多選題、在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中我們經(jīng)常使用優(yōu)化器加快訓(xùn)練速度,以下屬于深度學(xué)習(xí)中常用的優(yōu)化器A、dagrad優(yōu)化器B、RMSprop優(yōu)化器C、Adam優(yōu)化器D、動(dòng)量?jī)?yōu)化器114.對(duì)于MindSpre中張量的屬性描述正確的是以下哪幾項(xiàng)?A、張量的屬性包括形狀、數(shù)據(jù)類型、轉(zhuǎn)置張量、單個(gè)元素大小、占用字節(jié)數(shù)量、維數(shù)、元素個(gè)數(shù)和每一維步長(zhǎng)B、Tensr的shape返回是一個(gè)listC、Tensr的dtype,是MindSpreD、Tensr的size,是所有元素的個(gè)數(shù),返回的是一個(gè)整數(shù)115.對(duì)話系統(tǒng)按使用目的分主要有哪幾類B、聊天D、推薦D、病例分析118.傳統(tǒng)語(yǔ)音識(shí)別用到的模型有哪些?()119.傳統(tǒng)語(yǔ)音模型有哪些?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、高斯混合模型D、隱馬爾科夫模型120.池化的類型有哪些?()A、最大池化B、平均池化C、最小池化D、卷積池化121.標(biāo)準(zhǔn)正態(tài)分布的描述正確的是?A、方差0B、方差為1C、期望為0D、期望為1122.VGG19中的19代表網(wǎng)絡(luò)中哪些層的數(shù)目的總和?(多選)A、池化層B、卷積層C、輸入層D、全連接層123.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)D、線性核函數(shù)124.MSIR是一種簡(jiǎn)潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語(yǔ)義類型有?A、自由變量B、高階函數(shù)D、遞歸125.mox.file.stat可以用來(lái)獲取一個(gè)OBS文件或文件夾的stat信A、文件大小B、是否為目錄C、創(chuàng)建時(shí)間D、創(chuàng)建時(shí)間戳A、云上開(kāi)發(fā)IDE+PyCharmToolKit)128.ModelArts預(yù)置模型和自定義模型開(kāi)發(fā)相比的特點(diǎn)有哪些?()C、無(wú)需自己開(kāi)發(fā)代碼129.ModelArts涵蓋如下哪些模塊()D、模型管理E、部署上線D、loss為0等。戰(zhàn)以下關(guān)于KNN的說(shuō)法中,哪些說(shuō)項(xiàng)是正確的?133.LBP特征描述子有以下哪些優(yōu)點(diǎn)?()B、模型輸入/輸出(Modell/O)C、加入正則項(xiàng)D、刪除部分訓(xùn)練數(shù)據(jù)136.John需要完成圖像分類任務(wù),準(zhǔn)備對(duì)訓(xùn)練后的模型進(jìn)行評(píng)估,常用的評(píng)估指標(biāo)包含以下哪些選項(xiàng)?B、精確率C、召回率D、均方誤差件夾,請(qǐng)問(wèn)John不可以通過(guò)以下哪一種方式登錄OBSBrowser+? A、賬號(hào)登錄B、郵箱登錄C、授權(quán)碼登錄138.John是一名工程師,現(xiàn)在在使用AscendCL開(kāi)發(fā)推理應(yīng)用,他使用本地的X86架構(gòu)的電腦進(jìn)行應(yīng)用開(kāi)發(fā),實(shí)際工程運(yùn)行在鯤鵬+昇騰的服務(wù)器上,那么他需要考慮哪些問(wèn)題?A、由于鯤鵬是ARM架構(gòu),因此在進(jìn)行應(yīng)用編譯的時(shí)候需要考慮交叉編譯。B、本地安裝的CANN版本需要與工程運(yùn)行環(huán)境的版本保持一C、如果使用了Python接口的AscendCL,則無(wú)需考慮架構(gòu)問(wèn)題。D、由于AscendCL支持多平臺(tái)、多架構(gòu),因此無(wú)需考慮x86和鯤鵬平臺(tái)的差異。139.HiAI移動(dòng)計(jì)算平臺(tái)有哪些優(yōu)點(diǎn)?A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的API140.HIAIEngine-ASR接口使用時(shí),實(shí)現(xiàn)ASR的相關(guān)類包括哪些?參考答案:ABCD141.GMM適合處理的語(yǔ)音領(lǐng)域任務(wù)包括哪些?A、語(yǔ)音識(shí)別B、語(yǔ)音合成C、語(yǔ)音降噪D、語(yǔ)音跟蹤142.DNN模型加速方法包括哪些()A、多GPU反向傳播B、減小模型規(guī)模C、異步隨機(jī)梯度下降D、擴(kuò)大模型規(guī)模143.CANN的是華為面向深度神經(jīng)網(wǎng)絡(luò)和昇騰處理器打造的芯片使能層,它主要包括功能模塊有()D、底層編譯器(FusionEngine)是一個(gè)邏輯概念,包含了以下哪幾個(gè)部件?B、計(jì)算引擎C、通用引擎D、控制引擎145.Atlas300AI加速卡適用于以下哪些場(chǎng)景?C、低功耗D、低算力B、錯(cuò)誤2.自然語(yǔ)言是以語(yǔ)音為物質(zhì)外殼,由詞匯和語(yǔ)法兩部分組成的符B、錯(cuò)誤3.自然語(yǔ)言處理中,最常用的深度學(xué)習(xí)算法是CNN,因?yàn)槠渚哂杏洃浌δ?4.自然語(yǔ)言處理可以定義為研究在人與人交際中以及人與計(jì)算機(jī)交際中的語(yǔ)言問(wèn)題的一門(mén)學(xué)科。自然語(yǔ)言處理要言之表型,建議計(jì)算框架來(lái)實(shí)現(xiàn)這樣的語(yǔ)言模型,提出相應(yīng)的方法來(lái)不斷完善這樣的語(yǔ)言模型,根據(jù)這樣的語(yǔ)言模型設(shè)計(jì)各種系統(tǒng)的評(píng)測(cè)技B、錯(cuò)誤參考答案:A5.自然語(yǔ)言處理必須進(jìn)行詞性標(biāo)注。7.知識(shí)蒸餾可將復(fù)雜網(wǎng)絡(luò)中的有用信息提取出來(lái)遷移到一個(gè)更同形的詞在不同場(chǎng)景不其表示的語(yǔ)法截然不同,這就為詞性標(biāo)注帶來(lái)了很大的困難。B、錯(cuò)誤參考答案:A11.在以連接主義為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)都能表達(dá)特定的B、錯(cuò)誤12.在損失函數(shù)中追加了絕對(duì)值損失函數(shù)項(xiàng)的線性回歸叫做LassoB、錯(cuò)誤個(gè)參數(shù)指的是置信度的閾值,高于此置信數(shù)的標(biāo)簽將不會(huì)被返回B、錯(cuò)誤14.在使用MindSpre進(jìn)行模型訓(xùn)練時(shí),使用set_train設(shè)置為訓(xùn)練模式,執(zhí)行正向計(jì)算、反向傳播和參數(shù)優(yōu)化,set_train接口默認(rèn)值為False.A、正確B、錯(cuò)誤參考答案:B15.在昇騰應(yīng)用開(kāi)發(fā)中,使用路由器連接Ubuntu服務(wù)器與開(kāi)發(fā)板 (DynamicHostConfigurationProtocol),開(kāi)發(fā)板的IP無(wú)需手動(dòng)配A、正確B、錯(cuò)誤16.在全連接神經(jīng)網(wǎng)絡(luò)中,卷積層中每一個(gè)神經(jīng)元只與前一層中部分神經(jīng)元相連接。A、正確B、錯(cuò)誤參考答案:B17.在邊緣計(jì)算設(shè)備上部署Al應(yīng)用時(shí),所使用的神經(jīng)網(wǎng)絡(luò)模型越小越好。A、正確B、錯(cuò)誤18.語(yǔ)音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)。B、錯(cuò)誤19.語(yǔ)言模型可以用于動(dòng)態(tài)生成每個(gè)詞的詞向量。B、錯(cuò)誤20.應(yīng)用案例開(kāi)發(fā)的經(jīng)典應(yīng)用開(kāi)發(fā)過(guò)程包含模型評(píng)價(jià)21.隱馬爾科夫模型的模型參數(shù)包括序列長(zhǎng)度、轉(zhuǎn)移概率、初始概率和發(fā)射頻率。B、錯(cuò)誤22.隱藏層就是神經(jīng)網(wǎng)絡(luò)中輸入與輸出層之間的中間層,訓(xùn)練數(shù)據(jù)并沒(méi)有給出這些層中的每一層所需的輸出。B、錯(cuò)誤23.音頻文件波形序列就是信號(hào)在時(shí)域上的信息B、錯(cuò)誤其核心是使用了圖像分割的技術(shù)。B、錯(cuò)誤參考答案:B25.一般來(lái)說(shuō),Sigmoid網(wǎng)絡(luò)在5層之內(nèi),就會(huì)產(chǎn)生梯度退化為0的現(xiàn)象,難以訓(xùn)練。B、錯(cuò)誤26.訓(xùn)練誤差會(huì)隨著模型復(fù)雜度的上升不斷減小。A、正確B、錯(cuò)誤27.訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力。B、錯(cuò)誤28.相比于傳統(tǒng)基于規(guī)則的方法,機(jī)器學(xué)習(xí)算法所應(yīng)對(duì)的問(wèn)題規(guī)模大,規(guī)則比較簡(jiǎn)單B、錯(cuò)誤29.線性回歸算法預(yù)測(cè)房?jī)r(jià)時(shí),如果模型出現(xiàn)欠擬合,可以使用帶有正則項(xiàng)的LASSO回歸或者Ridge回歸,通過(guò)并調(diào)節(jié)超參數(shù)的???優(yōu)化能力30.線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做LassoB、錯(cuò)誤如果使用樸素貝葉斯作為模型的話,則我們假設(shè)屬性之間不存在B、錯(cuò)誤對(duì)輸入圖像添加一個(gè)全0的邊框再進(jìn)行計(jì)算B、錯(cuò)誤當(dāng)發(fā)現(xiàn)驗(yàn)證數(shù)據(jù)的Loss上升時(shí),提前停止訓(xùn)練。B、錯(cuò)誤34.圖像預(yù)處理的直方圖實(shí)驗(yàn)中,cv2.equalizeHist(im)函數(shù)表示調(diào)用OpenCV的直方圖均衡化APITRUEFALSEA、正確B、錯(cuò)誤35.圖像任務(wù)中,我們收集圖片時(shí)往往使用0,1,2,3,4等來(lái)表示圖片的類別,這種表示方式導(dǎo)致我們?cè)谶M(jìn)行模型訓(xùn)練時(shí)必須先對(duì)數(shù)據(jù)進(jìn)行onehot處理。B、錯(cuò)誤36.圖像的直方圖操作是統(tǒng)計(jì)了整幅圖像的灰度值分布頻率,當(dāng)圖像畫(huà)面光照不均勻時(shí),直方圖操作效果會(huì)受到影響,需要使用改進(jìn)的算法進(jìn)行圖像處理。B、錯(cuò)誤參考答案:A37.圖像的濾波器操作又被稱為模板運(yùn)算,常用的模板運(yùn)算有模板(卷積)和模板(排序)。B、錯(cuò)誤38.圖像的空間聯(lián)系是局部的像素聯(lián)系較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較弱。B、錯(cuò)誤B、錯(cuò)誤參考答案:B40.通常情況下,梯度下降方法在接近目標(biāo)點(diǎn)區(qū)域的極小范圍內(nèi),下降的幅度越來(lái)越大,但是在目標(biāo)點(diǎn)一定范圍內(nèi)可能存在梯度不穩(wěn)定的情況。B、錯(cuò)誤41.調(diào)用華為云文字識(shí)別API時(shí),可以返回文字塊的區(qū)域位置信B、錯(cuò)誤參考答案:A42.梯度下降算法是用于更新參數(shù),尋找損失函數(shù)的最小點(diǎn)。其收斂點(diǎn)僅取決于代價(jià)函數(shù)。B、錯(cuò)誤43.損失函數(shù)E(W)是定義在權(quán)值空間上的函數(shù)。我們的目的是搜索使得E(W)最小的權(quán)值向量?B、錯(cuò)誤44.隨著對(duì)機(jī)器學(xué)習(xí)了解的深入,我們會(huì)發(fā)現(xiàn),隨著時(shí)間的變遷,機(jī)器學(xué)習(xí)的內(nèi)涵和外延也在不斷的變化。B、錯(cuò)誤參考答案:A45.雙峰法能夠自動(dòng)求取圖像的最佳分隔閾值,但并不適用于所有的灰度圖像二值化任務(wù)。B、錯(cuò)誤46.使用圖像標(biāo)簽服務(wù)時(shí),可以調(diào)用接口 函數(shù)的前2個(gè)參教分別是ak和sk。第3個(gè)參數(shù)是圖像數(shù)據(jù)進(jìn)行編碼B、錯(cuò)誤47.使用了DNN之后就不要進(jìn)行數(shù)據(jù)預(yù)處理了。A、正確B、錯(cuò)誤參考答案:B為的預(yù)處理和特征提取B、錯(cuò)誤hiden,size為100,使用雙向LSTM,則在輸出的output張量中,代表文本數(shù)據(jù)每個(gè)位置輸出向量的維度也為100,下,接受圖像數(shù)據(jù)格式為(數(shù)量,通道,高度,寬度)B、錯(cuò)誤53.實(shí)際項(xiàng)目中,在構(gòu)建模型之前,數(shù)據(jù)清理與特征工程是非常重要的B、錯(cuò)誤54.生物的能力從后天學(xué)習(xí)得到,或者是生物的本能。機(jī)器學(xué)習(xí)是也就是用大量程序員的血與累鑄成的"if"語(yǔ)句B、錯(cuò)誤55.生成對(duì)抗網(wǎng)絡(luò)中,判別網(wǎng)絡(luò)的輸入主要是生成網(wǎng)絡(luò)生成的樣本B、錯(cuò)誤參考答案:A56.深度學(xué)習(xí)的模型訓(xùn)練需要大量的數(shù)據(jù),實(shí)際操作中,可以通過(guò)數(shù)據(jù)增強(qiáng)的技術(shù)對(duì)訓(xùn)練的圖像數(shù)據(jù)集中隨機(jī)加入正常樣本,擴(kuò)充數(shù)據(jù)集的樣本量。B、錯(cuò)誤57.深度神經(jīng)網(wǎng)絡(luò)越深效果越好、準(zhǔn)確度越高A、正確B、錯(cuò)誤參考答案:B58.深度神經(jīng)網(wǎng)絡(luò)是有一個(gè)或者多個(gè)隱藏層的傳統(tǒng)多層感知器。A、正確B、錯(cuò)誤方法及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué)。A、正確B、錯(cuò)誤60.全局梯度下降的缺點(diǎn)是一次更新中對(duì)整個(gè)數(shù)據(jù)集計(jì)算梯度,速A、正確B、錯(cuò)誤參考答案:AA、正確B、錯(cuò)誤62.目前AI為全場(chǎng)景領(lǐng)域,要求端-邊-云全面發(fā)展算力。63.馬爾科夫鏈?zhǔn)侵笖?shù)學(xué)中具有馬爾可夫性質(zhì)的離散事件隨機(jī)過(guò)參考答案:A64.邏輯回歸的損失函數(shù)是交叉熵?fù)p失函數(shù)。參考答案:B65.量子(Quantum)是指微觀物理系統(tǒng)中,物理量的最小單元,A、正確參考答案:A66.鏈?zhǔn)椒▌t保證了從深層到淺層的誤差傳遞?B、錯(cuò)誤67.卷積神經(jīng)網(wǎng)絡(luò)中的卷積層通常用于提取局部特征。68.卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的輸出可以直接作為全連接層的輸入進(jìn)行進(jìn)一步計(jì)算。參考答案:A69.具有高級(jí)智能駕駛的汽車,只需要搭載激光雷達(dá)即可完成所有感知任務(wù)。B、錯(cuò)誤參考答案:B70.句法分析一般用句法樹(shù)來(lái)表示分析結(jié)果A、正確參考答案:AB、錯(cuò)誤72.將Tensorflow的網(wǎng)絡(luò)遷移到Mindspore的過(guò)程中,為了保證兩個(gè)網(wǎng)絡(luò)中輸入相同,需要去除網(wǎng)絡(luò)中隨機(jī)性因素的影響。B、錯(cuò)誤參考答案:B73.計(jì)算機(jī)視覺(jué)是研究如何讓計(jì)算機(jī)“看”的科學(xué)。B、錯(cuò)誤參考答案:A74.基于昇騰310華為打造了面向云邊端的4款產(chǎn)品,用不同形態(tài)Atlas500、數(shù)據(jù)中心側(cè)的Atlas800和300B、錯(cuò)誤參考答案:A75.機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一部分。人工智能也是深度學(xué)習(xí)的一部B、錯(cuò)誤參考答案:B76.機(jī)器學(xué)習(xí)是從數(shù)據(jù)中自動(dòng)尋找規(guī)律,但是我們需要把整個(gè)數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。訓(xùn)練集用于訓(xùn)練,測(cè)試集用于評(píng)估模型泛化能力B、錯(cuò)誤77.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)都是人工智能的一部分,但是兩者又相互B、錯(cuò)誤78.回歸任務(wù)中,最常用的損失函數(shù)是交叉熵代價(jià)函數(shù)。B、錯(cuò)誤79.灰度拉伸是對(duì)圖像的像素點(diǎn)進(jìn)行操作,直方圖均衡化是對(duì)圖像局部進(jìn)行處理。A、正確B、錯(cuò)誤參考答案:BB、錯(cuò)誤81.華為的AI全場(chǎng)景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊、云的部署環(huán)境。B、錯(cuò)誤82.護(hù)照識(shí)別服務(wù)的圖像數(shù)據(jù)是不需要用base64編碼的。B、錯(cuò)誤83.關(guān)于語(yǔ)音識(shí)別服務(wù)中的一句話識(shí)別指的是,用于短語(yǔ)音的同步識(shí)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 餐廳運(yùn)營(yíng)現(xiàn)場(chǎng)管理制度
- 地名辦財(cái)務(wù)制度
- 基本衛(wèi)生服務(wù)保障制度
- 大堂衛(wèi)生維護(hù)清潔制度
- 健全教育財(cái)務(wù)制度
- 環(huán)境衛(wèi)生門(mén)前三包制度
- 美發(fā)衛(wèi)生消毒制度
- 車間衛(wèi)生分擔(dān)區(qū)管理制度
- 教務(wù)科衛(wèi)生值班制度
- 超市衛(wèi)生考核制度
- 2025年初級(jí)電工證考試筆試試題及答案
- 2026山東聊城市新聊泰城市建設(shè)發(fā)展有限公司首批用人招聘10人備考題庫(kù)及答案詳解參考
- dbj41河南省城市軌道交通客 運(yùn)服務(wù)標(biāo)志設(shè)計(jì)標(biāo)準(zhǔn)
- 房地產(chǎn)公司開(kāi)發(fā)全流程法律風(fēng)險(xiǎn)手冊(cè)(定稿)模版
- 2026國(guó)家國(guó)防科技工業(yè)局所屬事業(yè)單位第一批招聘62人備考題庫(kù)帶答案詳解
- 2026中國(guó)電信四川公用信息產(chǎn)業(yè)有限責(zé)任公司社會(huì)成熟人才招聘?jìng)淇碱}庫(kù)及1套完整答案詳解
- 2025班組三級(jí)安全安全教育考試題庫(kù)(+答案解析)
- CRM培訓(xùn)教學(xué)課件
- 安徽省亳州市2025屆高三上學(xué)期期末質(zhì)量檢測(cè)生物試卷(含答案)
- 天津市考市直面試真題題+解析
- 研究受試者知情同意書(shū)
評(píng)論
0/150
提交評(píng)論