2025-2026年華為ICT大賽中國區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論考試試題 含答案_第1頁
2025-2026年華為ICT大賽中國區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論考試試題 含答案_第2頁
2025-2026年華為ICT大賽中國區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論考試試題 含答案_第3頁
2025-2026年華為ICT大賽中國區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論考試試題 含答案_第4頁
2025-2026年華為ICT大賽中國區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論考試試題 含答案_第5頁
已閱讀5頁,還剩374頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2025-2026年華為ICT大賽中國區(qū)實(shí)踐賽(昇騰Al賽道)校賽理論A、CartoonGAN(GenerativeAdversarialNetworksforPhotoCartooniz細(xì)節(jié)照片,然后定損系統(tǒng)通過所上傳圖片的細(xì)節(jié)進(jìn)行判定。這一場景運(yùn)用了以下哪一項(xiàng)技術(shù)?A、語音合成和處理技術(shù)B、語音識(shí)別和處理技術(shù)C、自然語言處理技術(shù)參考答案:D4.知識(shí)圖譜本質(zhì)上是語義網(wǎng)絡(luò)的知識(shí)庫,以下哪一個(gè)選項(xiàng)不屬于知識(shí)圖譜中A、實(shí)體C、邊D、權(quán)重C、量化D、插值A(chǔ)、插值A(chǔ)、srcustomizationclienA、指定輸入維度C、權(quán)值初始化A、網(wǎng)絡(luò)定義B、網(wǎng)絡(luò)執(zhí)行C、知識(shí)蒸餾D、權(quán)值初始化音量值?參考答案:B11.在使用華為云翻拍識(shí)別服務(wù)時(shí),recapture_detect_aksk()函數(shù)的返回結(jié)果中,如果suggestion為真時(shí),category的取值為以下哪項(xiàng)?A、original式,動(dòng)態(tài)和靜態(tài),其中動(dòng)態(tài)AIPP可在根據(jù)業(yè)務(wù)要求改變預(yù)處理參數(shù)的情況下使用,以A、輸入的圖片格式需要兼容YUV420和RGB等。A、管理運(yùn)維工具B、全流程開發(fā)工具鏈C、異構(gòu)計(jì)算架構(gòu)D、深度學(xué)習(xí)框架14.在深度學(xué)習(xí)領(lǐng)域中,以下哪一項(xiàng)不是優(yōu)化器的作用?()A、減小超參數(shù)設(shè)置難度,主要是LearningRate(LR)B、尋找最優(yōu)超參數(shù)C、加快算法收斂速度15.在全連接結(jié)構(gòu)中,使用一個(gè)包含1000個(gè)神經(jīng)元的隱藏層處理一張100*100分辨率的圖片,不考慮偏置項(xiàng),以下哪一項(xiàng)是正確的參數(shù)量?A、10000和欠擬合現(xiàn)象描述正確的是哪一項(xiàng)?()A、過擬合現(xiàn)象反映到評估指標(biāo)上,就是模型在訓(xùn)練集上的表現(xiàn)很好,但在測試集和B、欠擬合指的是模型在訓(xùn)練時(shí)表現(xiàn)很好,預(yù)測時(shí)表現(xiàn)很差的情C、過擬合是指模型對于訓(xùn)練數(shù)據(jù)擬合不充分的情況。D、欠擬合指的是模型在訓(xùn)練和預(yù)測時(shí)表現(xiàn)都很好的情況。17.在邏輯回歸中,加入L1范數(shù),會(huì)產(chǎn)生什么效果?()A、可以做特征選擇B、能加快計(jì)算速度C、可以獲得更準(zhǔn)確的結(jié)果D、可以減小訓(xùn)練誤差錯(cuò)誤的罰款,這需要系統(tǒng)的哪個(gè)指示很高?A、召回率B、置信度C、精度供海量數(shù)據(jù)預(yù)處理及半自動(dòng)化標(biāo)注,大規(guī)模分布式Training自動(dòng)化模型云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模A、Int8A、1A、資源池C、貝葉斯搜索D、隨機(jī)搜索29.以下選項(xiàng)中,哪個(gè)選項(xiàng)的模型無法分割線A、神經(jīng)網(wǎng)絡(luò)參考答案:D31.以下圖像中的公式對應(yīng)的激活函數(shù)是哪一個(gè)選項(xiàng)?B、Sigmoid函數(shù)C、Softmax函數(shù)D、Sin函數(shù)參考答案:BA、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率B、觀測概率A、httpsB、httpsB、樸素貝葉斯分類算法D、長短周期記憶網(wǎng)絡(luò)40.以下哪一項(xiàng)激活函數(shù)經(jīng)常用作分類任務(wù)的輸出層41.以下哪一項(xiàng)的張量[II[0,1],[2,3]],[[4.5],[6.742.以下哪一項(xiàng)不屬于壓縮人工智能模型體積的方法?A、緊湊網(wǎng)絡(luò)設(shè)計(jì)B、低秩近似C、網(wǎng)絡(luò)量化D、減小有效數(shù)據(jù)量A、算子同步、異構(gòu)執(zhí)行,多流并發(fā)。44.以下哪一個(gè)選項(xiàng)不屬于AI計(jì)算復(fù)雜性特點(diǎn)?A、混合精度計(jì)算C、通信和計(jì)算并行D、結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)并行A、無需編程即可完成計(jì)算任務(wù)D、提供豐富的教程文檔G、。而“無需編程即可完成計(jì)算任務(wù)”(選項(xiàng)H、雖然是一個(gè)理想化的特點(diǎn),但在當(dāng)前的量子計(jì)算云平臺(tái)中,由于量子計(jì)算的復(fù)雜性和專業(yè)性,通常還是需要一定的編程知識(shí)來完成計(jì)算任務(wù)。因此,選項(xiàng)C不是HiQ46.以下哪一個(gè)概念是用來計(jì)算復(fù)合函數(shù)的導(dǎo)數(shù)?()A、微積分中的鏈?zhǔn)浇Y(jié)構(gòu)D、勁向基函數(shù)47.以下哪個(gè)選項(xiàng)屬于自然語言處理技術(shù)的三A、詞法分析C、語義分割D、音律分析C、昇騰B、加速和訓(xùn)練C、訓(xùn)練和推理D、編譯和訓(xùn)練52.以下哪個(gè)選項(xiàng)不屬于ModelArts的特點(diǎn)?()C、支持自動(dòng)調(diào)優(yōu)D、內(nèi)置多個(gè)模型A、遺忘門B、輸入門C、記憶門D、輸出門54.以下哪個(gè)選項(xiàng)不是在自然語言處理發(fā)展過程中的方法?()A、基于統(tǒng)計(jì)的方法B、基于規(guī)則的方法C、基于深度學(xué)習(xí)的方法D、基于遞歸的方法域?A、前饋神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)參考答案:DA、徑向基函數(shù)A、SignalA、會(huì)議記錄B、電話回訪C、口語測評D、人臉識(shí)別參考答案:DA、支持向量機(jī)是一種分類模型,它的基本模型是定義在特征空間上的間隔最大的線B、支持向量機(jī)還包括核技巧,這使它成為實(shí)質(zhì)上的非線性分類器。C、對于線性不可分的情況,通過使用非線性映射算法將低維輸入空間線性不可分的D、支持向量機(jī)只能解決線性分類問題。參考答案:D62.以下關(guān)于輸入緩沖區(qū)的描述,正確的是哪一個(gè)選項(xiàng)?A、降低總線上產(chǎn)生擁堵的風(fēng)險(xiǎn)。B、需要每次都通過總線接口到AICore的外部進(jìn)行讀取。C、可永久保留需要重復(fù)使用的數(shù)據(jù)D、用來存放神經(jīng)網(wǎng)絡(luò)中的初始量。63.以下關(guān)于昇騰910AI處理器所適用的產(chǎn)品,錯(cuò)誤的是哪一個(gè)選項(xiàng)?B、Atlas500智能小站C、Atlas800AI服務(wù)器D、Atlas300AI加速卡參考答案:B64.以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)的描述中,錯(cuò)誤的是哪一項(xiàng)?A、各層節(jié)點(diǎn)中具有計(jì)算功能的神經(jīng)元,稱為計(jì)算單元,每個(gè)神經(jīng)元只與前一層的神經(jīng)元相連。B、輸入節(jié)點(diǎn)具有計(jì)算功能,不只是為了表征輸入矢量各元素值C、前饋神經(jīng)網(wǎng)絡(luò)是一種最簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列。D、多層的感知器屬于前饋神經(jīng)網(wǎng)絡(luò)。65.以下關(guān)于聯(lián)邦學(xué)習(xí)的描述,哪一個(gè)選項(xiàng)是錯(cuò)誤的?A、聯(lián)邦學(xué)習(xí)有助于實(shí)現(xiàn)更安全的數(shù)據(jù)共享。B、聯(lián)邦學(xué)習(xí)原本用于解決安卓手機(jī)終端用戶在本地更新模型的問題。C、聯(lián)邦學(xué)習(xí)的目的在于保證數(shù)據(jù)隱私安全及合法合規(guī)的基礎(chǔ)上,實(shí)現(xiàn)共同建模,提升AI橫型的效果D、聯(lián)邦學(xué)習(xí)最早在2016年由百度公司提出。66.以下關(guān)于剪枝的描述中,哪一項(xiàng)是錯(cuò)誤的?A、決策樹容易過擬合需要剪枝來縮小樹的結(jié)構(gòu)和規(guī)模。B、預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。C、ID3算法中都會(huì)進(jìn)行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝。67.以下關(guān)于機(jī)器學(xué)習(xí)中分類模型與回歸模型的說法,A、輸出變量為有限個(gè)離散變量的預(yù)測問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測D、邏輯回歸是一種典型的回歸模型。68.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是哪個(gè)選項(xiàng)?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系A(chǔ)、樸素貝葉斯是一種簡單的分類算法,基于貝葉斯定理,并假設(shè)特征之間是獨(dú)立的70.以下關(guān)于共現(xiàn)矩陣+SVD缺點(diǎn)的描述,錯(cuò)誤的是哪—選項(xiàng)?()71.以下關(guān)于分詞說法不正確的是?()2B、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法。C、統(tǒng)計(jì)分詞的目的就是對分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式。D、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好B、使用線性支持向量機(jī)可以很好的作用在線性可分?jǐn)?shù)據(jù)集上,因此非線性支持向量機(jī)效果比較差C、可以使用核函數(shù)來構(gòu)建非線性支持向量機(jī)。D、核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面參考答案:BC、計(jì)算單元包含四種基礎(chǔ)計(jì)算資源。D、通過總線接口單元,將數(shù)據(jù)搬到輸入緩沖區(qū)B、Word2Vec有兩種類型,Skip-g75.以下關(guān)于Mindspore子系統(tǒng)的設(shè)計(jì)目標(biāo)的描述,錯(cuò)誤的是哪一項(xiàng)?A、向用戶提供統(tǒng)一的模型訓(xùn)練,推理和A.導(dǎo)出B、兩層用戶API設(shè)計(jì),支撐用戶進(jìn)行網(wǎng)B.絡(luò)構(gòu)建,整圖執(zhí)行,子圖執(zhí)行1以及執(zhí)行C、單機(jī)和分布式訓(xùn)練統(tǒng)一的編碼方式D、動(dòng)態(tài)圖和靜態(tài)圖差異化編碼方式A、方差B、特征遞歸消除法C、LI正則A、減少過擬合B、控制參數(shù)更新速度C、減少偏差78.以下不屬于隱馬爾科夫模型在語音識(shí)別中應(yīng)用的是?()A、計(jì)算輸出序列B、用B-W算法求最優(yōu)解D、根據(jù)標(biāo)簽形成詞和句子參考答案:D79.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式80.以下不是語音特征提取方法的是?()參考答案:D81.一副照片在存放過程出現(xiàn)了很多小的噪點(diǎn),對其掃描件進(jìn)行哪個(gè)操作的去噪效果最好?B、高斯濾波C、中值濾波D、均值濾波A、白色C、黑色A、情感分析B、圖像分類C、語音識(shí)別D、機(jī)器翻譯參考答案:BA、曲面B、平面D、超曲面85.現(xiàn)有一個(gè)公司希望加裝人臉識(shí)別門禁,可以使用以下哪一種產(chǎn)品86.下圖中,像素點(diǎn)p和s之間的棋盤距離是?87.下面哪一項(xiàng)不屬于ModelArts平臺(tái)中數(shù)據(jù)管理D、迭代式智能標(biāo)注框架參考答案:B88.下面哪一個(gè)模板可以實(shí)現(xiàn)圖像的銳化()A、B、mindspore.layer.DA、graph96.我們常說對720P的視頻格式,720代表什么?(A、視頻的幀率B、圖像分辨率的高度C、圖像分辨率的寬度D、視頻的灰度級97.圖像中的目標(biāo)相對中心位置偏右了15個(gè)像素,可使用下面哪種平移量的平移坐標(biāo)變換,將目標(biāo)移動(dòng)到畫面中心?()A、(0,15)參考答案:D98.圖像識(shí)別任務(wù)可以分為三個(gè)層次,根據(jù)處理內(nèi)容的抽象性,從低到高A、圖像處理,圖像分析,圖像理解D、圖像分析,圖像處理,圖像理解A、用橢圓框住目標(biāo)B、用圓形框住目標(biāo)D、用矩形框住目標(biāo)100.圖像分類主要依據(jù)?()A、顏色C、特征D、圖像大小101.雖然目前大模型在語言理解、問答等方面表現(xiàn)出了優(yōu)秀的能力,但還存在一些問題,比如問答中會(huì)出現(xiàn)杜撰、編造的事實(shí)、數(shù)據(jù)等,這叫做大模型的什么現(xiàn)象?A、真實(shí)性B、幻覺D、泛化參考答案:B102.刷臉支付時(shí),以下步驟正確的是?()A、圖像預(yù)處理——圖像識(shí)別——人臉檢測B、人臉識(shí)別——圖像預(yù)處理——圖像檢測C、圖像預(yù)處理——目標(biāo)檢測——人臉識(shí)別D、圖像預(yù)處理——人臉識(shí)別——人臉分割A(yù)、給圖片輸入類別標(biāo)簽B、用矩陣框住目標(biāo)C、用橢圓框住目標(biāo)D、用圓形框住目標(biāo)A、用橢圓框住目標(biāo)B、用圓形框住目標(biāo)C、用多邊形框出目標(biāo)D、用矩形框住目標(biāo)105.輸入一個(gè)32x32的圖像,用大小為5x5的卷積核進(jìn)行做步長為一的卷積計(jì)算,輸A、尋找標(biāo)簽值C、優(yōu)化參數(shù)D、預(yù)測結(jié)果107.使用ModelArts自動(dòng)學(xué)習(xí)構(gòu)建預(yù)測分析項(xiàng)目時(shí),若標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),以下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型?Tensor=Tensor(np.array([[0,1A、["02"]D、芯片系統(tǒng)控制CPU參考答案:BC、信息檢索D、圖像生成111.人臉識(shí)別案例中,使用的是哪種神經(jīng)網(wǎng)絡(luò)()112.哪個(gè)統(tǒng)計(jì)分析圖標(biāo),用于分析用戶轉(zhuǎn)化的瓶頸?()C、渠道分析A、MindSporeFederaterC、MindSporeReinforcementD、MindA、欠擬合C、參數(shù)計(jì)少D、機(jī)器性能問題參考答案:B115.某公司希望可以根據(jù)用戶昵稱自哪個(gè)模型實(shí)現(xiàn)?門,適合此種應(yīng)用需求的學(xué)習(xí)方法是以下哪一種?A、二分類問題B、多分類問題C、聚類問題117.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問題,B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體參考答案:C118.面對行業(yè)研究與全場景AI應(yīng)用之間的巨大鴻溝,Mindspore用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?B、新編程語言C、新編程范式D、新執(zhí)行模式119.面對超大規(guī)模模型需要實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn),MindSpore的處理方式為?A、自動(dòng)并行C、手動(dòng)并行120.卷積神經(jīng)網(wǎng)絡(luò)的核心思想可以總結(jié)為兩點(diǎn),一是局部感知,二是權(quán)值共享,關(guān)于A、圖像的空間聯(lián)系是局部像素較為稀疏,而距離較遠(yuǎn)的像素B、每一個(gè)卷積核在追歷整個(gè)圖像的時(shí)候,卷積核的參數(shù)是固定不變的C、圖像的空間聯(lián)系是局部像素較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較強(qiáng)D、每一個(gè)卷積核在遍歷整個(gè)圖像的時(shí)候,卷積核的參數(shù)是變致的121.機(jī)器學(xué)習(xí)中,以下哪一項(xiàng)指分類器分類正確的正樣本個(gè)數(shù)占測試集中所有的正樣本個(gè)數(shù)的比例?A、歸一化折損累計(jì)增益B、精確率C、準(zhǔn)確率D、召回率A、人工程序C、訓(xùn)練算法D、歷史數(shù)據(jù)123.機(jī)器學(xué)習(xí)中,從獲取數(shù)據(jù)到正式放入模型之前,以下哪一個(gè)選項(xiàng)不是這個(gè)過程的一部分?A、數(shù)據(jù)標(biāo)準(zhǔn)化C、數(shù)據(jù)降維D、數(shù)據(jù)可視化參考答案:D124.華為云交通智能體TrafficGo是城市交通綜合治不屬于交通智能體實(shí)現(xiàn)的功能?A、交通參數(shù)感知C、實(shí)時(shí)路況檢測D、輔助自動(dòng)駕駛參考答案:D是?A、申請服務(wù)一獲取請求認(rèn)證一調(diào)用API一查B、申請服務(wù)一調(diào)用API-獲取請求認(rèn)證一查看服務(wù)使用信息C、獲取請求認(rèn)證一申請服務(wù)一調(diào)用API一查看服務(wù)使用信息D、獲取請求認(rèn)證一申請服務(wù)一查看服務(wù)使用信息一調(diào)用API126.華為云API符合RESTful的設(shè)計(jì)規(guī)范,以下哪個(gè)選項(xiàng)不是發(fā)起請求的方式?A、KerberorsD、編碼127.很多手機(jī)提供了護(hù)眼的屏幕顯示模式,以通過調(diào)整顯示圖像的()實(shí)現(xiàn)。A、對比度B、色相C、飽和度128.關(guān)于通用的圖像識(shí)別流程,以下說法中哪一項(xiàng)是A、特征提取→圖像采集一→圖像預(yù)處理→圖像識(shí)別B、圖像采集→>圖像預(yù)改處理→>特征提取一>圖像識(shí)別C、圖像預(yù)改處理→特征提取→圖像采集一→圖像識(shí)別D、圖像預(yù)政處理→圖像采集一→特征提取圖像識(shí)別參考答案:BA、高斯曲線呈鐘型,兩頭高,中間低D、高斯曲線呈鐘型,兩頭低,中間高參考答案:D130.關(guān)于CBOW與Skip-Gram算法。以下說法不正確的是?B、無論是CBOW模型還是Skip-gram模型。都是以Huffman樹作為基礎(chǔ)的。D、CBOW是根據(jù)某個(gè)詞前面的n個(gè)詞或者前后n個(gè)連續(xù)的詞,來計(jì)算某個(gè)詞出現(xiàn)多現(xiàn)哪些級別?132.高斯混合模型在語音識(shí)別中的作用是?()A、表示因素之間的概率轉(zhuǎn)移B、用來表示一個(gè)音素的多維數(shù)值分布C、用來區(qū)分不同的音素D、評估HMM算法的優(yōu)勢133.感知機(jī)的結(jié)構(gòu)是模擬以下哪種生物結(jié)構(gòu)?()A、大腦B、神經(jīng)元C、眼睛D、耳朵A、落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。C、落腳點(diǎn)在感知和行動(dòng)。D、落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算。135.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以下哪項(xiàng)關(guān)于其算法步驟是正確的?A、先反向傳播計(jì)算出誤差,再正向傳播計(jì)算梯度C、只有反向傳播計(jì)算梯度D、先正向傳播計(jì)算出誤差,再反向傳播計(jì)算梯度。參考答案:D136.反向傳播算法的做法是:計(jì)算之后將其進(jìn)行反向傳播。以下哪一項(xiàng)為空白A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對4137.對遠(yuǎn)程真機(jī)的描述正確的是?A、遠(yuǎn)程真機(jī)提供了華為最新最全的機(jī)型B、使用遠(yuǎn)程真機(jī)是危險(xiǎn)的,可能導(dǎo)致病毒D、可以無限時(shí)間的占用遠(yuǎn)程真機(jī)140.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯(cuò)誤的是A、CPU的功能主要是解釋計(jì)算機(jī)指令以及處理計(jì)算機(jī)硬件中的D、GPU是一種專門在個(gè)人電腦、工作站,游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作141.詞袋模型是最早的以詞語為基本處理單元的文本向量化方法。以下哪個(gè)TF-IDF的缺陷?B、存在語義鴻溝C、無法保留次序信息D、沒有基于分布假說143.測試誤差會(huì)隨著模型復(fù)雜度的上升不斷誠小。()參考答案:B144.參數(shù)合成方法最大的問題是?()A、音質(zhì)較差C、波形不確定A、時(shí)長A、DropoutC、權(quán)重D、隱藏層A、華為C、微軟D、谷歌A、splitB、ModelArts自研的可視化工具C、PythonD、TensorFlow官方提供的深度學(xué)習(xí)可視化工具153.Pytorch是有哪一個(gè)公司首先推出的?A、百度154.Pytorch是常見的機(jī)器學(xué)習(xí)計(jì)算框架,基于Torch,用于自然語言處理等應(yīng)用程序,以下哪種語言是Torch采用的編程語言?A、Python155.MoXing的自動(dòng)超參搜索功能的作用是什么()A、提供手動(dòng)調(diào)參的指導(dǎo)B、在參數(shù)空間中,自動(dòng)搜索初最優(yōu)的超參C、自動(dòng)搜索初最優(yōu)的學(xué)習(xí)率D、自動(dòng)搜索初最優(yōu)的Batch_size156.ModelArts自動(dòng)學(xué)習(xí)的使用流程是什么?()A、數(shù)據(jù)標(biāo)注->部署上線->模型訓(xùn)練B、數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線C、部署上線->模型訓(xùn)練->數(shù)據(jù)標(biāo)注D、模型訓(xùn)練->數(shù)據(jù)標(biāo)注->部署上線參考答案:B157.ModelArts支持的文本標(biāo)注任務(wù)A、文本分類B、命名識(shí)別C、文本三元組D、以上都對參考答案:D158.ModelArts支持的圖片標(biāo)注類型A、圖像分類B、物體檢測C、圖像分割D、以上都對參考答案:D159.ModelArts數(shù)據(jù)管理功能對應(yīng)深度學(xué)習(xí)開發(fā)流程中的哪個(gè)部分()A、數(shù)據(jù)準(zhǔn)備B、代碼調(diào)試D、訓(xùn)練160.ModelArts是一款華為發(fā)A、該描述正確自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注是最重要的功能B、該描述措誤,ModelArts僅支C、該描述正確,自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注可以極大的提升AI項(xiàng)目的效率。D、該描述措161.ModelArts開發(fā)環(huán)境的作用是什么()A、訓(xùn)練B、預(yù)測C、代碼預(yù)測A、GPU163.MindSpre中根據(jù)指定的軸,對輸入Tensr進(jìn)行數(shù)據(jù)重排的函數(shù)是()?mindspore.save_checkpointB、mindspore.load_cheC、mindspore.load_param_into_net(mod166.Mindspore提供了自動(dòng)對圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?A、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)C、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)D、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)參考答案:B167.Mindspore深度學(xué)習(xí)框架可以支持動(dòng)態(tài)圖和靜A、context.setcontext(mode=context.GPUB、context.setcontext(moontext.setcontext(mode=context.context.setcontext(mode=context.ASCENDMODE)參考答案:B正確的是哪一項(xiàng)?B、sens_param對網(wǎng)絡(luò)的輸出值做縮放以改變最終梯D、GradOperation方法在梯度下降和反向傳播中沒有任何用處。169.Mary想將訓(xùn)練好的模型部署上A、MindSporeInferB、MindSporeDeployC、MindSporeSe5170.John自己編寫了一個(gè)人工智能計(jì)算框架,其中部分算子不適配昇騰芯片,則A、通過CANN(ComputeArchitectureforneuralnetwork)中的已有算子進(jìn)行適配。B、通過適配層,完成不同框架的圖到FE(FusionEngine)IRGraph171.John在使用模型生成文本時(shí),發(fā)現(xiàn)模型會(huì)產(chǎn)生不準(zhǔn)確、模型的什么特性?A、涌現(xiàn)B、真實(shí)性D、可解釋性172.John在使用MindSpore練現(xiàn)這種格式無法直接在昇騰310芯片上進(jìn)行推理使用,為了可以利用當(dāng)前模型在昇騰310處理器完成推理,以下選項(xiàng)中哪種做法是正確的?5即可在昇騰310處理器上進(jìn)行推理。B、使用Mindspore加載當(dāng)前檢查點(diǎn)文件,然后導(dǎo)ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推C、將ckpt格式文件的后綴名修改為AIR,隨后使用ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。D、多查閱官方文檔,ckpt格式文件可以直接在昇騰310處理器上進(jìn)行推理。的功能介紹時(shí)發(fā)現(xiàn)有TBE(TensorBoostEngine)子系統(tǒng),其中有一個(gè)調(diào)度模塊,那么這個(gè)模塊的作用是什么?B、用于描述指定shape下算子如何在昇騰Al處理器上進(jìn)行切分D、對生成的IR進(jìn)行編譯優(yōu)化。174.John目前正在規(guī)劃建設(shè)數(shù)據(jù)中心,以下哪個(gè)系統(tǒng)或設(shè)備是他在L2建設(shè)時(shí)需要考慮的?A、供電系統(tǒng)B、設(shè)備組網(wǎng)C、云管理平臺(tái)D、制冷系統(tǒng)參考答案:B寫,而昇騰AI芯片上有專門用于圖像預(yù)處理的硬件模塊,可以提高圖像預(yù)處理效率,這個(gè)模塊是什么?A、CLA、輸入門D、更新門A、為數(shù)據(jù)中心提供硬件精細(xì)化管理能力B、為智算中心提供一站式軟件部署服務(wù)C、為公有云提供大規(guī)模服務(wù)器自動(dòng)化運(yùn)維能力D、為私有云提供一站式硬件管理能力179.CANN(ComputeArchitectureforNeuralNetwork)中包A、TBE(TensorBoostEngC、算子適配插件A、相加關(guān)系B、相互獨(dú)立C、后面的模型必須建立在前面的模型之上D、相關(guān)關(guān)系參考答案:BA、異騰310處理器C、異騰910處理器182.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基A、tlas800型號(hào):9000B、Atlas800型號(hào):3000C、Atlas800型號(hào):3010參考答案:B183.Atlas200DK所基于的昇騰310芯片主要的應(yīng)用是?A、模型訓(xùn)練B、模型構(gòu)建184.267.下圖中,像素點(diǎn)p到t的4連通通路為()PuQRVTS185.“人工智能對于所有的數(shù)據(jù)都可以處理?!标P(guān)干上述描述,以下哪一個(gè)說確的?A、該說法錯(cuò)誤是深度學(xué)習(xí)能對所有的數(shù)據(jù)都可以處理B、該說法正確,AI可以處理任何數(shù)據(jù),D、該說法措誤,需要對致?lián)M(jìn)行預(yù)處理等操作才可以輸入模型型進(jìn)行訓(xùn)練?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該描述錯(cuò)誤,批量推理不需要訓(xùn)練操作B、該描述錯(cuò)誤,推理之前要對模型進(jìn)行訓(xùn)練才可以D、該描述正確,批量推理就是不需要再訓(xùn)練了187."ModelArts是一款華為臺(tái)?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該描述正確,自動(dòng)學(xué)習(xí)和自動(dòng)標(biāo)注是最重要的功能。C、該描述錯(cuò)誤,ModelArts支持自動(dòng)學(xué)習(xí)、預(yù)置模D、該描述錯(cuò)誤,ModelArts僅支持自動(dòng)學(xué)習(xí)、自動(dòng)標(biāo)注和代碼調(diào)188.哪個(gè)MindSpore組件幫助實(shí)現(xiàn)“一次訓(xùn)練,多處部署”?()A、長度不確定B、求平均數(shù)C、投票制D、累乘制參考答案:BC3.在使用華為云通用文字識(shí)別做實(shí)驗(yàn)時(shí),輸出結(jié)果包含非常信息,正確的有哪些選項(xiàng)?'B、輸出信息中的Statuscode表示服務(wù)狀態(tài),200表示訪問服務(wù)正常。A、補(bǔ)零A、行為主義D、機(jī)器主義A、批次大小D、損失值7.在Transformer中,用于捕獲序列內(nèi)的時(shí)序依賴關(guān)系的層有哪些?B、自注意力層C、位置編碼D、前饋網(wǎng)絡(luò)層參考答案:BC型泛化能力的有哪些?C、對圖片數(shù)據(jù)進(jìn)行裁剪、反轉(zhuǎn)操作D、復(fù)制當(dāng)前數(shù)據(jù),增加數(shù)據(jù)量。9.語音信號(hào)特征提取的方法有哪些?()A、線性預(yù)測系數(shù)(LPC)10.語音合成中的文本分析包括哪些內(nèi)容?()B、文本歸一化C、語音分析D、韻律分析參考答案:BCD11.與Sigmoid激活函數(shù)相比,以下哪些選項(xiàng)是ReLU的優(yōu)勢?()B、緩解梯度爆炸問題D、節(jié)省計(jì)算量612.異構(gòu)計(jì)算架構(gòu)CANN包含以下哪些組件?A、文字識(shí)別以開放API的方式提供給用戶.用戶可以將文字識(shí)別集成到第三方系統(tǒng)調(diào)B、用戶可以在管理控制臺(tái)申請開通文字識(shí)別服務(wù),查看服務(wù)的調(diào)用成功和失敗次數(shù)C、文字識(shí)別提供了web化的服務(wù)管理平臺(tái),即管理控制臺(tái),以及基于HTTPS請求的API管理方式D、每次使用服務(wù)都需要申請A、決策樹C、隨機(jī)森林D、支持向量機(jī)615.以下屬于序列標(biāo)注任務(wù)的是()A、情感分析B、中文分詞C、實(shí)體識(shí)別D、詞性標(biāo)注參考答案:BCDA、文本歸一化D、韻律分析A、初始化B、吉布斯采樣C、生成語句D、生成主題參考答案:ABA、專家系統(tǒng)D、圖像標(biāo)簽分類參考答案:BD20.以下哪些選項(xiàng)為針對文本數(shù)據(jù)的數(shù)據(jù)增大小A、DropoutC、升騰910A、極致性能A、Dropout28.以下哪些項(xiàng)是單層感知機(jī)和邏輯回歸的主A、優(yōu)化方法B、損失函數(shù)D、處理的任務(wù)參考答案:BCA、單通道變化B、對比度增加C、仿射變化D、直方圖C、Logisticsigmoid與雙曲正切函數(shù)D、Borel單元32.以下哪些是隱藏單元?()A、logisticsigmoid與雙曲正切函數(shù)B、整流線性單元(RELU的另一種翻譯方法)A、非線性C、有界性A、問答C、摘要A、decoratorC、文本摘要D、命名實(shí)體識(shí)別A、減少神經(jīng)元個(gè)數(shù)B、在神經(jīng)網(wǎng)絡(luò)中添加殘差塊C、使用非線性的激活函數(shù)D、增加一定數(shù)量的隱藏層40.以下哪幾項(xiàng)屬于MindSpore里的激活41.以下模型偏差和方差之間的組合,說法正確的有A、高偏差+高方差,模型可以視為不良模型。B、低偏差+高方差,可以造成欠擬合。C、一個(gè)好的模型,方差和偏差都要求比較低。D、高偏差+低方差更可能造成欠擬合。42.以下關(guān)于語音信號(hào)特點(diǎn)的描述,正確的是哪A、短時(shí)范圍一般認(rèn)為在10-30msB、語音信號(hào)具有短時(shí)平穩(wěn)性C、語音信號(hào)會(huì)隨著時(shí)間的變化而變化,它是一種平穩(wěn)態(tài)的時(shí)變信號(hào)D、短時(shí)分析技術(shù)貫穿于語音信號(hào)分析的全過程B、理論上CRF也可以與其他深度學(xué)習(xí)方法結(jié)合,比如BERTC、RF中一般只使用一種特征函數(shù)。D、CRF中需要對不同序列的結(jié)果進(jìn)行概率歸一化。參考答案:ABD44.以下關(guān)于梯度下降的描述中,哪些選項(xiàng)是A、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,因此對于所有任務(wù)這種方法是B、隨機(jī)梯度下降(SGD),隨機(jī)選取一個(gè)數(shù)據(jù)集中的樣本在當(dāng)前的梯度來對權(quán)重參數(shù)進(jìn)對權(quán)重參數(shù)進(jìn)行更新操作參考答案:BCD45.以下關(guān)于深度學(xué)習(xí)的描述,正確的是那A、利用算法自動(dòng)提取特征C、需要GPU做并行運(yùn)算46.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項(xiàng)是A、模型超參數(shù)通常由實(shí)踐者直接指定C、模型超參數(shù)通常根據(jù)給定的預(yù)測建模問題而調(diào)整47.以下關(guān)于決策樹的描述中,哪些選項(xiàng)是C、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對所有的劃分操D、決策樹的構(gòu)造就是進(jìn)行屬性的選擇,確定各個(gè)特征屬性之間的樹結(jié)構(gòu)。參考答案:BCD48.以下關(guān)于決策樹的描述中,哪些選項(xiàng)是B、決策樹的構(gòu)造就是進(jìn)行屬性的選擇確定各個(gè)特征屬性之間的樹結(jié)構(gòu)C、純度的量化指標(biāo)只能通過信息嫡D、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征49.以下關(guān)于單層感知器的描述中,正確的是C、單層感知器使用高維X向量做輸入,在高維空間對輸入的樣7本進(jìn)行三分類,向量做輸入,在高維室間對輸入的樣本進(jìn)行二分類D、單層感知器可以看做是前饋神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。參考答案B、轉(zhuǎn)折點(diǎn)定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對發(fā)散A、包MindSpore支持自動(dòng)整圖切分B、Minispore只能采用手動(dòng)模型并行,需要設(shè)計(jì)模型切分,C、MindSpore支持集群拓?fù)涓兄{(diào)度B、實(shí)現(xiàn)多前端,跨芯片,跨平臺(tái)A、圖算深度融合,充分發(fā)揮AI芯片的算力C、分布式并行原生支撐AI模型突破萬億參數(shù)D、全場景企業(yè)級能力:實(shí)現(xiàn)靈活部臀和協(xié)同,安全可信、可解釋B、傳統(tǒng)的模型面臨內(nèi)存墻,交互開銷大、數(shù)據(jù)供給難等挑戰(zhàn)。C、MindsporA、GRU是LSTM的一種變體B、GRU將遺忘門和輸入門合成了一個(gè)單和當(dāng)前時(shí)核刻的輸入D、GRU混合了細(xì)胞狀態(tài)和隱藏狀態(tài)B、訓(xùn)練出的模型是一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)C、一般采用監(jiān)督學(xué)習(xí)方法D、訓(xùn)練需要大量的數(shù)據(jù)。A、音韻序列合成波形條件D、文字序列轉(zhuǎn)換成音韻序列A、Sigmoid函數(shù)A、豐富的圖分析算法庫B、語音交互C、高性能圖計(jì)算內(nèi)核D、分布式高性能圖存儲(chǔ)擎D、像人一樣思考,屬于弱人工智能領(lǐng)域63.下列對早期的全連接方式不適用于圖像特征提取的說法A、計(jì)算速度快D、容易過擬合A、數(shù)值數(shù)據(jù)轉(zhuǎn)換為類別數(shù)據(jù)可以減少變量的值。B、在分類問題中,將類別數(shù)據(jù)編碼成為對應(yīng)的數(shù)值表示C、在文本中,通過詞嵌入將詞轉(zhuǎn)化為詞向量也是一種數(shù)據(jù)轉(zhuǎn)換對數(shù)據(jù)進(jìn)行初步的預(yù)處理后,D、需要將其轉(zhuǎn)換為一種適合機(jī)器學(xué)習(xí)模型的表示形式65.文本向量化方法有?()B、數(shù)據(jù)中心溫度D、碳使用效率A、灰度變換B、幾何校正C、圖像增強(qiáng)D、圖像濾波A、目標(biāo)位置的計(jì)算B、目標(biāo)類別的判斷C、置信度的計(jì)算D、目標(biāo)邊緣的計(jì)算69.通過濾波器的方法實(shí)現(xiàn)邊緣檢測,可70.調(diào)用華為云服務(wù)時(shí),以下哪些信息會(huì)用來進(jìn)行認(rèn)證?()A、當(dāng)前時(shí)間C、調(diào)用服務(wù)名稱D、SK參考答案:BDCoT與Few-shot-CoT相比有哪些優(yōu)點(diǎn)?()A、多數(shù)情況下效果優(yōu)于Few-shot-CoTB、無需人工設(shè)計(jì)示例C、更好的可擴(kuò)展性D、通用性強(qiáng)參考答案:BCDA、RGB參考答案:ABCD73.數(shù)字圖像在采集時(shí),圖像的成像質(zhì)量由傳感器的哪些因素決定?A、傳感器的尺寸B、傳感性能D、語法75.使用深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)處理語音識(shí)別的優(yōu)點(diǎn)有哪些?()估結(jié)果會(huì)展現(xiàn)以下哪些選項(xiàng)?()A、召回率B、精確率C、準(zhǔn)確率D、F1值77.昇騰AI處理器主要的硬件架構(gòu)包括以下哪些選項(xiàng)A、多層級的片上系統(tǒng)緩存或緩中區(qū)C、芯片系統(tǒng)控制CPUD、AI計(jì)算擎A、由文字生成圖像B、生成人臉照片A、DropoutC、增加更多的樣本D、增大摸型復(fù)雜度提高在訓(xùn)練集上的效果880.人工智能研究在國際上至今沒有統(tǒng)一的定義,目前普遍將只能機(jī)器分為以下哪幾類?A、理性地行動(dòng)C、像人一樣思考D、像人一樣行動(dòng)81.人工智能四要素包括()B、算力C、算法D、場景82.人工智能的技術(shù)方向之一是語音技術(shù),語音前A、自適應(yīng)技術(shù)B、神經(jīng)網(wǎng)絡(luò)C、語言模型D、量子計(jì)算83.評判分類模型的F1值是以下哪些指標(biāo)的調(diào)和均值?A、召回率(recall)84.某廠商希望開發(fā)一款應(yīng)用,可以實(shí)現(xiàn)實(shí)時(shí)人像摳圖然后完成背景替換,現(xiàn)在應(yīng)用使用AscendCL/AscendCompuingLanguage開發(fā),據(jù)預(yù)處理部分使用了OpenCV編寫,在實(shí)際運(yùn)行的時(shí)候發(fā)現(xiàn)效果很不理想,幀數(shù)很低,可以采用以下哪些方式提升效果?C、使用DVPP模塊進(jìn)行推理。D、降低輸入和輸出視頻的分辨率。85.命名實(shí)體識(shí)別是指識(shí)別文本中具有特定意義的實(shí)體A、人名C、機(jī)構(gòu)名D、時(shí)間86.命名實(shí)體識(shí)別是指識(shí)別文本中具有特定意義的實(shí)體B、地名C、機(jī)構(gòu)名D、時(shí)間87.卷積神經(jīng)網(wǎng)絡(luò)中1x1卷積的作用包含以下哪幾項(xiàng)?A、控制輸出特征圖的通道數(shù)。D、調(diào)節(jié)超參數(shù)。A、局部感知D、全連接89.卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)共亨的優(yōu)點(diǎn)包含以下哪幾項(xiàng)?A、特征進(jìn)行降維C、隨機(jī)梯度下降A(chǔ)、語音導(dǎo)航C、圖片搜索D、視頻動(dòng)作分析D、生成D、快速高效A、返回值401說明當(dāng)前請求需要用戶驗(yàn)證B、返回值403說明沒有操作權(quán)限C、返回值400說明語義有誤,當(dāng)前請求無法被服務(wù)器解析D、返回值500說明請求失敗,在服務(wù)器上未找到請求所希望得到的資源95.華為云人臉識(shí)別服務(wù),是基于人的臉部特征信息,利用計(jì)算機(jī)對人臉圖——分析和理解,進(jìn)行身份識(shí)別的一種智能服務(wù),當(dāng)前華為云人臉識(shí)別提供了哪幾種子服務(wù)()A、人臉?biāo)阉鰾、人臉跟蹤C(jī)、人臉檢測D、人臉對比97.華為云ModelArts中推出了ModelBox優(yōu)化策略?A、算子自動(dòng)切分B、硬件親和性C、模型克隆D、算子優(yōu)化98.華為云ModelArts是面向AI開發(fā)上可以具備?B、AI市場C、可視化工作流D、自動(dòng)學(xué)習(xí)智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體100.華為云EI圖像標(biāo)簽實(shí)現(xiàn)智慧相冊的實(shí)驗(yàn)中,以下關(guān)于圖像標(biāo)簽Aerror_code的描述中,正確的有哪些項(xiàng)?()A、返回值403說明沒有操作權(quán)限。B、返回值500說明請求失敗,在服務(wù)器上未找到請求所希望得到的資源C、返回值400說明語義有誤,當(dāng)前請求無法被服務(wù)器解析D、返回值401說明當(dāng)前請求需要用戶驗(yàn)證A、GIF參考答案:BCD102.華為的AI全場景包含有以下哪些選項(xiàng)?A、IoT行業(yè)終端B、邊緣計(jì)算設(shè)備A、私有云B、L1和L2正則化105.關(guān)于物體檢測,說法正確的有哪些?()A、檢測異常點(diǎn)C、識(shí)別目標(biāo)的類別D、識(shí)別目標(biāo)的位置A、假如隨機(jī)變量X服從某種分布,似然是指在給定參數(shù)的條件下,X=x的可能性.C、假如隨機(jī)變量X服從某種分布,似然是指X=x條件下某一組參數(shù)的真實(shí)性大小D、假如隨機(jī)變量X服從某種分布,概率是指X=x的條件下某一組參數(shù)有真實(shí)性大小參考答案:BC107.關(guān)于概率與似然的描述錯(cuò)誤的是以下哪A、似然指的是事件的先驗(yàn)概率B、假如隨機(jī)變量X服從某種分布,概率是指X=x的條件下某一組參數(shù)的真實(shí)性大小C、假如隨機(jī)變量X服從某種分布,最大似然是指X=x的條件下某一組參數(shù)的真實(shí)性最小可能D、假如隨機(jī)變量X服從某種分布,概率是指108.關(guān)于概率密度函數(shù)的性質(zhì)描述正確的是()A、概率密度函數(shù)的取值可以取任意值B、概率密度函數(shù)的取值大于等于0C、概率密度函數(shù)在正負(fù)無窮的積分為1D、概率密度函數(shù)在正負(fù)無窮的積分為0參考答案:BCA、反向傳播算法使得神經(jīng)網(wǎng)絡(luò)的效果有了更大的提升。B、如果網(wǎng)絡(luò)中存在數(shù)個(gè)隱藏層。也可以使用求導(dǎo)的鏈?zhǔn)椒▌t逐層求導(dǎo),選代求解最優(yōu)參數(shù)C、損失函數(shù)中產(chǎn)生的誤差,是通過輸入層到隱藏層到輸出層逐漸積累形成的。D、反向傳播又叫誤差反向傳播。110.關(guān)于ResNet_v1_50,說法正確的是()A、是一種CNN神經(jīng)網(wǎng)絡(luò)模型B、可以用作圖像分類C、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大于等于50層111.根據(jù)批量大小,梯度下降常用的方法有哪些?A、SGDA、喉頭B、喉上C、喉中D、喉下113.多選題、在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中我們經(jīng)常使用優(yōu)化器加快訓(xùn)練速度,以114.對于MindSpre中張量的屬性A、張量的屬性包括形狀、數(shù)據(jù)類型、轉(zhuǎn)置張量、單個(gè)元素大小、占用字節(jié)數(shù)量、維數(shù)、元素個(gè)數(shù)和每一維步長B、Tensr的shape返回是一個(gè)listC、Tensr的dtype,是MindSpre的一個(gè)數(shù)據(jù)類型115.對話系統(tǒng)按使用目的分主要有哪幾類B、聊天C、知識(shí)問答D、推薦D、病例分析A、最大池化B、平均池化C、最小池化D、卷積池化D、期望為1A、池化層B、卷積層C、輸入層D、全連接層A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)A、自由變量B、高階函數(shù)D、遞歸127.ModelArts支持的物體檢測預(yù)置模型有哪些()A、Faster_RCNN_RestNet_v2_128.ModelArts預(yù)置模型和自定義模型開發(fā)相比的特點(diǎn)有哪些?()A、需要的數(shù)據(jù)量多B、需要標(biāo)注數(shù)據(jù)C、無需自己開發(fā)代碼D、能夠更快收斂129.ModelArts涵蓋如下哪些模塊()E、部署上線B、軟硬協(xié)同的圖優(yōu)化技術(shù)C、端云協(xié)同F(xiàn)ederalMetaLearningD、集中式架構(gòu)131.MindSpore在網(wǎng)絡(luò)訓(xùn)練過程中,為了調(diào)試網(wǎng)絡(luò)一般會(huì)觀察lo般有哪幾種表現(xiàn)?133.LBP特征描述子有以下哪些優(yōu)點(diǎn)?()134.LangChain框架是一個(gè)開源工具,可充分利用大語言模型的強(qiáng)用,它的核心組件包含以下哪些選項(xiàng)?135.John訓(xùn)練好的模型,在訓(xùn)練集上準(zhǔn)確率高,在測試集上準(zhǔn)確率偏低下哪些操作以優(yōu)化模型表現(xiàn)?A、增加網(wǎng)絡(luò)層數(shù)B、做數(shù)據(jù)增強(qiáng)C、加入正則項(xiàng)D、刪除部分訓(xùn)練數(shù)據(jù)參考答案:BC136.John需要完成圖像分類任務(wù),準(zhǔn)備對訓(xùn)練后的模型進(jìn)行評估,常用的評估指標(biāo)包含以下哪些選項(xiàng)?A、準(zhǔn)確率B、精確率C、召回率D、均方誤差,他想通過OBSBrowser+批量上傳大文件和文件夾,請問John不可以通過以下哪一種方式登錄OBSBrowser+?A、賬號(hào)登錄B、郵箱登錄C、授權(quán)碼登錄D、AK方式登錄參考答案:ACD構(gòu)的電腦進(jìn)行應(yīng)用開發(fā),實(shí)際工程運(yùn)行在鯤鵬+昇騰的服務(wù)器上,那么他需要考慮哪些問題?A、由于鯤鵬是ARM架構(gòu),因此在進(jìn)行應(yīng)用編譯的時(shí)候需要B、本地安裝的CANN版本需要與工程運(yùn)行環(huán)境的版本保持一致。D、由于AscendCL支持多平臺(tái)、多架構(gòu),因此無需考慮x86和鯤A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的APIA、語音識(shí)別C、語音降噪A、多GPU反向傳播143.CANN的是華為面向深度神經(jīng)網(wǎng)絡(luò)和昇騰處理器打造的芯片使能層,它主要包括功能模塊有()B、CCE算子庫144.CANN(ComputeArchitectureforNeuralNetwork)中的FE(FusionEngiA、存儲(chǔ)引擎B、計(jì)算引擎C、通用引擎D、控制引擎10A、醫(yī)療影像分析B、視頻分析C、語音服務(wù)D、OCR146.Ascend芯片是華為設(shè)計(jì)的AI芯片,其特點(diǎn)是哪幾項(xiàng)?A、高功耗C、低功耗D、低算力147.Adam優(yōu)化器可以看做是以下哪幾項(xiàng)的結(jié)合?A、Momentum10A、正確B、錯(cuò)誤2.自然語言是以語音為物質(zhì)外殼,由詞匯和語法兩部分組成的符號(hào)系統(tǒng),A、正確B、錯(cuò)誤B、錯(cuò)誤4.自然語言處理可以定義為研究在人與人交際中以及人與計(jì)算機(jī)交際中的語言一門學(xué)科。自然語言處理要言之表型,建議計(jì)算框架來實(shí)現(xiàn)這樣的語言模型,提出相應(yīng)的方法來不斷完善這樣的語言模型,根據(jù)這樣的語言模型設(shè)計(jì)各種系統(tǒng)的評測技術(shù)B、錯(cuò)誤參考答案:B6.直方圖規(guī)定化可以根據(jù)經(jīng)驗(yàn),將圖像的直方圖調(diào)整為規(guī)定的A、正確B、錯(cuò)誤來的小網(wǎng)絡(luò)可以具備和大的復(fù)雜網(wǎng)絡(luò)相接近的性能效果,并且也大大的節(jié)省了計(jì)算資8.知識(shí)圖譜表示的是概念與實(shí)體之間的關(guān)系網(wǎng)絡(luò),因此一個(gè)知識(shí)圖,性能也就越好。B、錯(cuò)誤A、正確B、錯(cuò)誤參考答案:AA、正確A、正確B、錯(cuò)誤A、正確B、錯(cuò)誤度的閾值,高于此置信數(shù)的標(biāo)簽將不會(huì)被返回A、正確A、正確B、錯(cuò)誤開啟了DHCPA、正確B、錯(cuò)誤A、正確參考答案:BA、正確B、錯(cuò)誤參考答案:B參考答案:B22.隱藏層就是神經(jīng)網(wǎng)絡(luò)中輸入與輸出層之間的中間層,訓(xùn)練數(shù)據(jù)A、正確B、錯(cuò)誤參考答案:BA、正確B、錯(cuò)誤24.一款A(yù)PP,對著植物盆栽拍照后,就能顯示植物名稱和養(yǎng)殖方法,其核心是使用了A、正確25.一般來說,Sigmoid網(wǎng)絡(luò)在5層之內(nèi),就會(huì)產(chǎn)生梯度退化A、正確B、錯(cuò)誤B、錯(cuò)誤A、正確B、錯(cuò)誤A、正確B、錯(cuò)誤A、正確B、錯(cuò)誤30.線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該A、正確葉斯作為模型的話,則我們假設(shè)屬性之間不存在32.為了使特征圖的尺寸和輸入圖像一致,可以使用零填充一個(gè)全0的邊框再進(jìn)行計(jì)算B、錯(cuò)誤A、正確B、錯(cuò)誤A、正確A、正確B、錯(cuò)誤A、正確B、錯(cuò)誤A、正確參考答案:B40.通常情況下,梯度下降方法在接近目標(biāo)點(diǎn)區(qū)域的極小范圍內(nèi),下降的幅A、正確B、錯(cuò)誤41.調(diào)用華為云文字識(shí)別API時(shí),可以返回文字塊的區(qū)域位置信息,坐標(biāo)原點(diǎn)為圖片左B、錯(cuò)誤參考答案:B43.損失函數(shù)E(W)是定義在權(quán)值空間上的函數(shù)。我們的目的是搜索使得E(W)最小的權(quán)值向量?B、錯(cuò)誤外延也在不斷的變化。A、正確B、錯(cuò)誤45.雙峰法能夠自動(dòng)求取圖像的最佳分隔閾值,但并不適用于所有的灰度圖前2個(gè)參教分別是ak和sk。第3個(gè)參數(shù)是圖像數(shù)據(jù)進(jìn)行B、錯(cuò)誤度也為100,A、正確B、錯(cuò)誤51.使用mindspore.nn.conv2d構(gòu)建二位卷積神經(jīng)網(wǎng)絡(luò)時(shí),默認(rèn)情況下,接受圖像數(shù)A、正確B、錯(cuò)誤參考答案:BB、錯(cuò)誤參考答案:B53.實(shí)際項(xiàng)目中,在構(gòu)建模型之前,數(shù)據(jù)清理與特征工程是非常重要的B、錯(cuò)誤54.生物的能力從后天學(xué)習(xí)得到,或者是生物的本能。機(jī)器學(xué)習(xí)是機(jī)器通得到的能力,而除了機(jī)器學(xué)習(xí),就是機(jī)器的本能,也就是用大量程

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論