華為ICT大賽2025-2026中國區(qū)(實踐賽)-昇騰AI賽道備賽高頻試題(附答案)_第1頁
華為ICT大賽2025-2026中國區(qū)(實踐賽)-昇騰AI賽道備賽高頻試題(附答案)_第2頁
華為ICT大賽2025-2026中國區(qū)(實踐賽)-昇騰AI賽道備賽高頻試題(附答案)_第3頁
華為ICT大賽2025-2026中國區(qū)(實踐賽)-昇騰AI賽道備賽高頻試題(附答案)_第4頁
華為ICT大賽2025-2026中國區(qū)(實踐賽)-昇騰AI賽道備賽高頻試題(附答案)_第5頁
已閱讀5頁,還剩246頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

華為ICT大賽2025-2026中國區(qū)(實踐賽)-昇騰AI賽道備賽高頻試題(附答案)單選題1.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個像素在空間上存在什么鄰接關(guān)系?()A、不存在鄰接關(guān)系B、對角鄰接C、8-鄰接D、4-鄰接2.自拍時,手機前置鏡頭顯示的畫面需要通過哪個變換后,才是真實的場景圖像?()C、垂直鏡像3.在坐標(biāo)變化時,計算得到的坐標(biāo)數(shù)值不是整數(shù),需要使用什么方法獲取該像素的值?A、插值A(chǔ)、兩個實驗所使用的API都是OCRAPIC、兩個實驗的輸出結(jié)果都有wordsblocklist,字塊列表。法A、指定輸入維度B、知識蒸館D、指定網(wǎng)絡(luò)優(yōu)化器8.在一個任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強化學(xué)習(xí)9.在調(diào)用語音合成服務(wù)時,需要提前設(shè)置一些參數(shù)值,下列哪個范圍的值可以作為音量值?的返回結(jié)果中,如果suggestion為真時,category的取值為以下哪項?C、空字符11.在神經(jīng)網(wǎng)絡(luò)中引入非線性因素的是以下哪個選項?A、權(quán)重參數(shù)B、激活函數(shù)C、損失函數(shù)D、模型輸入12.在深度學(xué)習(xí)領(lǐng)域中,以下哪一項不是優(yōu)化器的作用?()A、減小超參數(shù)設(shè)置難度,主要是LearningRate(LR)B、尋找最優(yōu)超參數(shù)C、加快算法收斂速度D、緩解算法擴散速度13.在全連接結(jié)構(gòu)中,使用一個包含1000個神經(jīng)元的隱藏層處理一張100*100分辨率的圖片,不考慮偏置項,以下哪一項是正確的參數(shù)量?參考答案:D14.在前饋神經(jīng)網(wǎng)絡(luò)的前向傳播過程當(dāng)中,具體是以下哪一項被前向傳播?A、輸入的數(shù)據(jù)C、輸出的數(shù)據(jù)D、誤差15.在邏輯回歸中,加入L1范數(shù),會產(chǎn)生什么效果?()A、可以做特征選擇B、能加快計算速度C、可以獲得更準(zhǔn)確的結(jié)果D、可以減小訓(xùn)練誤差16.在交通執(zhí)法的車輛檢測場景中,對違章車輛的罰寧可漏報,不要誤報,以免產(chǎn)生錯誤的罰款,這需要系統(tǒng)的哪個指示很高?A、召回率B、置信度D、正確率17.在達(dá)芬奇架構(gòu)中關(guān)于矩陣計算,以下哪個選項和矩陣計算單元主要完成矩陣相關(guān)運算?A、寄存器B、累加器C、運算器D、控制器參考答案:B18.在Mindspore中,能夠提供訓(xùn)練過程可視化的是以下哪個子系A(chǔ)、個人特征因素B、場景因素C、地域因素參考答案:D20.與人類駕駛對比,以下哪一個智能駕駛汽車中的部件可以看作是人類的感知器官?A、智能座艙B、毫米波雷達(dá)D、方向盤21.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個模型?D、神經(jīng)網(wǎng)絡(luò)22.用戶自定義超參可以在ModelArts訓(xùn)練作業(yè)的哪個字段設(shè)置?A、資源池B、運行參數(shù)C、計算節(jié)點個數(shù)D、算法來源參考答案:B23.以下選項中不屬于超參數(shù)搜索方法的是哪一項?A、網(wǎng)格搜索B、聚類算法C、貝葉斯搜索D、隨機搜索24.以下選項中,那個是語音合成接口對應(yīng)的API?25.以下選項中,哪一項不屬于模型訓(xùn)練的超參數(shù)?A、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率B、一元線性回歸模型Y=wX+b中的權(quán)置系數(shù)(斜率)“D、隨機森林當(dāng)中的樹的棵數(shù)26.以下選項中,哪個是語音合成接口對應(yīng)的API?A、tlas200DK基于昇騰310芯片B、Atlas900系列主要為AI集群D、昇騰310處理器常用于進(jìn)行模型訓(xùn)練B、循環(huán)神經(jīng)網(wǎng)絡(luò)A、狀態(tài)集合B、觀測概率C、轉(zhuǎn)移概率D、初始概率31.以下哪一項屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中一對多的類型?A、機器翻譯B、情感分析C、動作識別D、音樂生成參考答案:D32.以下哪一項是語音合成的簡稱?()33.以下哪一項是異騰310芯片的功耗?34.以下哪一項是Sigmoid函數(shù)導(dǎo)數(shù)的最大值35.以下哪一項是mox.file中用來移動一個OBS文件或文件夾的A36.以下哪一項激活函數(shù)經(jīng)常用作分類任務(wù)的輸出層37.以下哪一項對于每一個參數(shù)都用相同的學(xué)習(xí)率進(jìn)行更新?參考答案:C38.以下哪一項不屬于人工智能技術(shù)帶來的爭議性問題?A、利用GAN網(wǎng)絡(luò)生成家居圖像發(fā)布在租房和訂酒店的平臺,以達(dá)到欺騙消費者的目的。B、高鐵站利用計算機視覺技術(shù)進(jìn)行人臉識別,快速完成身份信息比對。C、通過圖像處理技術(shù),很多減肥藥廣告可以改變?nèi)宋锏耐庥^以達(dá)到減肥前后的對比D、通過圖像處理技術(shù),把犯罪嫌疑人P在一個從未去過的地方或?qū)⑺c未見過的人放在一起以此來制造假證據(jù)39.以下哪一項不屬于華為云EI自然語言處理服務(wù)提供的意圖理解API所支持的領(lǐng)域?B、鬧鐘類D、娛樂類40.以下哪一個選項不屬于知識圖譜構(gòu)建流程?A、數(shù)據(jù)獲取B、確定知識譜圖面向的領(lǐng)域C、創(chuàng)造新的概念D、知識融合41.以下哪一個模板可以實現(xiàn)圖像的銳比?()42.以下哪一個不屬于人臉識別技術(shù)?A、人臉?biāo)阉鰾、人臉比對C、人臉檢測D、翻拍識別43.以下哪個選項是神經(jīng)網(wǎng)絡(luò)訓(xùn)練最常用的方法?A、共輪樣度法B、梯度下降C、高其消元D、最小二乘法44.以下哪個選項是ATC工具模型轉(zhuǎn)換后的文件格式?()參考答案:D45.以下哪個選項使得GPU適用于神經(jīng)網(wǎng)絡(luò)的加速運算?()A、控制調(diào)度能力B、并行計算能力C、串行計算能力D、從內(nèi)存調(diào)用數(shù)據(jù)的能力參考答案:B46.以下哪個選項不屬于自然語言處理技術(shù)的三個層面()B、詞法分析C、句法分析D、語義分析B、振幅A、長短時記憶網(wǎng)絡(luò)LSTMB、殘差図絡(luò)ResNetC、生成式對抗網(wǎng)絡(luò)GAND、視覺判別網(wǎng)絡(luò)VGGNet51.以下哪個不屬于HIAI模型市場的作用?C、提供行業(yè)開源的AI模型給開發(fā)者使用D、開發(fā)者分享自己的AI模型A、目標(biāo)檢測C、場景分析D、語音合成54.以下哪個不是提示工程中常用的提示策略?A、近端策略優(yōu)化D、思維鏈提示55.以下關(guān)于深度學(xué)習(xí)中常用的損失函數(shù)的描述,哪一項是不正確A、二次代價函數(shù)關(guān)心目標(biāo)輸出和實際輸出之間的“距離”B、二次代價函數(shù)更多得用于分類問題,而交叉熵代價函數(shù)一般用于回歸問題C、交叉熵代價函數(shù)刻畫了兩個概率分布之間的距離D、訓(xùn)練的目的是使得損失函數(shù)達(dá)到最小56.以下關(guān)于前饋型神經(jīng)網(wǎng)絡(luò)的描述,錯誤的是哪一項?A、采用一種單向多層結(jié)構(gòu),每一層包含若干個神經(jīng)元,同一層的神經(jīng)元之間沒有互相連接,層間信息的傳送只沿一個方向進(jìn)B、各層節(jié)點表示具有計算功能的神經(jīng)元,稱為計算單元。C、每個神經(jīng)元與前一層的所有神經(jīng)元相連。D、輸入節(jié)點并無計算功能,只是為了表征輸入矢量各元素的值。57.以下關(guān)于樸素貝葉斯的說法中,哪一項是錯誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高的準(zhǔn)確性和快速的速度B、樸素貝葉斯的"樸素",指的是該方法需要假設(shè)各個特征之間是獨立的C、樸素貝葉斯是一種簡單的多分類算法D、樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜58.以下關(guān)于模型有效性的描述中,哪一項是錯誤的A、誤差是指學(xué)習(xí)到的模型在樣本上的預(yù)測結(jié)構(gòu)與樣本的真實結(jié)果之間的差B、訓(xùn)練誤差指的是在新樣本上的誤差C、機器學(xué)習(xí)的目標(biāo)是使學(xué)得的模型能夠很好的適用于新的樣本,而不是僅僅在訓(xùn)煉樣本上工作的很好從模型訓(xùn)練過程的角度,誤差可以被D、分為訓(xùn)練誤差以及泛化誤差59.以下關(guān)于邏輯回歸的描述中,哪一項是錯誤的?A、邏輯回歸模型是一種分類模型,用來解決分類問題。B、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函C、邏輯回歸與線性回歸都是廣義線性模型。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。參考答案:D60.以下關(guān)于聯(lián)邦學(xué)習(xí)的描述,哪一個選項是錯誤的?A、聯(lián)邦學(xué)習(xí)有助于實現(xiàn)更安全的數(shù)據(jù)共享。B、聯(lián)邦學(xué)習(xí)原本用于解決安卓手機終端用戶在本地更新模型的C、聯(lián)邦學(xué)習(xí)的目的在于保證數(shù)據(jù)隱私安全及合法合規(guī)的基礎(chǔ)上,實現(xiàn)共同建模,提升AI橫型的效果D、聯(lián)邦學(xué)習(xí)最早在2016年由百度公司提出。參考答案:D61.以下關(guān)于交叉驗證的描述中,哪一項是錯誤的A、k-折交叉驗證是常用的交叉驗證方法B、交叉驗證首先用訓(xùn)練集對分類器進(jìn)行訓(xùn)練再利用驗證集來測試訓(xùn)練得到的模型以此來做為評價分類器的性能指標(biāo)C、交叉驗證是用來驗證分類器的性能一種統(tǒng)計分析方法D、k-折交叉驗證方法中的k不是超參數(shù)是由模型訓(xùn)練得來的參考答案:D62.以下關(guān)于計算機視覺的說法,哪一個選項是正確的?A、計算機視覺需要用到圖像處理技術(shù)B、計算機視覺是利用計算機技術(shù)來理解并運用自然語言的學(xué)科C、計算機視覺就是讓計算機去分析語言數(shù)據(jù)D、計算機視覺就是通過專家經(jīng)驗提供排障指導(dǎo)的學(xué)科63.以下關(guān)于基于規(guī)則的方法描述中,哪一項是錯誤的?A、基于規(guī)則的方法中決策的規(guī)則復(fù)雜或者難以描述B、基于規(guī)則的方法一般不需要使用樣本訓(xùn)練C、基于規(guī)則的方法使用顯性編程來解決問題D、基于規(guī)則的方法中規(guī)則可以被人工明確64.以下關(guān)于機器學(xué)習(xí)中分類模型與回歸模型的說法,哪一項說法是正確的?A、對回歸問題和分類問題的評價,最常用的指標(biāo)都是準(zhǔn)確率和召回率B、輸出變量為有限個離散變量的預(yù)測問題是回歸問題,輸出變量為連續(xù)變量的預(yù)測問題是分類問題C、回歸問題知分類問題都有可能發(fā)生過擬合D、邏輯回歸是一種典型的回歸模型65.以下關(guān)于機器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評估測試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練-&C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評估測試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評估測試參考答案:C66.以下關(guān)于機器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支B、深度學(xué)習(xí)與機器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對67.以下關(guān)于回歸模型調(diào)試與應(yīng)用的描述中,錯的是哪一項?A、當(dāng)訓(xùn)練完成之后,需要使用測試集進(jìn)行測試,確保模型的泛化能力。B、如果最后的模型效果不好,也需要注意使用數(shù)據(jù)清理與特征工程。C、如果出現(xiàn)過擬合,可以使用帶有正則項的LASSO回歸或者Ridge回歸,并調(diào)節(jié)超參數(shù)D、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的回歸模型,比如邏輯回歸。參考答案:D68.以下關(guān)于分析說法不正確的是?A、基于規(guī)則的分詞簡單高效,,但是詞典維護(hù)困難B、在實際工程應(yīng)用中,分詞一般只采用一種分詞方法福C、中文不同于英文自然分詞,中文分詞是文本處理的一個基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法等其他模塊的性能D、統(tǒng)計分詞的目的就是對分詞結(jié)果進(jìn)行概率計算,獲得概率最大的分詞方式69.以下關(guān)于分詞的說法中,哪個選項是不正確的?A、基于規(guī)則的分詞簡單高效,但是詞典維護(hù)困難。B、統(tǒng)計分詞的目的就是對分詞結(jié)果進(jìn)行概率計算,獲得概率最大的分詞方式。C、在實際工程應(yīng)用中,分詞一般只采用一種分詞方法。D、中文不同于英文自然分詞,中文分詞是文本處理的一個基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法樹等其他模塊的70.以下關(guān)于達(dá)芬奇架構(gòu)中的控制單元,錯誤的是哪一個選項?。A、可以讀取標(biāo)量指令隊列中配置好的指令地址和參數(shù)解碼。B、可進(jìn)行中斷處理和狀態(tài)申報。如果執(zhí)行過程出錯,會把執(zhí)行的錯誤狀態(tài)報告給任務(wù)調(diào)度器C、可存放神經(jīng)網(wǎng)絡(luò)中每層計算的中間結(jié)果。D、時刻控制每條指令流水線的執(zhí)行狀態(tài)。71.以下關(guān)于達(dá)芬奇架構(gòu)的描述,錯誤的是哪一選項?A、ICore的片上存儲單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲系統(tǒng)。B、控制單元負(fù)責(zé)整個AICore的運行。C、計算單元包含四種基礎(chǔ)計算資源。D、通過總線接口單元,將數(shù)據(jù)搬到輸入緩沖區(qū)72.以下關(guān)于達(dá)芬奇架構(gòu)(AICore)中的硬件架構(gòu)且對應(yīng)的功能介紹中,不正確是哪一項?A、達(dá)芬奇架構(gòu)(AICor元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲系統(tǒng)C、達(dá)芬奇架構(gòu)這一專門為AI算力提升所研發(fā)的架構(gòu),是昇騰AI計算引擎和AI處理器的核心所在D、矩陣計算單元和累加器主要完成矩陣相關(guān)運算。一拍完成一個fp16的16x16與16x16矩陣乘(4096)E、累加器:把當(dāng)前矩陣乘的結(jié)果與前次計算的中間結(jié)果相加,可73.以下關(guān)于KNN算法的描述中,哪一項是錯誤的?A、如果一個樣本在特征空間中的k個最鄰近的樣本中的大多數(shù)屬于某一個類別,則該樣本也屬于這個類別。B、KM算法,是一個理論上比較成熟的方法,也是最簡單的機器學(xué)習(xí)算法之一。D、KNN比較適合使用在樣本數(shù)量比較大的數(shù)據(jù)集中74.以下關(guān)于CPU低時延設(shè)計的描述,錯誤的是哪一個選項?A、有很多ALU和很少cache,緩存合并訪問DRAM,降低時延B、復(fù)雜邏控制單元,多分支程序可通過分支預(yù)測能力降低時延C、高時鐘頃率降低時延D、強大的ALU單元,可在很短時鐘周期完成計算75.以下關(guān)于CNN應(yīng)用在文本和圖像任務(wù)上的區(qū)別,正確的是哪一項?(待核實)A、CNN適合圖像相關(guān)的任務(wù),但在文本任務(wù)上性能很差B、CNN在命名實體識別任務(wù)上的性能一般,因為它提取的特征類似N-gram模型,是詞的局部關(guān)系C、彩色圖像的輸入是單通道的,文本的輸入是多通道的D、CNN在文本分類任務(wù)上的性能一般,因為它提取的特征類似N-gram模型,是詞的局部關(guān)系76.以下方法中屬于特征選擇嵌入法(Embedded)的是哪一項?B、特征遞歸消除法77.以下對于深度學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)的關(guān)系的描述,正確的是哪一項?A、深度學(xué)習(xí)是人工神經(jīng)網(wǎng)絡(luò)的前身B、深度學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)無關(guān)C、人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的主要模型D、深度學(xué)習(xí)的模型只有人工神經(jīng)網(wǎng)絡(luò)78.以下常見的回歸方法中,既可以防止過擬合又可以進(jìn)行特征選擇的是哪一項?B、多項式回歸C、多元線性回歸79.以下不屬于NLP語言特征的是?()A、上下文詞特征B、文本特征C、紋理特征D、單獨詞特征參考答案:C80.以下不是命名實體識別的難點有?()A、數(shù)量多B、規(guī)則復(fù)雜C、嵌套復(fù)雜D、長度統(tǒng)一參考答案:D81.一副照片在存放過程中出現(xiàn)了很多小的噪點,對其掃描件進(jìn)行()操作去噪效果最好。()A、中值濾波B、高斯濾波C、均值濾波D、拉普拉斯濾波參考答案:A82.一副8位RGB的彩色圖像中,(255,255,255)代表什么顏A、紅色A、自動持征挖掘86.下列選項中昇騰310和昇騰910屬性相同的是?C、整數(shù)精度87.下列選項中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。88.下列選項中,哪個不是關(guān)鍵詞提取常用的算法?89.下列屬性中TensorFlow2.0不支持創(chuàng)建tensor的方法是?90.下列哪一項屬于Mindspore的網(wǎng)絡(luò)結(jié)構(gòu)算子?參考答案:A92.下列哪一項是函數(shù)tf.abs的功能?A、張量的拼接逐元素的相加計算絕對值B、逐元素的相加C、計算絕對值D、實現(xiàn)統(tǒng)計學(xué)中的各種分布93.下列哪個開發(fā)環(huán)節(jié)最能體現(xiàn)不同項目之間的不同?A、數(shù)據(jù)準(zhǔn)備B、構(gòu)造網(wǎng)絡(luò)C、模型訓(xùn)練與驗證D、模型調(diào)用參考答案:B94.下列哪個不是tensorFlow中的元素?參考答案:D95.圖引擎服務(wù)(GraphEngineService)是針對以下面哪一項為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),D、關(guān)系96.圖像預(yù)處理的濾波實驗中,以下哪一個函數(shù)是調(diào)用OpenCV的中值模糊API?參考答案:C97.圖像識別任務(wù)可以分為三個層次,根據(jù)操作對象的數(shù)據(jù)量,從小到大依次為?()A、圖像處理,圖像分析,圖像理解B、圖像分析,圖像理解,圖像處理C、圖像分析,圖像處理,圖像理解D、圖像理解,圖像分析,圖像處理98.圖像處理任務(wù)中,數(shù)據(jù)集的真實標(biāo)簽被稱為?參考答案:C99.圖片的亮度是指畫面的明亮程度,一副4位的圖像能夠區(qū)分多少種變化?()100.通用文字識別服務(wù)調(diào)用成功時,返回的文字識別結(jié)果保存在下列哪個字段中?101.調(diào)用華為云文字識別API時,以下哪個響應(yīng)參數(shù)表示文字塊102.隨機梯度下降和批量梯度下降相比優(yōu)勢在于?()A、更容易收斂(隨機梯度下降收斂更不穩(wěn)定)B、迭代速度更快C、精度更高D、泛化能力更強參考答案:B103.刷臉支付時,以下步驟正確的是?()A、圖像預(yù)處理——圖像識別——人臉檢測B、人臉識別——圖像預(yù)處理——圖像檢測C、圖像預(yù)處理——目標(biāo)檢測——人臉識別D、圖像預(yù)處理——人臉識別——人臉分割104.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個選項不屬于決策樹構(gòu)建過程當(dāng)中的步驟?B、特征選取D、決策樹生成105.數(shù)據(jù)管理中的物體檢測作業(yè)如何標(biāo)注?A、給圖片輸入類別標(biāo)簽B、用矩陣框住目標(biāo)C、用橢圓框住目標(biāo)D、用圓形框住目標(biāo)106.使用ModelArts自動學(xué)習(xí)構(gòu)建預(yù)測分析項目時,若標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),以下哪一項是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型C、離散值和分類模型D、連續(xù)數(shù)值和回歸模型107.生成對抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強B、語義分割C、信息檢索D、圖像生成108.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴(yán)格意義上來講是在以下哪個環(huán)節(jié)出現(xiàn)樣度消失間題?A、反向傳播更新參數(shù)B、正向傳播更新參數(shù)C、反向傳播計算結(jié)果D、正向傳播計算結(jié)果A、汁算機理解的深度B、中間網(wǎng)絡(luò)層的層數(shù)多C、計算機對問題的處理更加靈活D、汁算機的求解更加精準(zhǔn)110.如果有100個卷積核,每個卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項是正確的參數(shù)量111.人工智能有眾多應(yīng)用場景,以下哪一個選項不屬于自然語言處理領(lǐng)域?A、機器翻譯B、語義分割C、情感分析D、文章摘要112.人工智能應(yīng)用領(lǐng)域只有計算機視覺和語音處理?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該說法錯誤,AI應(yīng)用領(lǐng)域應(yīng)包括計算機視覺、語音處理和自然語言處理等領(lǐng)域B、該說法正確,計算機視覺是最重復(fù)的AI應(yīng)用領(lǐng)域。C、該說法錯誤,AI應(yīng)用領(lǐng)域只有計算機視覺和自然語言處理D、該說法正確、語音處建以極高的準(zhǔn)確率處理語音數(shù)據(jù)。113.取20度為一個區(qū)間統(tǒng)計一個cell的HOG特征,對稱的角度114.哪條命令可以檢查Atlas300(3000)加速卡是否在位?115.某個汽車公司的產(chǎn)品,A廠占40%,B廠占60%,A的次品率是1%,B的次品率是2%,現(xiàn)在抽出一輛汽車是次品,問是A廠生產(chǎn)的可能性是多少?A、語音識別和處理技術(shù)B、圖像識別與處理技術(shù)C、專家系統(tǒng)與知識圖譜技術(shù)D、圖像生成與增強技術(shù)A、知識圖譜二是權(quán)值共享,關(guān)于這兩點以下說法正確的是?A、圖像的空間聯(lián)系是局部像素較為稀疏,而距離較遠(yuǎn)的像素相關(guān)性較強B、每一個卷積核在追歷整個圖像的時候,卷積核的參數(shù)是固定不變的C、圖像的空間聯(lián)系是局部像素較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較強D、每一個卷積核在遍歷整個圖像的時候,卷積核的參數(shù)是變致的120.機器學(xué)習(xí)中,從獲取數(shù)據(jù)到正式放入模型之前,以下哪一個選項不是這個過程的一部分?A、數(shù)據(jù)標(biāo)準(zhǔn)化B、數(shù)據(jù)清理C、數(shù)據(jù)降維D、數(shù)據(jù)可視化參考答案:D121.華為云內(nèi)容檢測服務(wù)中,以下哪個參數(shù)不是公共請求消息122.華為云EI企業(yè)智能提供了多種高效的服務(wù),用戶使用服務(wù)的具體流程正確的是()A、申請服務(wù)-調(diào)用API-獲取請求認(rèn)證-查看服務(wù)使用信息B、獲取請求認(rèn)證-申請服務(wù)-調(diào)用API-查看服務(wù)使用信息C、獲取請求認(rèn)證-申請服務(wù)-查看服務(wù)使用信息-調(diào)用APID、申請服務(wù)-獲取請求認(rèn)證-調(diào)用API-查看服務(wù)使用信息參考答案:D123.華為云API符合RESTful的設(shè)計規(guī)范,以下哪個選項不是發(fā)起請求的方式?C、REST客戶端D、編碼124.華為深度學(xué)習(xí)框架MindSpore的亮點有?()A、通過實現(xiàn)AI算法即代碼,使開發(fā)態(tài)變得更加友好,顯著減少模型開發(fā)時間,降低了模型開發(fā)門檻。B、通過MindSpore自身的技術(shù)創(chuàng)新及MindSpore與Ascend處理器協(xié)同優(yōu)化,實現(xiàn)了運行態(tài)的高效,大大提高了計算性能。C、原生適應(yīng)每個場景包括端,邊緣和云,并能夠按需協(xié)同,部參考答案:D125.華為的芯片支持HUA.WEIHiAI的哪一個模塊?126.很多手機提供了護(hù)眼的屏幕顯示模式,可以減少藍(lán)光,緩解視疲勞。這項功能可以通過調(diào)整顯示圖像的()實現(xiàn)。C、飽和度D、亮度127.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時間軸展開B、LSTM無法解決梯度消失的問題C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN參考答案:B128.關(guān)于通用的圖像識別流程,以下說法中哪一項是正確的?A、特征提取→圖像采集一→圖像預(yù)處理→圖像識別C、圖像預(yù)改處理→特征提取→圖像采集一→圖像識別D、圖像預(yù)政處理→圖像采集一→特征提取圖像識別參考答案:B129.關(guān)于深度學(xué)習(xí)的描述中,以下哪一項是錯誤的?A、在大部分情況下,網(wǎng)絡(luò)在高維的權(quán)重海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能B、利用算法自動提取特征C、特征可解釋性強130.關(guān)于人工智能和機器學(xué)習(xí)的關(guān)系,以下說法正確的是哪一項?A、機器學(xué)習(xí)可以應(yīng)用統(tǒng)計學(xué)的知識進(jìn)行分析、B、所有機器學(xué)習(xí)算法都涉及到非常多的人工神經(jīng)網(wǎng)絡(luò)C、所有的機器學(xué)習(xí)都是在模仿人腦的機制來解釋數(shù)據(jù),例如圖像,聲音和文本、D、深度學(xué)習(xí)包含機器學(xué)習(xí)、機器學(xué)習(xí)是深度學(xué)習(xí)的一個特例。131.關(guān)于激活函數(shù),以下說法中哪一項是正確的?A、Sigmoid函數(shù)簡單易懂,沒有任何問題B、Tanh函數(shù)是關(guān)于0點對稱的C、用了RELU激活函數(shù)的模型收斂速度非常慢D、Softmax函數(shù)不能再用作分類的問題132.關(guān)于華為全棧全場景AI解決方案,以下說法中哪一項是錯誤A、tlas:基于Ascend系列AI處理器,通過豐富的產(chǎn)品形態(tài),打造面向“端、邊、云”的全場景AI基礎(chǔ)設(shè)施方案C、基于統(tǒng)一、可擴展架構(gòu)的系列化AI芯片。成方案F、芯片算子庫和高度自動化算子開發(fā)工具。133.關(guān)于反向傳播,以下說法錯誤的是?A、反向傳播只能在前神經(jīng)網(wǎng)絡(luò)中運用B、反向傳蓓可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播134.關(guān)于反向傳播,以下哪種說法是錯誤的?A、反向傳播會經(jīng)過激活函數(shù)B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運用D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播135.關(guān)于CBOW與Skip-Gram算法,以下說法不正確的是?A、CBOW和Skip-Gram都是可以訓(xùn)練詞向量的方法,但是Skip-Gram要比CBOw更快一些B、CBOW是根據(jù)某個詞前面的n個詞或者前后n個連續(xù)的詞,來計算某個詞出現(xiàn)的概率C、無論是CBow模型還是Skip-gram模型,都是以Huffman樹作D、Skip-Gram就根據(jù)某個詞然后分別計算它前后幾個詞的各個136.根據(jù)所選特征評估標(biāo)準(zhǔn),從上至下遞歸地生成子節(jié)點,直到數(shù)據(jù)集不可分則決策樹停止生長,以下哪一個選項代表的是決策樹構(gòu)建過程中的這—步驟?A、決策樹生成C、數(shù)據(jù)集重構(gòu)D、特征選擇參考答案:A137.高斯混合模型在語音識別中的作用是?()A、表示因素之間的概率轉(zhuǎn)移B、用來表示一個音素的多維數(shù)值分布C、用來區(qū)分不同的音素D、評估HMM算法的優(yōu)勢A、隨機分布C、正態(tài)分布139.感知機的結(jié)構(gòu)是模擬以下哪種生物結(jié)構(gòu)?()A、大腦B、神經(jīng)元D、耳朵參考答案:B140.伽馬變化是()處理,直方圖均衡化是(),均值濾波是()A、點處理,局部處理,大局處理B、局部處理,點處理,大局處理C、點處理,大局處理,局部處理D、大局處理,點處理,局部處理141.反向傳播算法是神經(jīng)網(wǎng)絡(luò)更新參數(shù)的重要方法,反向傳播算法借助于以下哪個計算方法得以實現(xiàn)。()A、計算圖B、高階微分C、代價函數(shù)D、鏈?zhǔn)椒▌t參考答案:D142.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以下哪項關(guān)于其算法步驟是正確的?A、先反向傳播計算出誤差,再正向傳播計算梯度B、只有反向傳播計算輸出結(jié)果。C、只有反向傳播計算梯度D、先正向傳播計算出誤差,再反向傳播計算梯度。143.反向傳播算法的做法是:計算之后將其進(jìn)行反向傳播。以下哪一項為空白處的正確內(nèi)容?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個輸入樣本的平方差之和C、各個網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對參考答案:C144.反向傳播算法的功能不包括哪項?()A、激勵傳播B、權(quán)重更新C、歸一化D、獲取梯度145.對美食的照片進(jìn)行調(diào)整,可以使食物的顏色更鮮明,看起A、減小亮度B、增加亮度C、增加飽和度D、減少飽和度146.短視頻類APP根據(jù)用戶經(jīng)常瀏覽的短視頻類型,向用戶推薦內(nèi)容相似的視頻或其好友瀏覽過的視頻,以下對該學(xué)習(xí)過程描述正確的是哪一項?A、無監(jiān)督D、半監(jiān)督147.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時,需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?148.當(dāng)前語音處理研究在任何情況下都能達(dá)到90%以上的識別準(zhǔn)確度。關(guān)于以上觀點,下列說法正確的是哪一項?A、錯誤,識別準(zhǔn)確度很高但沒那么高。B、正確,語音處理可以達(dá)到很高的識別準(zhǔn)確度。C、錯誤,很多情況下,例如噪聲、背聲等會極大的影響語音的識別準(zhǔn)確度。D、正確,語音處理研究的歷史很長,已經(jīng)很成熟。149.單層感知機無法解決以下哪個問題?A、簡單二分類問題D、XOR問題T屬于其中哪一種路線圖?命令?-152.不屬于LSTM的cell當(dāng)中的門的選項是?C、記憶門D、輸出門參考答案:C153.不屬于jieba分詞模式的選項是?A、搜索引擎模式B、精確模式C、隨機模式D、全模式參考答案:CA、判斷是否為numpyB、查看設(shè)備信息C、判斷是否為TensorD、合并tensorA、keras數(shù)據(jù)處理工具C、keras模型部署工具D、Keras生成模型工具158.softmax函數(shù)的本質(zhì)就是將一個K維的任意實數(shù)向量映射成另一個K維的實數(shù)向量,其中向量中的每個元素的值都介于(0,1)之間,元素值的和為介于(1,100)之間。159.Sigmoid的數(shù)無論在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)中經(jīng)常被用到,該函數(shù)的取值范圍是160.RGB的值為(255,0,0)代表什么顏色?()B、純黑D、純紅161.On-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮昇騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于On-Device執(zhí)行以下描述錯誤的是?A、超強芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠(yuǎn)大于執(zhí)行開銷,導(dǎo)致加速器占用率低B、MindSpore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)-計算-通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平C、超強芯片算力下分布式梯度聚合的挑戰(zhàn):ResNet50單迭代20ms時間時會產(chǎn)生中心控制的同步開銷和頻繁同步的通信開銷。傳統(tǒng)方法需要3次同步完成AllReduce,數(shù)據(jù)驅(qū)動方法自主AllReduce,無控制開銷D、MindSpore通過梯度數(shù)據(jù)驅(qū)動的自適應(yīng)圖優(yōu)化,實現(xiàn)去中心化的自主AllReduce,梯度聚合步調(diào)一致,計算與通信充分流水162.NNLM模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?()163.MoXing的自動超參搜索功能的作用是什么()A、提供手動調(diào)參的指導(dǎo)B、在參數(shù)空間中,自動搜索初最優(yōu)的超參C、自動搜索初最優(yōu)的學(xué)習(xí)率164.ModelArts自動學(xué)習(xí)中的預(yù)測分析功能可以用于哪種應(yīng)用?A、預(yù)測天氣溫度變化B、識別花朵種類C、分割圖片中的物體D、人臉識別165.ModelArts自動學(xué)習(xí)的使用流程是什么?A、部署上線->模型訓(xùn)練->數(shù)據(jù)標(biāo)注C、數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線D、數(shù)據(jù)標(biāo)注->部署上線->模型訓(xùn)練166.ModelArts預(yù)置模型的本質(zhì)是什么()A、增強學(xué)習(xí)B、遷移學(xué)習(xí)C、強化學(xué)習(xí)參考答案:B167.ModelArts開發(fā)環(huán)境的作用是什么()A、訓(xùn)練B、預(yù)測C、代碼預(yù)測D、數(shù)據(jù)準(zhǔn)備168.ModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?169.MindX包括多個組件,提供了集群調(diào)度、邊緣推理、應(yīng)用快速開發(fā)等功能,其中哪個組件提供了開源模型下載功能?參考答案:C170.MindSpore中,Tensor初始化時,如果包含多種數(shù)據(jù),則按照以下哪一項優(yōu)先級完成數(shù)據(jù)類型轉(zhuǎn)換?171.MindSpore在提升計算性能方面做了很多優(yōu)化,下面哪項不屬于優(yōu)化的內(nèi)容?C、內(nèi)存專用D、深度圖優(yōu)化172.MindSpore訓(xùn)練的時候,為了方便查看網(wǎng)絡(luò)模型損失值、當(dāng)173.Mindspore深度學(xué)習(xí)框架專門用于圖像增強的是以下哪一個174.Mindspore.ops.GFalse)。以下關(guān)于上述代碼的描述中,正確的是哪一項?D、GradOperation方法在梯度下降和反向傳播中沒有任何用處參考答案:B175.Mary想將訓(xùn)練好的模型部署上線,她可以使用以下哪個服176.L1和L2正則化是傳統(tǒng)機器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇177.John在使用模型生成文本時,發(fā)現(xiàn)模型會產(chǎn)生不準(zhǔn)確、無關(guān)或虛構(gòu)的信息,這是模型的什么特性?A、涌現(xiàn)B、真實性C、幻覺D、可解釋性178.John在開發(fā)昇騰應(yīng)用,現(xiàn)在他在筆記本電腦上創(chuàng)建了開發(fā)環(huán)境,遠(yuǎn)程連接了一個搭載了Atlas3001推理卡的服務(wù)器,在這種場景下,Device指的是以下那一個選項?A、筆記本B、服務(wù)器C、推理卡179.John想要通過神經(jīng)網(wǎng)絡(luò),將一段視頻中的眾多個動物檢測出來,并確定它們的大概位置,則John可以選擇以下哪個網(wǎng)絡(luò)?參考答案:BA、大小核智能超頻B、異構(gòu)調(diào)度C、聯(lián)邦學(xué)習(xí)D、內(nèi)存復(fù)用181.HUAWEIHiAI平臺支持與哪一個工具集成?182.FusionDirector為服務(wù)器和華為邊緣設(shè)備統(tǒng)一運維管理軟件,以下哪一項不是它的特性?A、為數(shù)據(jù)中心提供硬件精細(xì)化管理能力B、為智算中心提供一站式軟件部署服務(wù)C、為公有云提供大規(guī)模服務(wù)器自動化運維能力D、為私有云提供一站式硬件管理能力183.Bagging集成學(xué)習(xí)中,每個基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相互獨立C、后面的模型必須建立在前面的模型之上D、相關(guān)關(guān)系184.Atlas800AI服務(wù)器有多個型號,其中基于鯤鵬處理器平臺的185.Atlas200DK所基于的昇騰310芯片主要的應(yīng)用是?A、模型訓(xùn)練B、模型構(gòu)建C、模型推理參考答案:C186.AI框架的核心、也是編程范式的決定性因素之一就是AI框架采用的自動微分技術(shù),其中MindSpore采用的方式是?A、圖方法B、源碼轉(zhuǎn)換C、運算符重載187.“知識表示是對知識的描述,即用一組符號把知識編碼成計算機可以接受的某種結(jié)構(gòu)。其表示方法是唯一的。”關(guān)于上述描述,以下哪一個說法是正確的?A、該說法正確,知識表示是專家系統(tǒng)的一種B、該說法錯誤,知識表示方法不是唯一的。C、該說法正確,知識表示可用于專家規(guī)則,模糊推理D、該說法錯誤,知識表示的編碼方式是唯一的。參考答案:B188.“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測下季度的商鋪營收會在20-30萬還是30-40萬”,這是一個什么問題?A、回歸問題B、規(guī)則問題C、分類問題D、聚類問題1.自然語言處理的基本方法有?()A、能力模型B、應(yīng)用模型C、監(jiān)理模型2.自動學(xué)習(xí)的圖像分類數(shù)據(jù)可以從哪些途徑獲取()B、從網(wǎng)頁端上傳D、從其他云服務(wù)商存儲服務(wù)載入3.在隨機森林中,最終的集成模型是通過什么策略決定模型結(jié)果B、求平均數(shù)C、投票制D、累乘制4.在使用華為云圖像標(biāo)簽服務(wù)時,image_tagging_aksk()函數(shù)的返回結(jié)果中,type代表標(biāo)簽類別,該標(biāo)簽類別包含以下哪幾類?5.在昇騰AI處理器中,AICore的存儲控制單元可以完成以下哪些操作?A、補零6.在某些應(yīng)用場景中(比如推薦系統(tǒng)、分子動力學(xué)、圖神經(jīng)網(wǎng)絡(luò)等),數(shù)據(jù)的特征是稀疏的,這時就可以使用稀疏張量來表征這些數(shù)據(jù),關(guān)于MindSpre中稀疏張量描述正確的是?A、稀疏張量是一種特殊張量,其中絕大部分元素的值為零。B、MindSpre現(xiàn)在已經(jīng)支持最常用的CSR和C兩種稀C、MindSpre常用稀疏張量的表達(dá)形式是&1t;indices:Tensr,value零元素下標(biāo),shape表示的是被壓縮的稀疏張量的形狀。E、稀疏張量格式有著高效的存儲與計算的優(yōu)勢7.在模型訓(xùn)練中可能會定義的超參數(shù)包括以下哪些選項?A、批次大小B、學(xué)習(xí)率C、優(yōu)化器類型D、損失值8.在大模型部署過程中,可能會經(jīng)過以下哪些流程?A、模型轉(zhuǎn)換B、模型壓縮C、模型預(yù)訓(xùn)練D、推理文件準(zhǔn)備9.語音信號特征提取的方法有哪些?()A、線性預(yù)測系數(shù)(LPB、Mel頻率倒譜系數(shù)(MFCC、感知線性預(yù)測(PLP)D、線譜對參數(shù)(LSP)A、緩解梯度消失問題B、緩解梯度爆炸問題C、全局可導(dǎo)D、節(jié)省計算量11.異騰AI處理器主要的硬件架構(gòu)包括以下哪些選項?B、多層級的片上系統(tǒng)緩存或緩沖區(qū)C、芯片系統(tǒng)控制CPUD、數(shù)字視覺預(yù)處理模塊12.以下有關(guān)華為云OCR文字識別服務(wù)的使用說明,以下哪些選項是正確的?A、文字識別以開放API的方式提供給用戶.用戶可以將文字識別集成到第三方系統(tǒng)調(diào)用APIB、用戶可以在管理控制臺申請開通文字識別服務(wù),查看服務(wù)的調(diào)用成功和失敗次數(shù)C、文字識別提供了web化的服務(wù)管理平臺,即管理控制臺,以及基于HTTPS請求的API管理方式D、每次使用服務(wù)都需要申請13.以下硬件中可支持MindSpore訓(xùn)練的有哪些選項?參考答案:BCD14.以下數(shù)據(jù)增強方法可以用于圖像數(shù)據(jù)的有哪些選項?C、隨機插值D、語義替換15.以下屬于序列標(biāo)注任務(wù)的是A、情感分析B、中文分詞D、詞性標(biāo)注16.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項?A、數(shù)據(jù)降維B、數(shù)據(jù)清理C、模型訓(xùn)練D、數(shù)據(jù)標(biāo)準(zhǔn)化17.以下哪種場景,語音識別效果可能會不好?()A、遠(yuǎn)場麥克風(fēng)B、高噪音場景C、低噪場景D、多人場景18.以下哪些選項中的代碼能夠正確執(zhí)行?19.以下哪些選項屬于正則化方法的有哪些選項?20.以下哪些選項屬于神經(jīng)網(wǎng)絡(luò)的激活函數(shù)?()21.以下哪些選項屬于華為云EI的相關(guān)服務(wù)()B、EI智能體C、EI體驗館D、EI服務(wù)家族22.以下哪些選項屬于MindSporeLite的特性?A、極致性能B、全場景支持C、高效部署D、分布式訓(xùn)練23.以下哪些選項屬于HMSCore提供的AI能力24.以下哪些選項屬于CANN中昇騰計算基礎(chǔ)層提供的服務(wù)?B、共享虛擬內(nèi)存C、高級內(nèi)存復(fù)用D、設(shè)備虛擬化25.以下哪些選項是人工智能深度學(xué)習(xí)框架?26.以下哪些選項是常見的無監(jiān)督算法?()A、只能生成256x256的圖像,生成分辨率更高的圖像時效果比C、當(dāng)同一類物體在圖像中重尋時,無法生成高質(zhì)量的圖像28.以下哪些選項是CNN網(wǎng)絡(luò)結(jié)構(gòu)?()A、輸出關(guān)于0點對稱D、導(dǎo)數(shù)最大值為130.以下哪些項可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中?31.以下哪些算法可以應(yīng)用于文本分類?()A、樸素貝葉斯D、線性回歸32.以下哪些是隱藏單元?A、Maxout單元B、整流線性單元C、Logisticsigmoid與雙曲正切函數(shù)33.以下哪些是圖像處理的形式?()A、單幅圖像輸入,進(jìn)行處理,輸出單幅圖像B、多幅圖像輸入,進(jìn)行處理,輸出單幅圖像C、單幅圖像輸入,進(jìn)行處理,輸出數(shù)字或符號等結(jié)構(gòu)化信息D、多幅圖像輸入,進(jìn)行處理,輸出數(shù)字或符號等結(jié)構(gòu)化信息34.以下哪些是MindSpore中Tensor常見的操作?35.以下哪些模型可以用來做分類?A、邏輯回歸B、支持向量機C、線性回歸D、決策樹36.以下哪些華為云EI自然語言處理服務(wù)提供了基礎(chǔ)版和領(lǐng)域版A、文本分類B、情感分析C、文本摘要D、命名實體識別37.以下哪些關(guān)于機器翻譯的描述是錯誤的?A、機器翻譯可以實現(xiàn)多語種翻譯。B、標(biāo)簽數(shù)據(jù)的長度需要保持一致。C、在英文翻譯成中文時,encoder模型負(fù)責(zé)將英文轉(zhuǎn)換為中文,decoder模型負(fù)責(zé)將中文進(jìn)行分詞。D、模型可以輸入長度不統(tǒng)一的詞向量。38.以下哪些方法可以提升神經(jīng)網(wǎng)絡(luò)的擬合能力?A、減少神經(jīng)元個數(shù)B、在神經(jīng)網(wǎng)絡(luò)中添加殘差塊C、使用非線性的激活函數(shù)D、增加一定數(shù)量的隱藏層39.以下哪些方法可以減少過擬合的問題?A、添加L1或L2正則懲訓(xùn)項B、提前停止訓(xùn)練C、使用Dropout方法隨機丟棄一部分輸入D、擴充數(shù)據(jù)集,引入噪聲40.以下哪些場景會使用目標(biāo)跟蹤的技術(shù)?B、智能交通C、文字識別D、場景監(jiān)控41.以下哪幾項屬于MindSpore中與nn(神經(jīng)網(wǎng)絡(luò))相關(guān)算子?42.以下哪幾項是MindSpore中Model(函數(shù)的參數(shù)?43.以下哪凡項是ModelArts中訓(xùn)練平臺的優(yōu)勢?A、多種開發(fā)模式滿足不同需求B、靈活、高效、性價比高C、預(yù)預(yù)置訓(xùn)練模型,加速AI落地D、彈性訓(xùn)練提升訓(xùn)練效率44.以下關(guān)于語言模型的描述,錯誤的是哪些項?A、N-Gram窗口越大,越不容易出現(xiàn)稀疏的問題。B、N-Gram簡單易用,對存儲資源的需求較大。C、RNN語言模型比n-gram能處理更長的上下文,而且沒有稀疏的問題。D、固定窗口神經(jīng)網(wǎng)絡(luò)語言模型想要更好的性能,就要減小窗口,窗口越小,參數(shù)量越大。參考答案:AD45.以下關(guān)于梯度下降的描述中,哪些選項是正確的?B、結(jié)合BGD與SGD的特性,因此對于所有任務(wù)這種方法是最好的。C、隨機梯度下降(SGD、隨機選取一個數(shù)據(jù)集中的樣本在當(dāng)前的梯度來對權(quán)重參數(shù)進(jìn)行更新操作。E、小批量梯度下降(MBGF、結(jié)合BGD與SGD的特性,每次選擇數(shù)據(jù)集中N個樣本的梯度來對權(quán)重參數(shù)進(jìn)行更新操作。G、批量梯度下降(BGH、使用所有數(shù)據(jù)集中的樣本(共M個樣本)在當(dāng)前的梯度之和來對權(quán)重參數(shù)進(jìn)行更新操作46.以下關(guān)于隨機梯度下降和小批量梯度下降的描述,正確的是哪些項?A、隨機樣度下降的不穩(wěn)定性可以幫助模型在收斂中跳過一些局部極值點B、小批量梯度下降相比于隨機梯度下降更容易受到噪聲數(shù)據(jù)的影響C、隨機梯度下降的一種實現(xiàn)是在線學(xué)習(xí)(OnlineLearninD、,它根據(jù)每一個樣例來更新葆度E、小批量梯度下降的思想是每次使用一小批固定尺寸(BatchSiZF、的樣例來更新權(quán)值47.以下關(guān)于設(shè)計激活函數(shù)需要考慮的“有界性”因素的描述中,正確的是哪些項?A、如果激活函數(shù)是有界的,與單層模型相關(guān)的損失函數(shù)是凸的B、如果激活函數(shù)有界的,基于梯度的訓(xùn)練方法往往更穩(wěn)定C、如果激活函數(shù)是無界的,訓(xùn)練通常更有效率,但是訓(xùn)練容易發(fā)散,此時可以適當(dāng)減小學(xué)習(xí)率D、有界的函數(shù)已經(jīng)被證明在某些情況下泛化效果更好48.以下關(guān)于哪些結(jié)構(gòu)屬于LSTM?A、輸出門B、遺忘門C、記憶門D、輸入門49.以下關(guān)于決策樹的描述中,哪些選項是正確的?A、純度的量化指標(biāo)只能通過信息熵。B、常見的決策樹算法有ID3,C4.5,CART等。C、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對所有的劃分操作的結(jié)果集的“純度”進(jìn)行比較。D、決策樹的構(gòu)造就是進(jìn)行屬性的選擇,確定各個特征屬性之間50.以下關(guān)于卷積層中零填充(padding)作用的描述,正確的是哪些項?A、增大感受野B、提取圖像邊緣的信息C、保證輸出特征圖的尺寸滿足要求D、防止過擬合51.以下關(guān)于單層感知器的描述中,正確的是哪幾項?A、單層感知器可以解決XOR問題。B、單層感知器本質(zhì)上是一種線性模型,只能處理線性分類問題。C、單層感知器使用高維X向量做輸入,在高維空間對輸入的樣本進(jìn)行三分類,向量做輸入,在高維室間對輸入的樣本進(jìn)行二分類D、單層感知器可以看做是前饋神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。52.以下關(guān)于層次聚類的說法中,哪些選項是正確的?A、使用層次聚類時、數(shù)據(jù)集的劃分可采用“自下向上”的聚合B、層次聚類幫助形成樹形的聚類結(jié)構(gòu)。C、層次聚類得到的結(jié)果中、樹根擁有所有樣本的唯一聚類D、層次聚類到的結(jié)里中,葉子是僅有一個樣本的聚類53.以下關(guān)于Softmax函數(shù)的描述中,哪些選項是錯誤的?A、Softmax函數(shù)的本質(zhì)就是將一個K維的任意實數(shù)向量壓縮(映射)成另一個K維的實數(shù)向量,其中向量中的每個元素取值都介于(0,1)之間。B、邏輯回歸只能用于二分類問題,如果是多分類問題,我們通常使用Softmax函數(shù)。C、Softmax回歸是邏輯回歸的一般化,適用于二分類的問題。D、Softmax為多類問題中的每個分類分配了概率值,這些概率值加起來不一定等于1。參考答案:CD54.以下關(guān)于ReLU激活函數(shù)優(yōu)點的描述,正確的是哪些項?A、輸出有界,訓(xùn)練不易發(fā)散。B、計算簡單。C、有效緩解了梯度消失的問題。D、有神經(jīng)元死亡的現(xiàn)象。55.以下關(guān)于Relu激活函數(shù)缺點的描述,正確的是哪些項?A、有神經(jīng)元死亡的現(xiàn)急B、轉(zhuǎn)折點定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對發(fā)散56.以下關(guān)于KNN算法的描述中,正確的是哪幾個選項?A、KNN的核心思想是“近朱者赤,近墨者黑”,其在邏輯上B、KNN是參數(shù)方法,常用在決策邊界非常規(guī)則的數(shù)據(jù)集中。C、KNN在做回歸預(yù)測時,一般采用平均值法D、KNN在分類預(yù)測時,一般采用多數(shù)表決法57.以下關(guān)于IindSpore自動并行關(guān)鍵技術(shù)的描述中,哪些選項是正確的?58.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和A、32和10B、33和10C、10和和33D、9和33C、信息抽取D、智慧醫(yī)療61.下面哪些是訓(xùn)練模型時會定義的超參數(shù)?A、訓(xùn)練輪次(epocB、批次大小(batchsizC、學(xué)習(xí)率(learningratD、損失值(loss)62.下列屬于自然語言處理研究主題的是哪些選項?A、情感分析B、機器翻譯C、文本生成63.下列屬于AI涉及的子領(lǐng)域的有哪些選項?A、知識工程B、人機交互C、數(shù)據(jù)挖掘D、機器學(xué)習(xí)64.下列哪些是關(guān)鍵詞提取的方法?()65.下列哪幾項是華為云圖引擎服務(wù)(GraphEngineService)的優(yōu)勢?A、豐富的圖分析算法庫B、語音交互C、高性能圖計算內(nèi)核D、分布式高性能圖存儲擎66.文字識別技術(shù)可應(yīng)用于以下哪些場景()A、姿態(tài)識別(一般指人體姿態(tài))B、發(fā)票識別C、身份證識別D、表情識別(人臉識別)67.為了將數(shù)字圖像有效地轉(zhuǎn)換為結(jié)構(gòu)化數(shù)據(jù),需要用到圖像特征提取的技術(shù)降低數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低數(shù)據(jù)維度的主要思路?()A、分割感興趣區(qū)域B、降采樣C、特征描述子D、模式識別68.圖引擎服務(wù)(GraphEngineservice)是針對以“關(guān)系”為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),進(jìn)行一體化查詢、分析的服務(wù)。下列哪幾項是華為云圖引擎服務(wù)的優(yōu)勢?A、一體化B、簡單易用C、大規(guī)模D、高性能69.調(diào)用華為云服務(wù)時,以下哪些信息會用來進(jìn)行認(rèn)證?()A、當(dāng)前時間C、調(diào)用服務(wù)名稱70.屬于語音識別難點的是?A、方言識別B、多人場景識別C、高噪音場景識別D、遠(yuǎn)場麥克風(fēng)識別71.屬于語音處理任務(wù)的是?unknowA、語音識別B、語音合成C、語言理解D、語言生成72.屬于語言學(xué)內(nèi)容的是?()B、語音C、詞匯D、語法73.使用深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)處理語音識別的優(yōu)點有哪些?()A、不需要標(biāo)注樣本B、可以處理更長的序列信號C、不需要語音信號特征提取(該答案待確定)D、可以end-to-end實現(xiàn)任務(wù)74.使用Mindspore中的mindspore.nn.mbedding方法時,輸入為一個批次若干條文本數(shù)據(jù),其維度為(batchsize,inputlength),而輸出的維度包括以下哪幾項?A、batchsize(批尺寸)D、embedding_size(嵌入維度)75.昇騰芯片Al核有哪幾種計算資源?()A、標(biāo)量計算單元B、向量計算單元C、矩陣計算單元D、張量計算單元76.昇騰AI處理器主要的硬件架構(gòu)包括以下哪些選項?A、數(shù)字視覺預(yù)處理模塊B、多層級的片上系統(tǒng)緩存或緩沖區(qū)D、芯片系統(tǒng)控制CPU77.深度學(xué)習(xí)中以下哪些步驟是由模型自動完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取78.深度學(xué)習(xí)中常用的損失函數(shù)有?A、L1損失函數(shù)B、均方誤差損失函數(shù)C、交叉嫡誤差損失函數(shù)D、自下降損失函數(shù)79.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.A、梯度剪切B、隨機欠采樣D、正則化80.如果把尋找最優(yōu)值的過程看做小球滾到山底的過程,以下關(guān)于動量優(yōu)化器的描述,正確的是哪些項?A、帶有慣性的小球更容易滾過一些狹窄的局部極值。B、仍需要手動設(shè)置學(xué)習(xí)率和動量系數(shù)。C、動量梯度下降是小球在下降的過程中不斷積累速度,這有助于小球快速中過平坦區(qū)域,加快收斂D、動量梯度下降可以解決振蕩導(dǎo)致學(xué)習(xí)速度降低的問題81.人臉?biāo)阉鞣?wù)調(diào)用成功時返回的結(jié)果中包含下列哪些項?A、搜索出的人臉相似度B、搜索出的人臉idC、搜索出的人臉位置D、搜索出的人臉序號82.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語言處理B、控制系統(tǒng)C、計算機視覺D、語音識別83.人工智能包括哪些要素?A、算法B、場景D、數(shù)據(jù)84.盤古大模型“不會作詩,只會做事”,是一個完全面向行業(yè)的大模型系列,包括5+N+X三層架構(gòu),其中LO層包含以下哪些大模型?A、盤古視覺大模型B、盤古醫(yī)藥大模型C、盤古科學(xué)計算大模型D、盤古氣象大模型85.某企業(yè)在部署mindsporepython開發(fā)環(huán)境時,可以選擇以下哪些安裝方式?B、源碼安裝86.某公司打算選擇模型用于部署應(yīng)用,以下哪些模型是基于Tra87.命名實體識別是指識別文本中具有特定意義的實體,主要包括哪些?()B、時間C、人名D、機構(gòu)名88.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸,常見的池A、最小池化層B、最大池化層C、平均池化層D、乘積池化層參考答案:BC89.卷積神經(jīng)網(wǎng)絡(luò)通常包含以下哪些層?()A、輸入層C、輸出層D、全連接層90.將圖像降維的方法主要有?A、降采樣B、分割感興趣區(qū)域C、特征描述子D、去噪91.華為云人臉識別服務(wù),是基于人的臉部特征信息,利用計算機對人臉圖像進(jìn)行處理、分析和理解,進(jìn)行身份識別的一種智能服務(wù),當(dāng)前華為云人臉識別服務(wù)提供了哪幾種子服務(wù)A、人臉?biāo)阉鰾、人臉跟蹤C、人臉檢測D、人臉比對92.華為云可提供的AI服務(wù)有以下哪幾項?C、圖引擎服務(wù)D、圖像搜索93.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場景的不同也有很多種,目前可以實現(xiàn)的華為云EI智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體94.華為云EI目前支持哪些格式的圖像識別?D、編碼96.華為的AI發(fā)展戰(zhàn)略包括哪幾個方面?C、內(nèi)部效率提升97.華為的AI發(fā)展戰(zhàn)略包括哪幾個方面()A、打造全棧方案B、投資基礎(chǔ)研究C、投資開放生態(tài)和人才培養(yǎng)D、內(nèi)部效率提升E、解決方案增強98.關(guān)于人臉?biāo)阉鞣?wù),下列哪些說法是正確的?A、沒有人臉集時,需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進(jìn)行搜索B、一個人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個人臉集中的人臉數(shù)據(jù)99.關(guān)于概率密度函數(shù)的性質(zhì)描述正確的是?A、概率密度函數(shù)在正負(fù)無窮的積分為0B、概率密度函數(shù)的取值大于等于0C、概率密度函數(shù)的取值可以取任意值D、概率密度函數(shù)在正負(fù)無窮的積分為1100.關(guān)于反向傳播算法,下列哪些說法是正確的?A、反向傳播算法使得神經(jīng)網(wǎng)絡(luò)的效果有了更大的提升。B、如果網(wǎng)絡(luò)中存在數(shù)個隱藏層。也可以使用求導(dǎo)的鏈?zhǔn)椒▌t逐層求導(dǎo),選代求解最優(yōu)參數(shù)C、損失函數(shù)中產(chǎn)生的誤差,是通過輸入層到隱藏層到輸出層逐漸積累形成的。D、反向傳播又叫誤差反向傳播。101.關(guān)于U-Net網(wǎng)絡(luò)相關(guān)的描述中,錯誤的有哪幾項?A、由于輸入的訓(xùn)練數(shù)據(jù)是patches,相當(dāng)于進(jìn)行了數(shù)據(jù)下采樣,所以在需要后接全連接網(wǎng)絡(luò)來增強模型性能。B、U-Net網(wǎng)絡(luò)用滑動窗口提供像素的周圍區(qū)域(patcC、作為輸入來預(yù)測每個像素的類標(biāo)簽。D、U-Net屬于強化學(xué)習(xí)。E、U-Net網(wǎng)絡(luò)應(yīng)用于生物醫(yī)學(xué)圖像處理領(lǐng)域,目標(biāo)輸出包括目標(biāo)類別的位置,最終以矩形框圈出目標(biāo)區(qū)域并給與標(biāo)簽。102.關(guān)于ResNet_v1_50,說法正確的是()A、是一種CNN神經(jīng)網(wǎng)絡(luò)模型B、可以用作圖像分類C、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大于等于50層D、可以用作物體檢測103.關(guān)于LSTM和GRU的對比,以下說法正確的是()A、標(biāo)準(zhǔn)LSTM和GRU的差別并不大,都會比普通RNN效果要好B、GRU構(gòu)造相對于LSTM更簡單,比LSTM少了一個門,所以計算速度比LSTM快C、LSTM對于保留的記憶是可控的,而GRU不可控D、LSTM能處理比GRU更長的序列104.關(guān)于ELMO,GPT,BERT,描述不正確的是哪幾項?B、ELMo接近頂層的隱藏層包含了更多的語義信息。C、BERT模型基于自注意力機,制構(gòu)建,其本質(zhì)是對詞與詞之間關(guān)系的刻畫D、GPT是一個基于Transformer的雙向語言模型,105.根據(jù)批量大小,梯度下降常用的方法有哪些?106.分詞是自然語言處理中的基本步驟,常見的分詞方法有哪A、基于規(guī)則的分詞B、基于統(tǒng)計的分詞C、基于深度學(xué)習(xí)的分詞D、基于規(guī)則于基于統(tǒng)計相結(jié)合的混合分詞107.對于MindSpre中張量的屬性描述正確的是以下哪幾項?A、張量的屬性包括形狀、數(shù)據(jù)類型、轉(zhuǎn)置張量、單個元素大小、占用字節(jié)數(shù)量、維數(shù)、元素個數(shù)和每一維步長B、Tensr的shape返回是一個listC、Tensr的dtype,是MindSpre的一個數(shù)據(jù)類型D、Tensr的size,是所有元素的個數(shù),返回的是一個整數(shù)108.對掃描的文檔做字符識別,由于掃描件沒有擺放好,文字有角度傾斜,造成識別困難。可使用下面的哪些技術(shù)手段進(jìn)行校正?(多選)A、灰度變換B、旋轉(zhuǎn)變換C、仿射變換D、透視變換109.對話系統(tǒng)按使用目的分主要有哪幾種?()A、任務(wù)型B、聊天C、知識回答D、推薦110.地理智能體Geogenius依托魚華為云在人工智能,大數(shù)據(jù)等前沿技術(shù)的積累,構(gòu)建了一站式全流程遙感智能開發(fā)云平臺,哪幾項是地理智能體的主要功能?B、應(yīng)急防災(zāi)D、海洋保護(hù)111.大模型訓(xùn)練對網(wǎng)絡(luò)的需求有哪些?()A、低丟包B、低時延C、大帶寬D、高可靠112.達(dá)芬奇架構(gòu)計算單元主要包含的計算資源有?A、向量計算單元B、標(biāo)量計算單元C、張量計算單元D、矩陣計算單元113.從技術(shù)架構(gòu)來看AI芯片的分類包參考答案:ABCD115.常用的圖像坐標(biāo)變換有哪些?116.常見的聚類算法有哪些?B、密度聚類C、層次聚類D、諧聚類117.VGG19中的19代表網(wǎng)絡(luò)中哪些層的數(shù)目的總和?(多選)A、池化層C、輸入層D、全連接層參考答案:BDA、后端開發(fā)B、深度學(xué)習(xí)API119.SVM中常用的核函數(shù)包括以下哪些選項?A、高斯核函數(shù)B、Sigmiod核函數(shù)C、線性核函數(shù)D、多項式核函數(shù)120.RESTAPI的請求方法包括121.RESTAPI的請求/響應(yīng)包含哪些A、請求URLB、請求消息頭C、請求消息體D、響應(yīng)消息頭E、響應(yīng)消息體122.MSIR是一種簡潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?A、自由變量B、高階函數(shù)D、遞歸123.MoXing框架包含以下哪些功能()(待核實)A、超參自動搜索B、API易用性封裝D、分布式訓(xùn)練加速124.mox.file.stat可以用來獲取一個OBS文件或文件夾的stat信A、文件大小B、是否為目錄C、創(chuàng)建時間D、創(chuàng)建時間戳125.ModelArts中訓(xùn)練平臺可以支持A、云上開發(fā)IDE+PyCharmToolB、云上開發(fā)(Notebook+SDKC、本地開發(fā)IDE+PyCharmToolKit)D、本地開發(fā)(Notebook+SDK)127.ModelArts預(yù)置模型和自定義模型開發(fā)相比的特點有哪些?A、需要的數(shù)據(jù)量多B、需要標(biāo)注數(shù)據(jù)C、無需自己開發(fā)代碼D、能夠更快收斂128.ModelArts訓(xùn)練作業(yè)支持哪些算法引擎()129.ModelArts目前有支持哪幾種預(yù)置模型?A、基因測序B、物體檢測C、圖像分類D、圖像分割130.MindSpre介紹正確的是?A、MindSpre是一個同時支持云、邊緣以及端側(cè)的全場景深度學(xué)B、MindSpre旨在實現(xiàn)易開發(fā)、高效執(zhí)行、全場景統(tǒng)一部署三大C、易開發(fā)表現(xiàn)為API友好、調(diào)試難度低D、高效執(zhí)行包括計算效率、數(shù)據(jù)預(yù)處理效率和分布式訓(xùn)練效率A、統(tǒng)一模型IRB、軟硬協(xié)同的圖優(yōu)化技術(shù)C、端云協(xié)同F(xiàn)ederalMetaLearningD、集中式架構(gòu)132.MindSpore可以應(yīng)對超大規(guī)模模型實現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)以下關(guān)于KNN的說法中,哪些說項是正確的?A、KNN通常需要非常大的計算量。B、KNN在做回歸預(yù)測時,一般采用平均值法。C、KNN在分類預(yù)測時,一般采用多數(shù)表決法。D、KNN是一種無監(jiān)督聚類算法133.LBP特征描述子有以下哪些優(yōu)點?()A、旋轉(zhuǎn)不變性B、灰度不變性C、提取紋理特征好D、提取色彩特征好134.John在使用MindSpore訓(xùn)練模型時,想要將模型保存在本地文件中,以下選項中能實現(xiàn)他想法的選項有哪些?Frommindspore.traincallbackimporA、每隔30秒保存一個CheckPoint文件,每隔3分鐘保留一個CB、每隔30秒保存一個CheckPoint文件且每隔32個step保存一C、每隔32個step保存一個CheckPoint文件,且最多保存10個_checkpointmax=10)32,keep_checkpoint_max=10,135.HiAI是面向移動終端的AI能力開放平臺,三層AI能力開放包括以下哪些?A、應(yīng)用能力開放B、框架能力開放C、服務(wù)能力開放D、芯片能力開放136.HIAIEngine-ASR接口使用時,實現(xiàn)ASR的相關(guān)類包括哪些?137.GMM適合處理的語音領(lǐng)域任務(wù)包括哪些?A、語音識別B、語音合成C、語音降噪D、語音跟蹤138.Dropout層的主要作用是?()A、提取特征B、防止過擬合C、增強泛化能力139.CANN的是華為面向深度神經(jīng)網(wǎng)絡(luò)和昇騰處理器打造的芯片使能層,它主要包括功能模塊有()B、CCE算子庫D、底層編譯器參考答案:ABCD140.CANN(ComputeArchitectureforNeuralNetwork)中的GE(GraphEngine)是圖編譯和運行的控制中心,按層次可以分為GEAPI、GECore等,包含了圖準(zhǔn)備、圖優(yōu)化等組件,其中部分組件的接口通過GEAPI對外呈現(xiàn),具體接口不包括哪些?A、GECore中的初始化B、GECore中的圖管理C、GEPlugins中的子圖拆分參考答案:BCsionEngine)是一個邏輯概念,包含了以下哪幾個部件?A、存儲引擎B、計算引擎C、通用引擎D、控制引擎參考答案:BD142.BPTT得步驟包括以下哪些信息?A、計算神經(jīng)元的層數(shù)B、前向計算每個神經(jīng)元的輸出值C、反向計算每個神經(jīng)元的誤差值D、計算每個權(quán)重的梯度143.Attention機制的計算過程中,為得到注意力分?jǐn)?shù),需要用哪些選項進(jìn)行相似度計算?A、醫(yī)療影像分析B、視頻分析C、語音服務(wù)145.Adam優(yōu)化器可以看做是以下哪幾項的結(jié)合?146.2018年10月10日,華為發(fā)布了全棧全場景AI解決方案.華為全棧方案具體包括?B、應(yīng)用使能判斷題1.總體來說,華為人工智能的發(fā)展戰(zhàn)略,是以持續(xù)投資基礎(chǔ)研究和AI人才培養(yǎng),打造全棧全場景Al解決方案和開放全球生態(tài)為基礎(chǔ)()A、正確2.自然語言處理主要包含自然語言理解和自然語言生成兩部分。3.自動學(xué)習(xí)會自動搜索最佳的神經(jīng)網(wǎng)絡(luò)架構(gòu),超參數(shù),并自動做數(shù)據(jù)增強,無需用戶編碼和調(diào)參,門檻非常低B、錯誤4.直方圖是以灰度級為橫坐標(biāo),縱坐標(biāo)為灰度級頻率的圖。()B、錯誤5.直方圖均衡化可以對圖像的視覺效果進(jìn)行增強,這種技術(shù)能夠自動計算變化函數(shù),不需要人為設(shè)置參數(shù),操作簡單,適用于所有情況.B、錯誤同音同形的詞在不同場景下,其表示的語法截然不同,這就為詞性標(biāo)注帶來了很大的困難。()B、錯誤7.在應(yīng)用圖像處理技術(shù)時,一定要定位問題屬于圖像分類,目標(biāo)檢測,圖像分割和目標(biāo)跟蹤中的哪一種任務(wù),不能將算法混合使A、正確B、錯誤參考答案:B8.在以連接主義為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)中,每個節(jié)點都能表達(dá)特定的A、正確B、錯誤9.在一次訓(xùn)練中,ReLU神經(jīng)元出現(xiàn)了在所有的訓(xùn)練數(shù)據(jù)上都不能被激活的情況,我們稱之為死亡ReLu問題A、正確B、錯誤10.在特定領(lǐng)域,人工智能正在接近或超越人類的能力()A、正確B、錯誤11.在使用MindSpre進(jìn)行模型訓(xùn)練時,使用set_train設(shè)置為訓(xùn)練模式,執(zhí)行正向計算、反向傳播和參數(shù)優(yōu)化,set_train接口默認(rèn)值為False.A、正確的影響。A、正確13.在邊緣計算設(shè)備上部署Al應(yīng)用時,所使用的神經(jīng)網(wǎng)絡(luò)模型越小越好。A、正確B、錯誤16.在Adagrad優(yōu)化器中,初始的累計平方梯度不能為0,這主要是為了保證公式分母不為0.A、正確B、錯誤參考答案:B17.語音學(xué)是語言濱一個分支,是研究人類語言的學(xué)科.()A、正確B、錯誤18.語音識別指的是將音頻數(shù)據(jù)識別為文本數(shù)據(jù)。A、正確B、錯誤19.語音任務(wù)中寬且淺的DNN模型容易過擬合,窄且深的模型容易欠擬合()(核實一下)A、正確B、錯誤20.語音合成又稱作文語轉(zhuǎn)換()A、正確B、錯誤21.與NPU相比,CPU擁有更多的ALU,但是單個ALU的運算能力較弱A、正確B、錯誤參考答案:B因此不適合用于手機等終端設(shè)備上。A、正確B、錯誤23.由于現(xiàn)在的語音處理技術(shù)都以數(shù)字計算為基礎(chǔ),因此也稱為數(shù)字語音信號處理。A、正確B、錯誤24.隱馬爾科夫模型的模型參數(shù)包括序列長度、轉(zhuǎn)移概率、初始概A、正確B、錯誤25.隱藏層就是神經(jīng)網(wǎng)絡(luò)中輸入與輸出層之間的中間層,訓(xùn)練數(shù)據(jù)并沒有給出這些隱含層所需的輸出結(jié)果。A、正確B、錯誤26.一款A(yù)PP,對著植物盆栽拍照后,就能顯示植物名稱和養(yǎng)殖方法,其核心是使用圖像分類的技術(shù)。A、正確B、錯誤27.一款A(yù)PP,對著植物盆栽拍照后,就能顯示植物名稱和養(yǎng)殖方法,其核心是使用了主題分類的技術(shù)。A、正確B、錯誤28.一個神經(jīng)網(wǎng)絡(luò)只要加上隱藏層和一個輸出層,只要輸入的數(shù)據(jù)足夠多,就可以模擬任意的多項式函數(shù)。()A、正確B、錯誤29.訓(xùn)練后量化PTQ中的Label-Free算法可在昇騰推理平臺進(jìn)行,無需獲取輸入數(shù)據(jù)集,即可對模型進(jìn)行量化。A、正確B、錯誤30.循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶功能B、錯誤31.線性回歸的損失函數(shù)中加入L1正則項,此時該回歸叫做LassA、正確B、錯誤如果使用樸素貝葉斯作為模型的話,則我們假設(shè)屬性之間不存在B、錯誤33.我們可以使用scipy中的spectrogram函數(shù)對整段音頻信號做快速傅里葉變換提取聲譜圖B、錯誤34.為了更好的支撐昇騰產(chǎn)業(yè)的發(fā)展,華為未來五年將投入超過30億人民幣來支持產(chǎn)業(yè)的發(fā)展,一方面華為將會廣泛的尋求和產(chǎn)業(yè)界的合作,并逐步開放昇騰的技術(shù)能力,開源Al訓(xùn)練框架,投入華為的技術(shù)資源和營銷資源,打造一個支撐昇騰產(chǎn)業(yè)發(fā)展的支撐平臺來使能華為的合作伙伴和開發(fā)者,具體來說,我們會推出三大計劃,一是面向我們商業(yè)ISV伙伴的解決方案認(rèn)證計劃,面向開發(fā)者和初創(chuàng)企業(yè)的開發(fā)者賦能扶植計劃,面向高校和研究機構(gòu)的人才培養(yǎng)計劃,我們希望通過這三大計劃,實現(xiàn)5年內(nèi)發(fā)展3000家合作伙伴,培育百萬開發(fā)者()A、正確B、錯誤35.為保證模型精度及避免硬件差異帶來的影響,Mindspore的并行訓(xùn)練需要相同型號的設(shè)備(如:全部都使用Atlas100TPro者全部都用NVIDIAV100)。A、正確B、錯誤36.圖像特征提取是一種降維的思想,可以有效降低圖像數(shù)據(jù)的數(shù)A、正確B、錯誤37.圖像的濾波器操作又被稱為模板運算,常用的模板運算有模板(卷積)和模板(排序)。()A、正確B、錯誤參考答案:A38.圖像的空間聯(lián)系是局部的像素聯(lián)系較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較弱。A、正確B、錯誤39.圖像處理中的反轉(zhuǎn)指的是像素灰度值的反轉(zhuǎn)?()A、正確B、錯誤40.同樣尺寸大小的均值濾波比中值濾波的去噪效果要好。A、正確B、錯誤參考答案:B41.通過灰度化的技術(shù)可以將一副彩色圖像變化為灰度圖像,也可以通過反變換,還原一副灰度圖像的色彩。A、正確B、錯誤42.調(diào)用華為云文字識別API時,可以返回文字塊的區(qū)域位置信息,坐標(biāo)原點為圖片左下角,s軸沿水平方向,y軸沿豎直方向。A、正確B、錯誤43.損失函數(shù)E(W)是定義在權(quán)值空間上的函數(shù)。我們的目的是搜索使得E(W)最小的權(quán)值向量?A、正確B、錯誤44.隨著對機器學(xué)習(xí)了解的深入,我們會發(fā)現(xiàn),隨著時間的變遷,機器學(xué)習(xí)的內(nèi)涵和外延也在不斷的變化。A、正確B、錯誤45.隨機梯度下降的優(yōu)點是對于很大的數(shù)據(jù)集來說,一次只選用一個樣本進(jìn)行更新,沒有冗余,速度快。A、正確B、錯誤46.雙峰法能夠自動求取圖像的最佳分隔閾值,但并不適用于所有A、正確B、錯誤47.數(shù)字圖像可以進(jìn)行加法運算和減法運算,但是不能做乘法和除A、正確B、錯誤48.數(shù)字圖像可以進(jìn)行基本的數(shù)學(xué)運算,即可以做加減乘除運算。A、正確B、錯誤49.使用mindspore.nn.MaxPool2d構(gòu)建二維最大池化層時,默認(rèn)情況下接收的數(shù)據(jù)格式為[高度、寬度、通道、數(shù)量]。A、正確50.實際項目中,在構(gòu)建模型之前,數(shù)據(jù)清理與特征工程是非常重要的A、正確52.深度神經(jīng)網(wǎng)絡(luò)越深效果越好、準(zhǔn)確度越高()B、錯誤54.如果reset門為1,而update門為0的話,GRU完全退化為一個RNN。56.人臉比對服務(wù)調(diào)用時只傳入一張圖像也可以。A、正確B、錯誤參考答案:B方法及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。A、正確B、錯誤58.人工智能的目標(biāo)是:讓計算機和人一樣聰明()A、正確B、錯誤59.人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理B、錯誤參考答案:B60.全連接最后一層一般都選softmax函數(shù)A、正確B、錯誤61.全局梯度下降的缺點是一次更新中對整個數(shù)據(jù)集計算梯度,速A、正確B、錯誤62.強化學(xué)習(xí)討論的問題是智能體怎么在復(fù)雜不確定的環(huán)境里面去極大化他能獲得的獎勵。通過感知所處環(huán)境的狀態(tài)對動作的反應(yīng)來指導(dǎo)更好的動作,從而獲得最大的利益。A、正確B、錯誤63.強化學(xué)習(xí)是除了監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)之外的第三種基本的機器學(xué)習(xí)方法。與其他兩種機器學(xué)習(xí)方法相比,強化學(xué)習(xí)的主要優(yōu)勢在于增加了訓(xùn)練數(shù)據(jù)量,提高了自身性能A、正確B、錯誤64.強化學(xué)習(xí)不同于連接主義學(xué)習(xí)中的監(jiān)督學(xué)習(xí),主要表現(xiàn)在教師信號上,強化學(xué)習(xí)中由環(huán)境提供的強化信號是對產(chǎn)生動作的好壞作一種評價(通常為標(biāo)量信號),而不是告訴強化學(xué)習(xí)系統(tǒng)如何去產(chǎn)生正確的動作A、正確B、錯誤65.某公司發(fā)現(xiàn)員工在查詢公司內(nèi)部保密文檔時費時費力,他們可以借助ChatGPT提高文檔查找效率。A、正確B、錯誤66.模板尺寸越大,均值濾波的去噪效果越好,在進(jìn)行去噪時,應(yīng)選擇大尺寸的模板進(jìn)行均值濾

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論