華為ICT大賽中國(guó)區(qū)(實(shí)踐賽)-昇騰AI賽道往年考試真題試題庫(kù)(含答案解析)_第1頁(yè)
華為ICT大賽中國(guó)區(qū)(實(shí)踐賽)-昇騰AI賽道往年考試真題試題庫(kù)(含答案解析)_第2頁(yè)
華為ICT大賽中國(guó)區(qū)(實(shí)踐賽)-昇騰AI賽道往年考試真題試題庫(kù)(含答案解析)_第3頁(yè)
華為ICT大賽中國(guó)區(qū)(實(shí)踐賽)-昇騰AI賽道往年考試真題試題庫(kù)(含答案解析)_第4頁(yè)
華為ICT大賽中國(guó)區(qū)(實(shí)踐賽)-昇騰AI賽道往年考試真題試題庫(kù)(含答案解析)_第5頁(yè)
已閱讀5頁(yè),還剩225頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1一、單選題1.圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽被稱為?A、GreatTrurhB、GreatTargetC、GroundTruthD、GroundTarget答案:C解析:在圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽通常被稱為GroundTruth,因?yàn)樗砹苏鎸?shí)的數(shù)據(jù)和信息,是進(jìn)行算法訓(xùn)練和評(píng)估的重要參考。因此,選項(xiàng)C是正確的。2.以下哪個(gè)選項(xiàng)是華為的人工智能計(jì)算平臺(tái)?()A、ModelArtsB、華為云EIC、ECSD、Atlas答案:D解析:華為人工智能計(jì)算平臺(tái)為Atlas3.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說(shuō)法正確的是?A、不存在—對(duì)—的模型結(jié)構(gòu)B、反向傳播時(shí)不考慮時(shí)間方向C、不存在多對(duì)多的模型結(jié)構(gòu)D、會(huì)出現(xiàn)長(zhǎng)時(shí)間傳輸記憶的信息衰減的問(wèn)題答案:D解析:這道題考察的是對(duì)標(biāo)準(zhǔn)RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))模型的理解。RNN模型因其特殊的結(jié)構(gòu),確實(shí)存在長(zhǎng)時(shí)間傳輸記憶時(shí)信息衰減的問(wèn)題,這是由于在反向傳播過(guò)程中,隨著序列長(zhǎng)度的增加,梯度值可能會(huì)逐漸消失或爆炸,導(dǎo)致網(wǎng)絡(luò)難以學(xué)習(xí)到長(zhǎng)距離依賴關(guān)系。選項(xiàng)D正確描述了這一特性。4.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問(wèn)題,那么該公司可以使用以下哪一種EI服務(wù)?A、園區(qū)智能體B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體答案:C解析:這道題考察的是對(duì)EI服務(wù)應(yīng)用領(lǐng)域的理解。首先,從題干中我們可以了解到,這家電商公司面臨的主要問(wèn)題是官網(wǎng)卡頓、網(wǎng)絡(luò)資源利用率不佳以及運(yùn)維困難,這些都是與網(wǎng)絡(luò)性能和管理相關(guān)的問(wèn)題。接下來(lái),我們逐一分析選項(xiàng):?A選項(xiàng)“園區(qū)智能體”,通常用于園區(qū)的智能化管理,與網(wǎng)絡(luò)性能問(wèn)題不直接相關(guān)。?B選項(xiàng)“交通智能體”,主要應(yīng)用于交通領(lǐng)域的智能化,同樣與網(wǎng)絡(luò)性能問(wèn)題不直接相關(guān)。?C選項(xiàng)“網(wǎng)絡(luò)智能體”,專注于網(wǎng)絡(luò)的智能化管理,包括性能優(yōu)化、資源分配等,直接針對(duì)題干中提到的網(wǎng)絡(luò)問(wèn)題。?D選項(xiàng)“工業(yè)智能體”,主要應(yīng)用于工業(yè)領(lǐng)域的智能化,與網(wǎng)絡(luò)性能問(wèn)題不直接相關(guān)。綜上所述,針對(duì)電商公司面臨的網(wǎng)絡(luò)問(wèn)題,最適用的EI服務(wù)是“網(wǎng)絡(luò)智能體”,因此答案是C。5.Mindspore深度學(xué)習(xí)框架可以支持動(dòng)態(tài)圖和靜態(tài)圖模式,下列哪一項(xiàng)是Mindspore靜態(tài)圖的設(shè)置代碼?A、context.setcontext(mode=context.GPUMODB、context.setcontext(mode=context.GRAPHMODC、ontext.setcontext(mode=context.PYNATIVEMODED、context.setcontext(mode=context.ASCENDMOD答案:B解析:MindSpore是一個(gè)深度學(xué)習(xí)框架,它支持動(dòng)態(tài)圖和靜態(tài)圖兩種模式。靜態(tài)圖模式主要是為了優(yōu)化性能和預(yù)測(cè)的穩(wěn)定性。在MindSpore中,`context.set_context`函數(shù)用于設(shè)置運(yùn)行模式和設(shè)備等信息。其中,`context.GRAPH_MODE`正是靜態(tài)圖的設(shè)置選項(xiàng)。因此,正確答案是B。當(dāng)使用`context.set_context(mode=context.GRAPH_MODE)`時(shí),MindSpore將采用靜態(tài)圖模式進(jìn)行運(yùn)行。6.以下關(guān)于邏輯回歸的描述中,哪一項(xiàng)是錯(cuò)誤的?A、邏輯回歸模型是一種分類模型,用來(lái)解決分類問(wèn)題。B、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù))。C、邏輯回歸與線性回歸都是廣義線性模型。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。答案:D解析:邏輯回歸和線性回歸的損失函數(shù)并不是最小二乘損失函數(shù),而是對(duì)數(shù)損失函數(shù)。因此,選項(xiàng)D是錯(cuò)誤的。邏輯回歸是一種廣義線性模型,它在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問(wèn)題。邏輯回歸是一種分類模型,主要用于預(yù)測(cè)一個(gè)樣本屬于某個(gè)類別(通常是二分類)的概率。7.如果模型轉(zhuǎn)換失敗,原因和解決方法中,錯(cuò)誤的是?A、本地轉(zhuǎn)換缺乏Docker環(huán)境,需要安裝Docker環(huán)境。B、云端轉(zhuǎn)換時(shí)候,網(wǎng)絡(luò)連接有問(wèn)題,需要檢查和配置網(wǎng)絡(luò)環(huán)境。C、模型文件太大,無(wú)法轉(zhuǎn)換,需要壓縮模型文件。D、轉(zhuǎn)換報(bào)告顯示有算子不支持,需要修改使用的算子。答案:C解析:模型轉(zhuǎn)換失敗的原因可能有很多種,包括環(huán)境問(wèn)題、網(wǎng)絡(luò)問(wèn)題、模型文件問(wèn)題等。根據(jù)題目中的選項(xiàng),我們可以逐一分析A選項(xiàng)本地轉(zhuǎn)換缺乏Docker環(huán)境,需要安裝Docker環(huán)境。這是一個(gè)常見(jiàn)的環(huán)境問(wèn)題,如果本地沒(méi)有安裝Docker,則無(wú)法進(jìn)行模型轉(zhuǎn)換。解決方法是安裝Docker。B選項(xiàng)云端轉(zhuǎn)換時(shí)候,網(wǎng)絡(luò)連接有問(wèn)題,需要檢查和配置網(wǎng)絡(luò)環(huán)境。這是一個(gè)網(wǎng)絡(luò)問(wèn)題,如果網(wǎng)絡(luò)連接不穩(wěn)定或配置不正確,則可能導(dǎo)致模型轉(zhuǎn)換失敗。解決方法是檢查和配置網(wǎng)絡(luò)環(huán)境。C選項(xiàng)模型文件太大,無(wú)法轉(zhuǎn)換,需要壓縮模型文件。這實(shí)際上是一個(gè)不正確的說(shuō)法。模型文件的大小不應(yīng)該成為轉(zhuǎn)換失敗的原因。模型轉(zhuǎn)換失敗通常是由于其他問(wèn)題,如算子不支持、環(huán)境或網(wǎng)絡(luò)問(wèn)題等。因此,壓縮模型文件可能不是解決問(wèn)題的正確方法。D選項(xiàng)轉(zhuǎn)換報(bào)告顯示有算子不支持,需要修改使用的算子。這是一個(gè)常見(jiàn)的模型轉(zhuǎn)換問(wèn)題,如果使用的算子不被目標(biāo)平臺(tái)支持,則會(huì)導(dǎo)致轉(zhuǎn)換失敗。解決方法是修改或替換不支持的算子。因此,正確是C選項(xiàng)。8.NNLM模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?()A、TanhB、SoftmaxC、ReLUD、Sigmoid答案:B解析:NNLM指神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型。通常,卷積神經(jīng)網(wǎng)絡(luò)會(huì)將末端得到的特征圖平攤成一個(gè)長(zhǎng)的列向量,經(jīng)過(guò)全連接層的計(jì)算得到最終的輸出層,一般使用softmax激活函數(shù)將最終的輸出量化。9.以下哪一項(xiàng)是在標(biāo)準(zhǔn)RNN結(jié)構(gòu)中的隱藏層中使用的激活函數(shù)?A、RaLUB、tanhC、SoftmaxD、Sigmoid答案:B解析:在標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)結(jié)構(gòu)中,隱藏層通常使用激活函數(shù)來(lái)增加模型的非線性性質(zhì)和表示能力。其中,tanh函數(shù)是一個(gè)常用的激活函數(shù),用于處理二值輸入的輸出層或者隱藏層,使模型在某些特定任務(wù)中表現(xiàn)出色。因此,選項(xiàng)B“tanh”是正確的。10.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯(cuò)誤的是哪一項(xiàng)?A、CPU的功能主要是解釋計(jì)算機(jī)指令以及處理計(jì)算機(jī)硬件中的數(shù)據(jù)。B、FPGA實(shí)現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門(mén)在個(gè)人電腦、工作站,游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器。答案:A解析:這道題考察的是對(duì)AI芯片相關(guān)技術(shù)架構(gòu)的理解。A選項(xiàng)提到CPU的功能,但實(shí)際上在AI芯片領(lǐng)域,CPU雖然可以解釋計(jì)算機(jī)指令和處理數(shù)據(jù),但其并不是AI芯片的主要組成部分,AI芯片更多關(guān)注于如GPU、FPGA、SIC等針對(duì)特定計(jì)算任務(wù)優(yōu)化的硬件。B選項(xiàng)描述FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)實(shí)現(xiàn)了半定制芯片的功能,這是正確的,F(xiàn)PGA可以根據(jù)需要進(jìn)行編程,實(shí)現(xiàn)特定的硬件邏輯功能。C選項(xiàng)中的ASIC(專用集成電路)屬于專用集成電路,這也是正確的,ASIC是為了執(zhí)行特定任務(wù)而設(shè)計(jì)的集成電路。D選項(xiàng)描述GPU(圖形處理單元)是一種專門(mén)在個(gè)人電腦、工作站、游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器,這是準(zhǔn)確的,GPU在圖像處理和并行計(jì)算方面表現(xiàn)出色,也是AI計(jì)算中常用的硬件。綜上所述,A選項(xiàng)的描述與AI芯片的技術(shù)架構(gòu)不符,是錯(cuò)誤的。11.以下選項(xiàng)中,哪個(gè)選項(xiàng)的模型無(wú)法分割線性不可分?jǐn)?shù)據(jù)集?A、神經(jīng)網(wǎng)絡(luò)B、線性回歸C、SVMD、KNN答案:B解析:線性回歸只能對(duì)線性可分的數(shù)據(jù)集進(jìn)行建模,而無(wú)法分割線性不可分的數(shù)據(jù)集。因此,選項(xiàng)B(線性回歸)是正確。其他選項(xiàng),如神經(jīng)網(wǎng)絡(luò)、SVM和KNN,都可以用于分割線性不可分的數(shù)據(jù)集。12.以下哪個(gè)激活函數(shù)可以很好的解決梯度消失問(wèn)題?A、TanhB、softsignC、ReluD、Sigmoid答案:C解析:這道題考察的是對(duì)激活函數(shù)特性的理解。梯度消失是深度學(xué)習(xí)中常見(jiàn)的問(wèn)題,特別是在使用Sigmoid或Tanh這類飽和激活函數(shù)時(shí)。Relu函數(shù)(RectifiedLinearUnit)由于其非飽和性,在正數(shù)部分梯度恒為1,因此可以有效緩解梯度消失問(wèn)題。而Sigmoid和Tanh函數(shù)在輸入值較大或較小時(shí),梯度接近于0,容易導(dǎo)致梯度消失。softsign函數(shù)雖然形狀與Tanh相似,但其梯度消失問(wèn)題并未得到很好的解決。因此,選擇C(Relu)作為答案。13.以下哪個(gè)選項(xiàng)不屬于華為云ModelArts提供的功能或服務(wù)?A、模型診斷B、智能模型調(diào)優(yōu)C、智能數(shù)據(jù)標(biāo)注D、VSCodeSDK答案:D解析:華為云ModelArts提供了一系列功能和服務(wù),包括但不限于模型診斷、智能模型調(diào)優(yōu)和智能數(shù)據(jù)標(biāo)注等。然而,VSCodeSDK并非華為云ModelArts提供的功能或服務(wù)之一。因此,選項(xiàng)D不屬于華為云ModelArts提供的功能或服務(wù)。14.五官特征檢測(cè)API對(duì)輸入圖像進(jìn)行人臉五官特征檢測(cè),返回代表五官輪廓位置的關(guān)鍵點(diǎn)坐標(biāo),目前支持多少個(gè)landmark點(diǎn)?()A、10B、20C、50D、68答案:D解析:這道題考察的是對(duì)五官特征檢測(cè)API返回的關(guān)鍵點(diǎn)坐標(biāo)數(shù)量的了解。在人臉五官特征檢測(cè)中,API會(huì)返回代表五官輪廓位置的關(guān)鍵點(diǎn)坐標(biāo),這些坐標(biāo)點(diǎn)稱為landmark點(diǎn)。根據(jù)目前的技術(shù)標(biāo)準(zhǔn)和API設(shè)計(jì),通常支持68個(gè)landmark點(diǎn),用于詳細(xì)描繪人臉五官的輪廓和特征。15.通用文字識(shí)別服務(wù)調(diào)用成功時(shí)返回的結(jié)果中,words_block_count代表什么?A、識(shí)別文字?jǐn)?shù)目B、識(shí)別文字塊數(shù)目C、識(shí)別文字塊列表D、以上都不是答案:B解析:通用文字識(shí)別服務(wù)調(diào)用成功時(shí)返回的結(jié)果中,words_block_count代表的是識(shí)別文字塊數(shù)目。這是因?yàn)槲淖肿R(shí)別服務(wù)會(huì)將輸入的圖像或文本分解成不同的文字塊,然后進(jìn)行識(shí)別。因此,返回的結(jié)果中的words_block_count就是代表了識(shí)別到的文字塊的數(shù)量。所以選項(xiàng)B是正確的答案。16.On-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮異騰芯片的算力,可以大大降低交互的開(kāi)銷(xiāo),從而提升加速器占用率,關(guān)于On-Device執(zhí)行以下描述錯(cuò)誤的是?A、MindSpore通過(guò)梯度數(shù)據(jù)驅(qū)動(dòng)的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主B、11Reduce,梯度聚合步調(diào)一致,計(jì)算與通信充分流水C、超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問(wèn)題、交互開(kāi)銷(xiāo)大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開(kāi)銷(xiāo)甚至遠(yuǎn)大于執(zhí)行開(kāi)銷(xiāo),導(dǎo)致加速器占用率低D、MindSpore通過(guò)面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信’的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平E、超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ReslNet50單迭代20ms時(shí)間時(shí)會(huì)產(chǎn)生中心控制的同步開(kāi)銷(xiāo)和頻繁同步的通信開(kāi)銷(xiāo)。傳統(tǒng)方法需要3次同步完成AllReduce,數(shù)據(jù)驅(qū)動(dòng)方法自主AllReduce,無(wú)控制開(kāi)銷(xiāo)答案:C解析:在解釋C選項(xiàng)時(shí),由于MindSpore通過(guò)面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式提升,所以C選項(xiàng)描述錯(cuò)誤。而其他選項(xiàng)都與On-Device執(zhí)行有關(guān),分別描述了不同方面的內(nèi)容,因此是正確的。17.逆光拍照時(shí),人臉比較暗,使用伽馬矯正對(duì)圖像進(jìn)行增強(qiáng)達(dá)到逆光也清晰的效果,γ的取值可以選擇哪個(gè)?A、0.5B、1C、2答案:B解析:在逆光拍照時(shí),為了增強(qiáng)人臉的亮度,可以使用伽馬矯正來(lái)調(diào)整圖像的亮度。伽馬矯正是一種圖像處理技術(shù),用于調(diào)整圖像的伽馬值,以改變圖像的亮度。在題目所給的選項(xiàng)中,伽馬值可以選擇為0.5。這是因?yàn)?,伽馬值的大小直接影響圖像的亮度和對(duì)比度,適當(dāng)?shù)馁ゑR值可以使圖像更加清晰和自然。因此,答案是C,即伽馬值為0.5。18.以下哪一個(gè)選項(xiàng)屬于強(qiáng)化學(xué)習(xí)中的對(duì)象?A、狀態(tài)B、環(huán)境C、獎(jiǎng)勵(lì)D、動(dòng)作答案:B解析:這道題考察的是對(duì)強(qiáng)化學(xué)習(xí)基本概念的理解。在強(qiáng)化學(xué)習(xí)中,“環(huán)境”是一個(gè)核心對(duì)象,它定義了智能體(agent)外部的所有事物,包括狀態(tài)、動(dòng)作和獎(jiǎng)勵(lì)等。狀態(tài)是環(huán)境在某個(gè)時(shí)間點(diǎn)的快照,動(dòng)作是智能體可以采取的行為,獎(jiǎng)勵(lì)則是環(huán)境對(duì)智能體采取動(dòng)作后的反饋。因此,根據(jù)強(qiáng)化學(xué)習(xí)的定義,選項(xiàng)D“環(huán)境”是正確答案。19.在調(diào)用華為云服務(wù)的環(huán)境準(zhǔn)備中,下列哪一個(gè)不需要確認(rèn)安裝?A、requestsB、setuptoolsC、websocket-clientD、Jieba答案:D解析:在華為云服務(wù)的環(huán)境準(zhǔn)備中,調(diào)用華為云服務(wù)的環(huán)境準(zhǔn)備通常涉及到一些庫(kù)和框架的安裝。根據(jù)題意,我們需要確認(rèn)哪些庫(kù)需要安裝。Jieba是一個(gè)中文分詞庫(kù),與環(huán)境準(zhǔn)備沒(méi)有直接關(guān)系,因此不需要確認(rèn)安裝。而其他選項(xiàng)requests、setuptools和websocket-client都是與環(huán)境準(zhǔn)備相關(guān)的庫(kù),需要確認(rèn)安裝。20.在達(dá)芬奇架構(gòu)中關(guān)于矩陣計(jì)算,以下哪個(gè)選項(xiàng)和矩陣計(jì)算單元主要完成矩陣相關(guān)運(yùn)算?A、寄存器B、累加器C、運(yùn)算器D、控制器答案:B解析:這道題考察的是對(duì)達(dá)芬奇架構(gòu)中矩陣計(jì)算單元的理解。在達(dá)芬奇架構(gòu)中,矩陣計(jì)算單元是專門(mén)用于處理矩陣相關(guān)運(yùn)算的。根據(jù)架構(gòu)的設(shè)計(jì),矩陣計(jì)算單元主要依賴?yán)奂悠鱽?lái)完成矩陣的運(yùn)算任務(wù)。運(yùn)算器雖然也參與計(jì)算,但不是特指矩陣運(yùn)算;寄存器用于存儲(chǔ)數(shù)據(jù);控制器則負(fù)責(zé)指令的控制,不直接參與矩陣運(yùn)算。因此,正確答案是C,累加器。21.以下哪個(gè)選項(xiàng)不屬于自然語(yǔ)言的理解和分析?A、結(jié)構(gòu)分析B、句法分析C、詞法分析D、語(yǔ)音分析答案:A解析:自然語(yǔ)言的理解和分析可以分為五個(gè)層次:語(yǔ)音分析,是要根據(jù)音位規(guī)則,從語(yǔ)音流中區(qū)分出一個(gè)個(gè)獨(dú)立的音素,再根據(jù)音位形態(tài)規(guī)則找出音節(jié)及其對(duì)應(yīng)的詞素或詞。詞法分析,是找出詞匯的各個(gè)詞素,從中獲得語(yǔ)言學(xué)的信息。句法分析,是對(duì)句子和短語(yǔ)的結(jié)構(gòu)進(jìn)行分析,目的是要找出詞、短語(yǔ)等的相互關(guān)系以及各自在句中的作用。語(yǔ)義分析,是找出詞義、結(jié)構(gòu)意義及其結(jié)合意義,從而確定語(yǔ)言所表達(dá)的真正含義或概念。語(yǔ)用分析,是研究語(yǔ)言所存在的外界環(huán)境對(duì)語(yǔ)言使用者所產(chǎn)生的影響。22.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基于鯤鵬處理器平臺(tái)的是?A、tlas800型號(hào):9000B、Atlas800型號(hào):3000C、Atlas800型號(hào):3010答案:B解析:Atlas800AI服務(wù)器是華為推出的面向AI訓(xùn)練場(chǎng)景的服務(wù)器系列。在該系列中,基于鯤鵬處理器平臺(tái)的型號(hào)是Atlas800型號(hào):3000。這一型號(hào)專門(mén)設(shè)計(jì)用于支持高性能計(jì)算和AI訓(xùn)練任務(wù),利用鯤鵬處理器的強(qiáng)大性能來(lái)滿足復(fù)雜計(jì)算需求。23.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式C、多語(yǔ)言D、多平臺(tái)答案:A解析:TensorFlow2.0是一個(gè)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的開(kāi)源框架,它支持多種語(yǔ)言和平臺(tái)。它具有分布式計(jì)算功能,可以在多個(gè)計(jì)算機(jī)或設(shè)備上運(yùn)行,并且支持多種硬件加速,包括GPU和多核CPU。24.使用二值化數(shù)字區(qū)域的分割,因?yàn)樵肼曈绊懀械淖址倪B通域粘連在了一起,使用什么方法可將字符分割開(kāi)?A、閉運(yùn)算B、膨脹C、伽馬矯正D、開(kāi)運(yùn)算答案:D解析:開(kāi)運(yùn)算是先進(jìn)行腐蝕操作,再進(jìn)行膨脹操作,可以消除小的連通區(qū)域,分割開(kāi)字符之間的粘連。閉運(yùn)算和膨脹操作會(huì)使得字符之間的粘連更加嚴(yán)重,而伽馬矯正是用來(lái)調(diào)整圖像的亮度和對(duì)比度,并不能有效分割字符。25.數(shù)據(jù)管理中的物體檢測(cè)作業(yè)不能通過(guò)以下哪種方式進(jìn)行標(biāo)注?A、用橢圓框住目標(biāo)B、用圓形框住目標(biāo)C、用多邊形框出目標(biāo)D、用矩形框住目標(biāo)答案:A解析:這道題考察的是對(duì)數(shù)據(jù)管理中物體檢測(cè)作業(yè)標(biāo)注方式的理解。在物體檢測(cè)任務(wù)中,常見(jiàn)的標(biāo)注方式包括用矩形、多邊形等形狀框出目標(biāo),以便對(duì)目標(biāo)進(jìn)行定位和識(shí)別。其中,矩形和多邊形是最常用的標(biāo)注方式,因?yàn)樗鼈兛梢赃m應(yīng)不同形狀和大小的目標(biāo)。而圓形雖然不太常用,但在某些特定場(chǎng)景下也可以用來(lái)標(biāo)注目標(biāo)。然而,橢圓框由于其形狀特性,通常不被用作物體檢測(cè)的標(biāo)注方式,因?yàn)樗y以準(zhǔn)確界定目標(biāo)的邊界。因此,正確答案是D。26.圖像分類作業(yè)如何標(biāo)注?()A、用圓形框住目標(biāo)B、用橢圓框住目標(biāo)C、用矩形框住目標(biāo)D、給圖片輸入類別標(biāo)簽答案:D解析:打標(biāo)簽標(biāo)記上對(duì)應(yīng)類別;用矩形框框柱是目標(biāo)檢測(cè)的標(biāo)注方式27.以下關(guān)于不同優(yōu)化器的描述,錯(cuò)誤的是哪一項(xiàng)?A、dam需要設(shè)置全局學(xué)習(xí)率B、RMSprop不需要設(shè)置全局學(xué)習(xí)率C、Adadelta不需要設(shè)置全局學(xué)習(xí)率D、Adagrad需要設(shè)置全局學(xué)習(xí)率答案:B解析:在深度學(xué)習(xí)中,不同的優(yōu)化器有不同的參數(shù)設(shè)置要求。Adam優(yōu)化器確實(shí)需要設(shè)置全局學(xué)習(xí)率,這是其參數(shù)調(diào)整的基礎(chǔ)。Adadelta和Adagrad同樣需要設(shè)置全局學(xué)習(xí)率,盡管它們也會(huì)根據(jù)迭代過(guò)程中的梯度信息來(lái)動(dòng)態(tài)調(diào)整學(xué)習(xí)率。而RMSprop優(yōu)化器同樣需要設(shè)置全局學(xué)習(xí)率,它利用梯度平方的移動(dòng)平均來(lái)調(diào)整學(xué)習(xí)率,但并不是不需要設(shè)置。因此,選項(xiàng)B“RMSprop不需要設(shè)置全局學(xué)習(xí)率”是錯(cuò)誤的描述,答案選B。28.ModelArts數(shù)據(jù)管理中創(chuàng)建圖像數(shù)據(jù)集沒(méi)有以下哪一標(biāo)注類型?A、圖像分割B、圖像分類C、物體檢測(cè)D、圖像生成答案:D解析:圖像生成屬于無(wú)監(jiān)督學(xué)習(xí)29.關(guān)于深度學(xué)習(xí)的描述中,以下哪一項(xiàng)是錯(cuò)誤的?A、在大部分情況下,網(wǎng)絡(luò)在高維的權(quán)重海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能B、利用算法自動(dòng)提取特征C、特征可解釋性強(qiáng)D、“端到端”的學(xué)習(xí)答案:C解析:這道題考察對(duì)深度學(xué)習(xí)特性的理解。深度學(xué)習(xí)模型確實(shí)能在高維權(quán)重和海量訓(xùn)練數(shù)據(jù)下獲得高性能,這是其一大優(yōu)勢(shì),所以A選項(xiàng)正確。深度學(xué)習(xí)通過(guò)算法自動(dòng)提取特征,無(wú)需人工干預(yù),B選項(xiàng)也正確。深度學(xué)習(xí)模型通常是“端到端”的學(xué)習(xí),即從原始數(shù)據(jù)直接學(xué)習(xí)到最終任務(wù)目標(biāo),D選項(xiàng)描述準(zhǔn)確。然而,深度學(xué)習(xí)模型的特征可解釋性通常較弱,因?yàn)樗鼈兪峭ㄟ^(guò)復(fù)雜的非線性變換自動(dòng)學(xué)習(xí)到的,所以C選項(xiàng)是錯(cuò)誤的。30.有監(jiān)督算法與無(wú)監(jiān)督算法的主要區(qū)別是什么?()A、數(shù)據(jù)量B、驗(yàn)證集C、標(biāo)簽D、測(cè)試集答案:C解析:有監(jiān)督學(xué)習(xí)考標(biāo)簽來(lái)監(jiān)督31.高斯混合模型在語(yǔ)音識(shí)別中的作用是?()A、表示因素之間的概率轉(zhuǎn)移B、用來(lái)表示一個(gè)音素的多維數(shù)值分布C、用來(lái)區(qū)分不同的音素D、評(píng)估HMM算法的優(yōu)勢(shì)答案:B解析:高斯混合模型表示了觀測(cè)數(shù)據(jù)在總體樣本中的概率分布,即一個(gè)音素的多位數(shù)值分布。32.MoXing的自動(dòng)超參搜索功能的作用是什么()A、提供手動(dòng)調(diào)參的指導(dǎo)B、在參數(shù)空間中,自動(dòng)搜索初最優(yōu)的超參C、自動(dòng)搜索初最優(yōu)的學(xué)習(xí)率D、自動(dòng)搜索初最優(yōu)的Batch_size答案:B解析:在參數(shù)空間中,自動(dòng)搜索初最優(yōu)的超參33.在昇騰AI軟件棧中,MindStudio屬于以下哪一種類別?A、管理運(yùn)維工具B、全流程開(kāi)發(fā)工具鏈C、異構(gòu)計(jì)算架構(gòu)D、深度學(xué)習(xí)框架答案:B解析:這道題考察的是對(duì)昇騰AI軟件棧中MindStudio的理解。MindStudio是昇騰AI軟件棧的一部分,它提供了從模型開(kāi)發(fā)到部署的全流程支持,是一個(gè)綜合性的開(kāi)發(fā)工具鏈。根據(jù)這個(gè)知識(shí)點(diǎn),我們可以判斷MindStudio屬于全流程開(kāi)發(fā)工具鏈,而不是管理運(yùn)維工具、異構(gòu)計(jì)算架構(gòu)或深度學(xué)習(xí)框架。因此,正確答案是B。34.感知機(jī)的結(jié)構(gòu)是模擬以下哪種生物結(jié)構(gòu)?()A、大腦B、神經(jīng)元C、眼睛D、耳朵答案:B解析:模擬神經(jīng)元,輸入處理輸出35.ModelArts數(shù)據(jù)管理功能對(duì)應(yīng)深度學(xué)習(xí)開(kāi)發(fā)流程中的哪個(gè)部分()A、數(shù)據(jù)準(zhǔn)備B、代碼調(diào)試C、推理D、訓(xùn)練答案:A解析:數(shù)據(jù)預(yù)處理數(shù)據(jù)準(zhǔn)備階段36.以下哪一個(gè)模板可以實(shí)現(xiàn)圖像的銳比?()A、010111010B、010131010C、0-10-14-10-10D、0-10-16-10-10答案:D解析:在實(shí)現(xiàn)圖像的銳比時(shí),需要選擇一個(gè)模板,該模板可以增強(qiáng)圖像的邊緣和對(duì)比度,使其更加清晰和銳利。根據(jù)題干中給出的選項(xiàng),只有D選項(xiàng)為0-10-16-10-10,該模板包含一系列連續(xù)的負(fù)數(shù)和正數(shù),可以使圖像的邊緣得到強(qiáng)化,從而實(shí)現(xiàn)了圖像的銳比。因此,為D。37.輸入一個(gè)32x32的圖像,用大小為5x5的卷積核進(jìn)行做步長(zhǎng)為一的卷積計(jì)算,輸出的圖像尺寸為以下哪個(gè)選項(xiàng)?A、28x28B、29x29C、28x23D、23x23答案:A解析:這道題考察的是卷積神經(jīng)網(wǎng)絡(luò)中卷積操作對(duì)圖像尺寸的影響。在卷積操作中,輸出圖像的尺寸是由輸入圖像尺寸、卷積核大小和步長(zhǎng)共同決定的。具體地,輸出圖像的尺寸可以通過(guò)公式計(jì)算得出輸出尺寸=(輸入尺寸-卷積核尺寸+1)/步長(zhǎng)。將題目中的數(shù)值代入公式,即(32-5+1)/1=28,所以輸出的圖像尺寸為28x28。38.MindSpore在提升計(jì)算性能方面做了很多優(yōu)化,下面哪項(xiàng)不屬于優(yōu)化的內(nèi)容?A、On-Device執(zhí)行B、Pipeline并行C、內(nèi)存專用D、深度圖優(yōu)化答案:D解析:這道題考察的是對(duì)MindSpore計(jì)算性能優(yōu)化措施的了解。MindSpore作為一個(gè)深度學(xué)習(xí)框架,為了提升計(jì)算性能,確實(shí)采取了一系列優(yōu)化措施。其中,On-Device執(zhí)行指的是直接在設(shè)備上執(zhí)行計(jì)算任務(wù),減少數(shù)據(jù)傳輸開(kāi)銷(xiāo);Pipeline并行則是一種并行計(jì)算方式,可以提高計(jì)算效率;內(nèi)存專用是指為計(jì)算任務(wù)分配專用內(nèi)存,減少內(nèi)存競(jìng)爭(zhēng),從而提升性能。而深度圖優(yōu)化并非MindSpore的計(jì)算性能優(yōu)化措施,它更多關(guān)聯(lián)于圖像處理領(lǐng)域,與計(jì)算性能優(yōu)化不直接相關(guān)。因此,選項(xiàng)D不屬于MindSpore在提升計(jì)算性能方面所做的優(yōu)化內(nèi)容。39.我們通常說(shuō)的720P的視頻格式,720代表什么A、圖像分辨率的寬度B、圖像分辨率的亮度C、視頻灰度級(jí)D、視頻的分辨率答案:A解析:在視頻格式中,720P表示視頻的分辨率。這里的“P”代表“Progressive”,表示逐行掃描,而“720”則代表視頻的分辨率,即視頻的寬度為720像素。因此,選項(xiàng)D是正確的。40.下列選項(xiàng)中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。A、squeezeB、reshapeC、gatherD、transpose答案:C解析:在TensorFlow2.0中,維度變換通常指的是改變張量(Tensor)的形狀或維度。我們來(lái)分析一下各個(gè)選項(xiàng)的功能:A.`squeeze`:這個(gè)操作用于移除張量中所有為1的維度。例如,如果一個(gè)張量的形狀是[1,2,1,3],使用`squeeze`后,其形狀可能會(huì)變成[2,3]。這明顯是一種維度變換。B.`reshape`:這個(gè)操作允許你改變張量的形狀,但總的元素?cái)?shù)量必須保持不變。41.ModelArts支持的圖片標(biāo)注類型有哪些?A、圖像分類B、物體檢測(cè)C、圖像分割D、以上都對(duì)答案:D解析:ModelArts支持圖像任務(wù)標(biāo)注包括:圖像分類、物體檢測(cè)、圖像分割42.卷積神經(jīng)網(wǎng)絡(luò)在以下哪些領(lǐng)域表現(xiàn)突出?()A、計(jì)算機(jī)視覺(jué)B、語(yǔ)音識(shí)別C、機(jī)器翻譯D、知識(shí)圖譜答案:A解析:卷積神經(jīng)網(wǎng)在計(jì)算機(jī)視覺(jué)中表現(xiàn)突出,語(yǔ)音、NLP不太適合使用CNN。語(yǔ)音、NLP領(lǐng)域RNN(以及變種)使用更多,效果更好。43.在邏輯回歸中,加入L1范數(shù),會(huì)產(chǎn)生什么效果?()A、可以做特征選擇B、能加快計(jì)算速度C、可以獲得更準(zhǔn)確的結(jié)果D、可以減小訓(xùn)練誤差答案:A解析:L2與L1的主要區(qū)別如下:通過(guò)上面的分析,L1相對(duì)于L2能夠產(chǎn)生更加稀疏的模型,即當(dāng)L1正則在參數(shù)w比較小的情況下,能夠直接縮減至0,因此可以起到特征選擇的作用。如果從概率角度進(jìn)行分析,很多范數(shù)約束相當(dāng)于對(duì)參數(shù)添加先驗(yàn)分布,其中L2范數(shù)相當(dāng)于參數(shù)服從高斯先驗(yàn)分布;L1范數(shù)相當(dāng)于拉普拉斯分布。44.以下哪一選項(xiàng)不是序列標(biāo)注方法?A、CRFB、MEMMC、N-GramD、HMM答案:C解析:傳統(tǒng)序列標(biāo)注方法有HMM、MEMM、CRF;基于深度學(xué)習(xí)序列標(biāo)注方法有RNN/LSTM、BiLSTM+CRF、BERT(見(jiàn)PPT第456頁(yè))45.以下哪個(gè)選項(xiàng)是華為Atlas系列芯片采用的架構(gòu)?()A、馮·諾依曼B、高斯C、昇騰D、達(dá)芬奇答案:D解析:達(dá)芬奇架構(gòu),官方名字46.“從有標(biāo)簽的歷史數(shù)據(jù)中來(lái)預(yù)測(cè)下季度的商鋪營(yíng)收會(huì)在20-30萬(wàn)還是30-40萬(wàn)”,這是一個(gè)什么問(wèn)題?A、回歸問(wèn)題B、規(guī)則問(wèn)題C、分類問(wèn)題D、聚類問(wèn)題答案:C解析:分類問(wèn)題是指根據(jù)已有數(shù)據(jù)預(yù)測(cè)離散型變量的取值,如預(yù)測(cè)某個(gè)商品的類別;聚類問(wèn)題是指將數(shù)據(jù)集中的樣本分成若干組,使得同一組內(nèi)的樣本相似度較高,不同組之間的樣本相似度較低;規(guī)則問(wèn)題是指根據(jù)一定的規(guī)則進(jìn)行決策或預(yù)測(cè)。47.五官特征檢測(cè)API對(duì)輸入圖像進(jìn)行人臉五官特征檢測(cè),返回代表五官輪廓位置的關(guān)鍵點(diǎn)坐標(biāo),目前支持多少個(gè)landmark點(diǎn)?。()A、10B、20C、50D、68答案:D解析:這道題考察的是對(duì)五官特征檢測(cè)API返回的關(guān)鍵點(diǎn)坐標(biāo)數(shù)量的了解。在人臉五官特征檢測(cè)中,API會(huì)返回代表五官輪廓位置的關(guān)鍵點(diǎn)坐標(biāo),這些坐標(biāo)點(diǎn)稱為landmark點(diǎn)。根據(jù)目前的技術(shù)標(biāo)準(zhǔn)和API設(shè)計(jì),通常支持68個(gè)landmark點(diǎn),用于詳細(xì)描繪人臉五官的輪廓和特征。48.以下哪一項(xiàng)是代碼mox.file.exists('obs://bucket_name/test01')執(zhí)行的操作?A、創(chuàng)建一個(gè)文件夾B、讀取一個(gè)OBS上的文件C、列舉—個(gè)OBS路徑D、檢查文件夾是否存在答案:D解析:mox.file.exists是檢查文件或目錄是否存在更多文件操作詳見(jiàn):/moxing-devg-modelarts/modelarts_11_0005.html更多文件操作詳見(jiàn):/moxing-devg-Modelarts/modelarts_11_0004.html49.自然語(yǔ)言處理的應(yīng)用場(chǎng)景不包括以下哪一個(gè)選項(xiàng)?A、輿情分析B、機(jī)器翻譯C、文本分類D、圖像識(shí)別答案:D解析:自然語(yǔ)言處理(NLP)主要關(guān)注于理解和處理人類語(yǔ)言的任務(wù)。輿情分析、機(jī)器翻譯和文本分類都是NLP的典型應(yīng)用場(chǎng)景,它們涉及到對(duì)文本內(nèi)容的理解和處理。而圖像識(shí)別主要關(guān)注的是圖像內(nèi)容的分析和理解,屬于計(jì)算機(jī)視覺(jué)的領(lǐng)域,不是NLP的應(yīng)用場(chǎng)景。因此,選項(xiàng)D“圖像識(shí)別”不屬于自然語(yǔ)言處理的應(yīng)用范疇。50.John目前正在規(guī)劃建設(shè)數(shù)據(jù)中心,以下哪個(gè)系統(tǒng)或設(shè)備是他在L2建設(shè)時(shí)需要考慮的?A、供電系統(tǒng)B、設(shè)備組網(wǎng)C、云管理平臺(tái)D、制冷系統(tǒng)答案:B解析:在數(shù)據(jù)中心的建設(shè)中,L2層主要關(guān)注的是網(wǎng)絡(luò)層面的設(shè)計(jì)和實(shí)施。設(shè)備組網(wǎng)涉及到數(shù)據(jù)中心內(nèi)各類設(shè)備之間的網(wǎng)絡(luò)連接和通信,對(duì)于數(shù)據(jù)中心的整體運(yùn)行和性能至關(guān)重要。供電系統(tǒng)和制冷系統(tǒng)通常在更基礎(chǔ)的設(shè)施層面(如L1層)進(jìn)行考慮。云管理平臺(tái)則更多地與軟件和服務(wù)層面相關(guān),一般不是L2建設(shè)時(shí)首要考慮的。因此,選項(xiàng)B是正確答案。51.Atlas200DK所基于的昇騰310芯片主要的應(yīng)用是?A、模型訓(xùn)練B、模型構(gòu)建C、模型推理答案:C解析:Atlas200DK是基于華為昇騰310芯片的開(kāi)發(fā)套件,它主要針對(duì)的是AI模型的推理應(yīng)用。推理是指使用已經(jīng)訓(xùn)練好的模型對(duì)數(shù)據(jù)進(jìn)行預(yù)測(cè)或分類的過(guò)程。與訓(xùn)練模型不同,推理過(guò)程不需要大量的計(jì)算資源,而是更注重低延遲和高效率。因此,昇騰310芯片的設(shè)計(jì)重點(diǎn)是優(yōu)化推理性能,使得Atlas200DK在模型推理應(yīng)用中表現(xiàn)出色。所以,選項(xiàng)A“模型推理”是正確的答案。52.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法?A、TF-IDFB、TextRankC、SSAD、LDA答案:C解析:關(guān)鍵詞提取是文本處理中的一項(xiàng)重要任務(wù),旨在從文本中自動(dòng)抽取出最具代表性的詞匯或短語(yǔ)。常用的關(guān)鍵詞提取算法包括TF-IDF、TextRank和LDA。TF-IDF算法通過(guò)計(jì)算詞頻(TF)和逆文檔頻率(IDF)的乘積來(lái)衡量一個(gè)詞在文檔中的重要性。TextRank算法則是基于圖的方法,將文本中的詞作為節(jié)點(diǎn),通過(guò)邊的連接來(lái)表示詞之間的關(guān)系,進(jìn)而提取關(guān)鍵詞。LDA(LatentDirichletAllocation)是一種主題模型,也可以用于提取文檔的關(guān)鍵詞。相比之下,SSA(奇異譜分析)并不是常用于關(guān)鍵詞提取的算法。因此,選項(xiàng)C是正確的答案。53.以下方法中屬于特征選擇嵌入法(Embedded)的是哪項(xiàng)?A、L1正則B、互信息法C、方差法D、特征遞歸消除法答案:A解析:這道題考察的是對(duì)特征選擇方法的分類理解。特征選擇是機(jī)器學(xué)習(xí)中一個(gè)重要的數(shù)據(jù)預(yù)處理步驟,旨在減少數(shù)據(jù)集的維度以提高模型性能。嵌入法(Embedded)是一種將特征選擇直接嵌入到模型訓(xùn)練過(guò)程中的方法。L1正則化通過(guò)在損失函數(shù)中添加L1范數(shù)項(xiàng),可以實(shí)現(xiàn)特征選擇的效果,屬于嵌入法。互信息法和方差法屬于過(guò)濾法(Filter),特征遞歸消除法屬于包裝法(Wrapper)。因此,正確答案是A。54.1ohn最近正在學(xué)習(xí)搭建卷積神經(jīng)網(wǎng)絡(luò),假設(shè)輸入圖像大小是15?15?3(w?ht),經(jīng)過(guò)一個(gè)含4個(gè)卷積核的卷積層,其中卷積核大小均為5?5,步長(zhǎng)為2,無(wú)填充,在不計(jì)算ias的情況下,該卷積層共有多少權(quán)重參數(shù)?A、75B、100C、300D、600答案:C解析:每個(gè)卷積核的大小為5×5×3(因?yàn)檩斎雸D像有3個(gè)通道),所以每個(gè)卷積核的參數(shù)數(shù)量為5×5×3=75個(gè)。卷積層共有4個(gè)卷積核,所以總的權(quán)重參數(shù)數(shù)量為75×4=300個(gè)。因此,答案選C。55.MindSpore提供了靈活的數(shù)據(jù)集加載方法,當(dāng)用戶通過(guò)Python實(shí)現(xiàn)自定義數(shù)據(jù)集讀取類,可以使用以下哪個(gè)接口進(jìn)行數(shù)據(jù)加載?A、loadDatasetB、MindDatasetC、elebADatasetD、GenetaTorDataset答案:D解析:這道題考察的是對(duì)MindSpore框架中數(shù)據(jù)集加載方法的理解。在MindSpore中,為了實(shí)現(xiàn)自定義數(shù)據(jù)集的讀取,用戶需要定義一個(gè)Python類,并通過(guò)特定的接口進(jìn)行數(shù)據(jù)加載。根據(jù)MindSpore的官方文檔和API設(shè)計(jì),`GeneratorDataset`是用于從Python生成器中加載數(shù)據(jù)的接口,適用于自定義數(shù)據(jù)集的場(chǎng)景。因此,正確答案是D。56.在交通執(zhí)法的車(chē)輛檢測(cè)場(chǎng)景中,對(duì)違章車(chē)輛的判罰寧可漏報(bào),不要誤報(bào),以免產(chǎn)生錯(cuò)誤的罰款,這需要系統(tǒng)的哪個(gè)指標(biāo)很高()A、召回率B、精度(precision)C、正確率(Accuracy)D、置信度答案:B解析:正確率,判斷正確的樣本數(shù)占所有樣本數(shù)的比例。備注:如果該題有precision(查準(zhǔn)率),首選該指標(biāo)。PPT117,將precision翻譯做精度57.在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場(chǎng)景中,發(fā)揮AI技術(shù)的優(yōu)勢(shì),從而提高效率,提升體驗(yàn)。A、EI智能體B、OBS對(duì)象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫(kù)D、EI大數(shù)據(jù)服務(wù)答案:A解析:華為云E中的EI智能體可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場(chǎng)景中,通過(guò)提供智能化的解決方案,發(fā)揮AI技術(shù)的優(yōu)勢(shì),從而提高效率,提升用戶體驗(yàn)。其他選項(xiàng)如OBS對(duì)象存儲(chǔ)服務(wù)、云數(shù)據(jù)庫(kù)和EI大數(shù)據(jù)服務(wù)雖然也是華為云E中的重要服務(wù),但它們主要是提供數(shù)據(jù)存儲(chǔ)、管理和分析的工具,與AI技術(shù)的融合應(yīng)用相比,其作用和影響力相對(duì)較小。因此,答案是A。58.調(diào)用華為云通用表格識(shí)別API時(shí)能夠輸出表格子區(qū)域識(shí)別文字塊列表,以下哪一項(xiàng)是其輸出順序?‘A、從左到右,先上后下B、從左到右,先下后上C、從右到左,先下后上D、從右到左,先上后下答案:A解析:調(diào)用華為云通用表格識(shí)別API時(shí)能夠輸出表格子區(qū)域識(shí)別文字塊列表,其輸出順序是從左到右,從上到下。59.在使用華為云翻拍識(shí)別服務(wù)時(shí),recapture_detect_aksk()函數(shù)的返回結(jié)果中,如果suggestion為真時(shí),category的取值為以下哪項(xiàng)?A、originalB、TrueC、空字符D、recapture答案:C解析:recapture_detectaksk()函數(shù)是指在使用華為云翻拍識(shí)別服務(wù)時(shí)所調(diào)用的函數(shù)。當(dāng)該函數(shù)返回結(jié)果中,suggestion為真時(shí),category的取值應(yīng)為空字符,即選項(xiàng)C。這表示在翻拍識(shí)別服務(wù)中,如果檢測(cè)到可能存在再次拍攝的情況,則其category為空字符。因此,答案為選項(xiàng)C。60.以下關(guān)于機(jī)器學(xué)習(xí)常見(jiàn)算法的說(shuō)法中,哪一項(xiàng)是錯(cuò)誤的?A、樸素貝葉斯是一種簡(jiǎn)單的分類算法,基于貝葉斯定理,并假設(shè)特征之間是獨(dú)立的。B、隨機(jī)森林對(duì)列采樣引入了隨機(jī)性,因此無(wú)需剪枝也不容易發(fā)生過(guò)擬合。C、Xgboost收斂速度快,對(duì)于異常值不敏感。D、SVI的核心思路是找到一條直線,使離直線比較近的點(diǎn),盡可能遠(yuǎn)離這條直線。答案:C解析:行采樣(Bootstrapping)從原始數(shù)據(jù)集中隨機(jī)有放回地抽取樣本,用于訓(xùn)練每棵樹(shù)。列采樣(特征采樣)在構(gòu)建每棵樹(shù)時(shí),從所有特征中隨機(jī)選擇一個(gè)子集用于節(jié)點(diǎn)的分裂61.以下關(guān)于機(jī)器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評(píng)估測(cè)試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練->模型評(píng)估測(cè)試->模型部署與整合C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評(píng)估測(cè)試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評(píng)估測(cè)試答案:C解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)整體流程的理解。在機(jī)器學(xué)習(xí)中,流程通常遵循一定的順序:首先進(jìn)行數(shù)據(jù)收集,隨后進(jìn)行數(shù)據(jù)清洗以處理缺失值、異常值等,接著進(jìn)行特征提取與選擇,為模型訓(xùn)練做準(zhǔn)備。模型訓(xùn)練完成后,需要進(jìn)行模型評(píng)估測(cè)試,驗(yàn)證模型的性能,最后進(jìn)行模型部署與整合,將模型應(yīng)用到實(shí)際場(chǎng)景中。根據(jù)這個(gè)流程,選項(xiàng)C正確描述了機(jī)器學(xué)習(xí)的整體流程。62.新版AndroidUI設(shè)計(jì)器默認(rèn)的布局設(shè)計(jì)風(fēng)格為?A、LinearLayoutB、FrameLayoutC、onstrainLayoutD、RelativeLayout答案:C解析:新版AndroidUI設(shè)計(jì)器默認(rèn)的布局設(shè)計(jì)風(fēng)格為ConstraintLayout,這是一種能夠更好地支持響應(yīng)式設(shè)計(jì)和高效率的布局管理的布局方式。LinearLayout、FrameLayout和RelativeLayout都是AndroidUI設(shè)計(jì)中常見(jiàn)的布局方式,但它們?cè)谀承┓矫婵赡懿蝗鏑onstraintLayout高效或適應(yīng)新的設(shè)計(jì)需求。63.考慮以下場(chǎng)景。使用機(jī)器學(xué)習(xí)算法進(jìn)行垃圾郵件的過(guò)濾。根據(jù)機(jī)器學(xué)習(xí)的簡(jiǎn)單定義,以下哪選項(xiàng)屬于性能衡量標(biāo)準(zhǔn)P?A、過(guò)去三年所有帶標(biāo)簽的垃圾郵件和正常郵件數(shù)據(jù)郵箱地址B、郵箱地址C、過(guò)濾垃圾郵件D、垃圾件過(guò)濾正確率答案:D解析:在機(jī)器學(xué)習(xí)中,性能衡量標(biāo)準(zhǔn)是用來(lái)評(píng)估模型好壞的指標(biāo)。對(duì)于垃圾郵件過(guò)濾這一應(yīng)用場(chǎng)景,我們需要一個(gè)指標(biāo)來(lái)衡量模型過(guò)濾垃圾郵件的效果。選項(xiàng)A提供了過(guò)去三年所有帶標(biāo)簽的垃圾郵件和正常郵件數(shù)據(jù),這是訓(xùn)練數(shù)據(jù),而非性能衡量標(biāo)準(zhǔn)。選項(xiàng)B的郵箱地址同樣只是數(shù)據(jù)的一部分,并不能作為衡量模型性能的指標(biāo)。選項(xiàng)C的“過(guò)濾垃圾郵件”是模型的功能描述,并非性能衡量標(biāo)準(zhǔn)。選項(xiàng)D的“垃圾郵件過(guò)濾正確率”則是一個(gè)明確的性能衡量標(biāo)準(zhǔn),它能告訴我們模型過(guò)濾垃圾郵件的準(zhǔn)確性如何。因此,答案是D。64.最大似然估計(jì)求解過(guò)程正確的是?1、將似然函數(shù)轉(zhuǎn)換為對(duì)數(shù)似然函數(shù)2、使用高斯函數(shù)概率分布的概率密度函數(shù)3、根據(jù)樣本數(shù)據(jù)和高斯概率分布的函數(shù)形式寫(xiě)出似然函數(shù)4、求導(dǎo)且令方程為零5、解方程A、4-1-3-2-5B、1-3-4-2-5C、2-1-3-4-5D、2-3-1-4-5答案:D解析:這道題考察的是最大似然估計(jì)的求解步驟。首先,我們需要知道最大似然估計(jì)是一種在已知樣本數(shù)據(jù)的情況下,估計(jì)總體參數(shù)的方法。其求解步驟通常包括:1)假設(shè)數(shù)據(jù)服從某種概率分布(如高斯分布),并確定其概率密度函數(shù);2)根據(jù)樣本數(shù)據(jù)寫(xiě)出似然函數(shù);3)將似然函數(shù)轉(zhuǎn)換為對(duì)數(shù)似然函數(shù),以便簡(jiǎn)化計(jì)算;4)對(duì)對(duì)數(shù)似然函數(shù)求導(dǎo),并令其為零,找到使似然函數(shù)最大的參數(shù)值;5)解方程得到參數(shù)值。因此,正確的步驟順序是2-3-1-4-5,選項(xiàng)D正確。65.很多手機(jī)提供了護(hù)眼的屏幕顯示模式,可以減少藍(lán)光,緩解疲勞。這項(xiàng)功能可以通過(guò)調(diào)整圖像的()實(shí)現(xiàn)A、亮度B、飽和度C、對(duì)比度D、色相答案:D解析:色相調(diào)節(jié)冷暖程度,調(diào)節(jié)整體畫(huà)面色彩風(fēng)格66.Tensorflow是下面哪家公司開(kāi)源的第二代用于數(shù)字計(jì)算的軟件庫(kù)?A、華為B、高通C、微軟D、谷歌答案:D解析:Tensorflow是一個(gè)廣泛使用的開(kāi)源軟件庫(kù),用于數(shù)值計(jì)算和大規(guī)模機(jī)器學(xué)習(xí)。它是由谷歌機(jī)器智能研究組織的研究人員和工程師開(kāi)發(fā)的,作為第二代機(jī)器學(xué)習(xí)系統(tǒng),旨在提高計(jì)算效率并簡(jiǎn)化機(jī)器學(xué)習(xí)模型的構(gòu)建過(guò)程。因此,根據(jù)這個(gè)背景知識(shí),可以確定答案是D,即谷歌。67.下面哪種卷積神經(jīng)網(wǎng)絡(luò)的層數(shù)最多.()A、ResNetB、AlexNetC、VGG16D、LeNet答案:A解析:卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)的層數(shù)因網(wǎng)絡(luò)架構(gòu)的不同而異。AlexNet、VGG16和LeNet通常具有較少的層數(shù),通常為幾層到十幾層。而ResNet是一種特殊的CNN,其設(shè)計(jì)思想是通過(guò)引入殘差連接和塊(ResidualBlocks)來(lái)克服深度CNN中的梯度消失和退化問(wèn)題,因此其層數(shù)較多,可以達(dá)到幾十層甚至上百層。因此,是A.ResNet。68.在模型訓(xùn)練過(guò)程中,我們需要遍歷訓(xùn)練數(shù)據(jù)集來(lái)不斷進(jìn)行模型優(yōu)化,一次數(shù)據(jù)集的完成遍歷被成為什么?A、—1stepB、—EpochC、—TnumberD、—1cunt答案:B解析:在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的模型訓(xùn)練過(guò)程中,遍歷整個(gè)訓(xùn)練數(shù)據(jù)集一次通常被稱為一個(gè)“Epoch”。每個(gè)Epoch中,模型會(huì)看到訓(xùn)練數(shù)據(jù)集中的每一個(gè)樣本,并根據(jù)這些樣本的預(yù)測(cè)結(jié)果進(jìn)行參數(shù)更新。因此,正確答案是B,即一個(gè)Epoch表示一次數(shù)據(jù)集的完整遍歷。69.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說(shuō)法是正確的?A、決策樹(shù)是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練答案:A解析:這道題考察的是對(duì)監(jiān)督式學(xué)習(xí)概念的理解。監(jiān)督式學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,它使用帶有標(biāo)簽的數(shù)據(jù)集進(jìn)行訓(xùn)練。決策樹(shù)是監(jiān)督式學(xué)習(xí)的一種常見(jiàn)算法,它通過(guò)從數(shù)據(jù)特征中學(xué)習(xí)簡(jiǎn)單的決策規(guī)則來(lái)預(yù)測(cè)目標(biāo)變量的值。交叉驗(yàn)證是一種評(píng)估模型性能的方法,可以用于監(jiān)督式學(xué)習(xí)。監(jiān)督式學(xué)習(xí)不是基于規(guī)則的算法,而是基于數(shù)據(jù)的算法。監(jiān)督式學(xué)習(xí)需要標(biāo)簽數(shù)據(jù)來(lái)訓(xùn)練模型,以便模型可以學(xué)習(xí)如何將輸入數(shù)據(jù)映射到輸出標(biāo)簽。因此,選項(xiàng)A是正確的。70.以下哪一項(xiàng)是語(yǔ)音識(shí)別的簡(jiǎn)稱?()A、TTSB、ASRC、STTD、AST答案:B解析:SSP(SpeechSignalProcessing,語(yǔ)音信號(hào)處理,簡(jiǎn)稱語(yǔ)音處理)ASR(Automaticspeechrecognition,自動(dòng)語(yǔ)音識(shí)別)71.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計(jì)算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過(guò)擬合D、GBDT與隨機(jī)森林都是建立在CART樹(shù)的基礎(chǔ)之上的答案:C解析:對(duì)于題目中關(guān)于GBDT算法和隨機(jī)森林算法的描述,我們來(lái)逐一分析:A.GBDT算法比隨機(jī)森林容易欠擬合-這個(gè)說(shuō)法是錯(cuò)誤的。實(shí)際上,GBDT算法在處理回歸和排序問(wèn)題上具有很高的性能,不容易出現(xiàn)欠擬合的情況。B.隨機(jī)森林是并行計(jì)算的,而GBDT不能-這個(gè)說(shuō)法也是錯(cuò)誤的。隨機(jī)森林中的樹(shù)是并行計(jì)算的,但GBDT(梯度提升決策樹(shù))也可以實(shí)現(xiàn)并行計(jì)算,這取決于具體的實(shí)現(xiàn)方式。C.GBDT算法比隨機(jī)森林容易過(guò)擬合-這是一個(gè)較為常見(jiàn)的說(shuō)法,但并不絕對(duì)。雖然GBDT在某些情況下可能更容易過(guò)擬合,但這并不是其固有的缺陷。D.GBDT與隨機(jī)森林都是建立在CART樹(shù)的基礎(chǔ)之上的-這是正確的。兩者都常常使用CART(分類和回歸樹(shù))作為基礎(chǔ)樹(shù)結(jié)構(gòu)。綜上所述,選項(xiàng)A和B的說(shuō)法是錯(cuò)誤的。但題目要求選出“錯(cuò)誤的”表述,即誤導(dǎo)性的說(shuō)法,因此正確答案是A。盡管B的表述也存在問(wèn)題,但題目問(wèn)的是“哪種表述是錯(cuò)誤的”,而不是“哪些表述是誤導(dǎo)的”,所以B并不符合題意。因此,最終答案是A。72.取20度為一個(gè)區(qū)間統(tǒng)計(jì)一個(gè)call的HOG特征,對(duì)稱的角度歸為一類,這個(gè)cell特征長(zhǎng)度為?A、10B、7C、8D、9答案:D解析:這道題考察的是對(duì)HOG(HistogramofOrientedGradients,方向梯度直方圖)特征的理解。HOG特征通常用于圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域,特別是在對(duì)象檢測(cè)中。題目中提到“取20度為一個(gè)區(qū)間統(tǒng)計(jì)”,意味著360度被分成了18個(gè)區(qū)間(360/20=18)。但題目又指出“對(duì)稱的角度歸為一類”,即對(duì)稱的區(qū)間合并,那么18個(gè)區(qū)間將合并成9個(gè)(因?yàn)閷?duì)稱的區(qū)間會(huì)合并成一個(gè))。所以,這個(gè)cell的特征長(zhǎng)度是9。73.陰天在室內(nèi)拍照,光線不好,計(jì)算照片的亮度直方圖,可能是什么形狀?A、左邊比較平坦,右邊有波峰。B、右邊比較平坦,左邊有波峰。C、左右各有一波峰D、波形均勻沒(méi)有波峰答案:B解析:在陰天室內(nèi)拍照,光線不好的情況下,照片的亮度直方圖通常會(huì)呈現(xiàn)出左邊比較平坦,右邊有波峰的形狀。這是因?yàn)楣饩€不足導(dǎo)致照片整體偏暗,但可能會(huì)有一些局部區(qū)域受到光線照射而呈現(xiàn)出較高的亮度,形成波峰。74.關(guān)于AscendCL使用說(shuō)法正確的是?()A、初始化資源時(shí)需要顯式的創(chuàng)建Context和Stream。B、AscendCL開(kāi)發(fā)流程中所需資源(如內(nèi)存)是自動(dòng)進(jìn)行調(diào)配的。C、Host側(cè)和Device側(cè)數(shù)據(jù)是共享的。D、獲取模型信息、構(gòu)造推理數(shù)據(jù)時(shí),需要聲明對(duì)應(yīng)的數(shù)據(jù)類型。答案:D解析:在AscendCL的開(kāi)發(fā)中,模型的推理數(shù)據(jù)和對(duì)應(yīng)的數(shù)據(jù)類型需要被明確聲明,以便Host側(cè)和Device側(cè)能正確地傳遞和處理數(shù)據(jù)。這是AscendCL開(kāi)發(fā)流程中的重要步驟之一。因此,選項(xiàng)D是正確的。75.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率答案:C解析:這道題考察的是對(duì)回歸算法評(píng)價(jià)指標(biāo)的理解。在機(jī)器學(xué)習(xí)中,回歸算法主要用于預(yù)測(cè)數(shù)值型數(shù)據(jù)。對(duì)于回歸算法的評(píng)價(jià),我們通常使用均方誤差(MSE)來(lái)衡量預(yù)測(cè)值與實(shí)際值之間的差異。召回率、混淆矩陣和準(zhǔn)確率更多地用于分類問(wèn)題的評(píng)價(jià)。因此,正確答案是C,即均方誤差。76.以下那一個(gè)選項(xiàng)不是高級(jí)智能駕駛給人類帶來(lái)的便利?A、極大的降供了車(chē)輛生產(chǎn)成本,B、能夠讓特殊人群上路C、減少交通事故D、解放駕駛?cè)藛T的雙手答案:A解析:這道題考察的是對(duì)高級(jí)智能駕駛技術(shù)帶來(lái)便利的理解。高級(jí)智能駕駛技術(shù)主要關(guān)注于提升駕駛安全性和便利性。選項(xiàng)A提到的“極大的降低了車(chē)輛生產(chǎn)成本”并不直接屬于高級(jí)智能駕駛給人類帶來(lái)的便利,它更多關(guān)聯(lián)于車(chē)輛制造或經(jīng)濟(jì)層面,而非駕駛體驗(yàn)或安全性提升。B選項(xiàng)“能夠讓特殊人群上路”體現(xiàn)了智能駕駛對(duì)特殊群體的包容性,C選項(xiàng)“減少交通事故”反映了智能駕駛提升的安全性,D選項(xiàng)“解放駕駛?cè)藛T的雙手”則體現(xiàn)了智能駕駛帶來(lái)的便利性。因此,A選項(xiàng)與高級(jí)智能駕駛帶來(lái)的直接便利不符。77.以下哪—項(xiàng)是靜態(tài)圖模式的劣勢(shì)?A、debugB、部署C、性能優(yōu)化D、分布式訓(xùn)練答案:A解析:靜態(tài)圖模式在深度學(xué)習(xí)框架中,如TensorFlow的靜態(tài)圖機(jī)制,其主要特點(diǎn)是在模型執(zhí)行前已定義好全部的計(jì)算流程。這種機(jī)制的優(yōu)勢(shì)在于可以進(jìn)行性能優(yōu)化、便于部署以及支持分布式訓(xùn)練。然而,其劣勢(shì)在于debug過(guò)程較為復(fù)雜,因?yàn)樵陟o態(tài)圖中,所有的計(jì)算節(jié)點(diǎn)和操作在編譯時(shí)就已經(jīng)確定,這使得運(yùn)行時(shí)錯(cuò)誤定位變得困難。因此,選項(xiàng)A是靜態(tài)圖模式的劣勢(shì)。78.以下關(guān)于分析說(shuō)法不正確的是?A、基于規(guī)則的分詞簡(jiǎn)單高效,,但是詞典維護(hù)困難B、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法福C、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法等其他模塊的性能D、統(tǒng)計(jì)分詞的目的就是對(duì)分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式答案:B解析:在實(shí)際工程應(yīng)用中,分詞通常采用多種分詞方法,以適應(yīng)不同的文本和場(chǎng)景。然而,B選項(xiàng)中的“分詞一般只采用一種分詞方法”是不正確的。其他選項(xiàng)如A、C、D都與分詞的特點(diǎn)和重要性相關(guān),是正確的。79.修改HSV彩色空間的H分量,會(huì)改變圖像的什么?A、色相B、亮度C、飽和度D、對(duì)比度答案:A解析:這個(gè)模型中顏色的參數(shù)分別是:色調(diào)(H),飽和度(S),明度(V)。80.詞袋模型是最早的以詞語(yǔ)為基本處理單元的文本向量化方法。以下哪個(gè)選項(xiàng)不是詞袋模型的缺陷?A、基于分布假設(shè)B、存在語(yǔ)義鴻溝C、維度災(zāi)難D、無(wú)法保留次序信息答案:A解析:詞袋模型作為一種最早的文本向量化方法,存在幾個(gè)主要缺陷,如無(wú)法保留次序信息、存在語(yǔ)義鴻溝和維度災(zāi)難等。而根據(jù)題目的選項(xiàng),可以明確排除D選項(xiàng)(因?yàn)樵撊毕菖c詞袋模型有關(guān))。81.以下關(guān)于L1與L2的描述中,錯(cuò)誤的是哪一項(xiàng)?A、L1正則不僅可以防止過(guò)擬合還可以進(jìn)行特征選擇、因此L2正則在實(shí)際分析中幾乎不使用。L1相對(duì)于L2能夠產(chǎn)生更加稀疏的模型B、L1正則化除了防止過(guò)擬合還可以起到特征選擇的作用。C、如果從概率角度進(jìn)行分析,很多范數(shù)約束相當(dāng)于對(duì)參數(shù)添加先驗(yàn)分布,L2范數(shù)相當(dāng)于參數(shù)服從高斯先驗(yàn)分布,L1范數(shù)相當(dāng)于參數(shù)服從拉普拉斯分布答案:A解析:答案C是錯(cuò)誤的。在對(duì)L1與L2正則化的理解中,A選項(xiàng)指出L1正則不僅防過(guò)擬合還能特征選擇,L2正則也有防止過(guò)擬合的作用,并非幾乎不使用;B選項(xiàng)明確提到L1正則化有防止過(guò)擬合和特征選擇作用。而C選項(xiàng)從概率角度對(duì)L1和L2范數(shù)與先驗(yàn)分布的對(duì)應(yīng)關(guān)系進(jìn)行分析,并非關(guān)于L1與L2描述中的錯(cuò)誤項(xiàng)。所以應(yīng)選C。82.以下哪個(gè)選項(xiàng)不是機(jī)器學(xué)習(xí)中的集成學(xué)習(xí)算法?()A、BaggingB、oostingC、StackingD、Marking答案:D解析:Bagging表示裝袋法,Boosting表示激勵(lì)法,Stacking均為集成學(xué)習(xí)方法83.以下常見(jiàn)的回歸方法中,既可以防止過(guò)擬合又可以進(jìn)行特征選擇的是哪一項(xiàng)?A、LASSO回歸B、多項(xiàng)式回歸C、多元線性回歸D、Ridge回歸答案:A解析:在常見(jiàn)的回歸方法中,過(guò)擬合是一個(gè)需要避免的問(wèn)題,它指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。特征選擇則是選擇對(duì)模型預(yù)測(cè)最有用的特征。A選項(xiàng),Ridge回歸,可以防止過(guò)擬合,因?yàn)樗ㄟ^(guò)對(duì)系數(shù)的大小施加懲罰來(lái)實(shí)現(xiàn),但它并不直接進(jìn)行特征選擇。B選項(xiàng),LASSO回歸,既可以防止過(guò)擬合,因?yàn)樗矊?duì)系數(shù)大小施加懲罰,又可以進(jìn)行特征選擇,因?yàn)樗鼉A向于將不重要的特征的系數(shù)減小到0。C選項(xiàng),多項(xiàng)式回歸,主要用于擬合非線性關(guān)系,并不直接防止過(guò)擬合或進(jìn)行特征選擇。D選項(xiàng),多元線性回歸,是基本的線性回歸模型,同樣不直接防止過(guò)擬合或進(jìn)行特征選擇。因此,答案是B,LASSO回歸。84.根據(jù)已標(biāo)注的數(shù)據(jù)訓(xùn)練得到模型,使用該模型預(yù)測(cè)輸出的是一個(gè)連續(xù)的數(shù)值,這類任務(wù)的應(yīng)用示例:預(yù)測(cè)投保人的索賠金額(用于設(shè)置保險(xiǎn)費(fèi))。那么該機(jī)器學(xué)習(xí)屬于哪—種類型的任務(wù)?()A、回歸B、聚類C、生成D、分類答案:A解析:根據(jù)題目的描述,使用已標(biāo)注的數(shù)據(jù)訓(xùn)練得到的模型用于預(yù)測(cè)輸出連續(xù)數(shù)值,例如預(yù)測(cè)投保人的索賠金額以設(shè)置保險(xiǎn)費(fèi)。這種任務(wù)屬于回歸任務(wù),因?yàn)榛貧w任務(wù)是預(yù)測(cè)一個(gè)連續(xù)變量的任務(wù)。因此,為A,即回歸任務(wù)。85.以下關(guān)于樸素貝葉斯的說(shuō)法中,哪一項(xiàng)是錯(cuò)誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫(kù)具有較高的準(zhǔn)確性和快速的速度B、樸素貝葉斯的“樸素",指的是該方法需要假設(shè)各個(gè)特征之間是獨(dú)立的C、樸素貝葉斯是一種簡(jiǎn)單的多分類算法D、樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來(lái)非常復(fù)雜答案:D解析:樸素貝葉斯算法是一種基于貝葉斯定理的簡(jiǎn)單概率分類器,它假設(shè)特征之間相互獨(dú)立。針對(duì)選項(xiàng)進(jìn)行逐一分析:A項(xiàng)正確,樸素貝葉斯分類器因其簡(jiǎn)單高效,在處理大型數(shù)據(jù)庫(kù)時(shí)通常表現(xiàn)出較高的準(zhǔn)確性和速度。B項(xiàng)正確,“樸素”一詞確實(shí)指的是樸素貝葉斯算法中特征之間相互獨(dú)立的假設(shè)。C項(xiàng)正確,樸素貝葉斯是一種可以用于多分類問(wèn)題的算法。D項(xiàng)錯(cuò)誤,樸素貝葉斯算法并不依賴于人工神經(jīng)網(wǎng)絡(luò),它是一種基于概率的簡(jiǎn)單模型,使用起來(lái)并不復(fù)雜。因此,D項(xiàng)是錯(cuò)誤的。86.以下哪一項(xiàng)技術(shù)常用于圖像特征提取研究領(lǐng)域?A、Word2Vec技術(shù)B、樸素貝葉斯分類算法C、卷積神經(jīng)網(wǎng)絡(luò)D、長(zhǎng)短周期記憶網(wǎng)絡(luò)答案:C解析:這道題考察的是對(duì)圖像特征提取技術(shù)的了解。在圖像特征提取研究領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(CNN)因其特有的卷積層結(jié)構(gòu),非常適合處理圖像數(shù)據(jù),常用于圖像特征提取。Word2Vec技術(shù)主要用于文本數(shù)據(jù)的特征提取,樸素貝葉斯分類算法是一種基于概率的分類方法,而長(zhǎng)短周期記憶網(wǎng)絡(luò)(LSTM)則常用于處理序列數(shù)據(jù),如時(shí)間序列或文本數(shù)據(jù)。因此,選項(xiàng)C“卷積神經(jīng)網(wǎng)絡(luò)”是正確答案。87.現(xiàn)有一個(gè)公司希望加裝人臉識(shí)別門(mén)禁,可以使用以下哪一種產(chǎn)品A、OBSB、HiLensC、ECSD、ModelArts答案:D解析:這道題考察的是對(duì)云服務(wù)產(chǎn)品的了解。在這個(gè)場(chǎng)景中,公司希望加裝人臉識(shí)別門(mén)禁,需要選擇一個(gè)支持人臉識(shí)別的云服務(wù)產(chǎn)品。HiLens是華為云的邊緣計(jì)算平臺(tái),ECS是彈性云服務(wù)器,OBS是對(duì)象存儲(chǔ)服務(wù),它們都不直接支持人臉識(shí)別功能。而ModelArts是華為云的一站式AI開(kāi)發(fā)平臺(tái),提供了人臉識(shí)別等AI服務(wù),因此是適合加裝人臉識(shí)別門(mén)禁的產(chǎn)品。所以答案是C。88.MindX包括多個(gè)組件,提供了集群調(diào)度、邊緣推理、應(yīng)用快速開(kāi)發(fā)等功能,其中哪個(gè)組件提供了開(kāi)源模型下載功能?A、MindXSDKB、MindXEdgeC、ModelZooD、MindXDL答案:C解析:ModelZoo是一個(gè)模型倉(cāng)庫(kù),提供了大量的開(kāi)源模型下載,包括圖像分類、目標(biāo)檢測(cè)、語(yǔ)音識(shí)別等多種領(lǐng)域的模型。用戶可以在ModelZoo中找到自己需要的模型,并下載到本地進(jìn)行使用。因此,選項(xiàng)C是正確的答案。89.關(guān)于通用的圖像識(shí)別流程,以下說(shuō)法中哪一項(xiàng)是正確的?A、特征提取→圖像采集一→圖像預(yù)處理→圖像識(shí)別B、圖像采集→>圖像預(yù)改處理→>特征提取—>圖像識(shí)別C、圖像預(yù)改處理→特征提取→圖像采集一→圖像識(shí)別D、圖像預(yù)政處理→圖像采集一→特征提取圖像識(shí)別答案:B解析:這道題考察的是對(duì)圖像識(shí)別流程的理解。在通用的圖像識(shí)別流程中,首先進(jìn)行圖像采集,獲取到原始的圖像數(shù)據(jù);接著進(jìn)行圖像預(yù)處理,對(duì)圖像進(jìn)行去噪、增強(qiáng)等操作,以改善圖像質(zhì)量;然后進(jìn)行特征提取,從預(yù)處理后的圖像中提取出有用的特征信息;最后進(jìn)行圖像識(shí)別,根據(jù)提取的特征進(jìn)行分類和識(shí)別。因此,正確的流程是圖像采集→圖像預(yù)處理→特征提取→圖像識(shí)別,對(duì)應(yīng)選項(xiàng)B。90.在綜合實(shí)驗(yàn)中,以下有關(guān)通用表格識(shí)別測(cè)試實(shí)驗(yàn)和通用文字識(shí)別測(cè)試實(shí)驗(yàn)的描述,錯(cuò)誤的是哪一個(gè)選項(xiàng)?A、兩個(gè)實(shí)驗(yàn)所使用的API都是OCRAPIB、兩個(gè)實(shí)驗(yàn)的輸出結(jié)果都有Statuscode,表示服務(wù)狀態(tài)C、兩個(gè)實(shí)驗(yàn)的輸出結(jié)果都有wordsblocklist,代表子區(qū)域識(shí)別文字塊列表。D、兩個(gè)實(shí)驗(yàn)輸出結(jié)果都包含type信息,代表文字識(shí)別區(qū)域類型答案:D解析:在綜合實(shí)驗(yàn)中,關(guān)于通用表格識(shí)別測(cè)試實(shí)驗(yàn)和通用文字識(shí)別測(cè)試實(shí)驗(yàn)的描述,我們需要根據(jù)OCR(OpticalCharacterRecognition,光學(xué)字符識(shí)別)技術(shù)的通用知識(shí)來(lái)判斷。A選項(xiàng)提到兩個(gè)實(shí)驗(yàn)都使用OCRAPI,這是正確的,因?yàn)闊o(wú)論是表格還是文字識(shí)別,都屬于OCR技術(shù)的應(yīng)用范疇。B選項(xiàng)說(shuō)兩個(gè)實(shí)驗(yàn)的輸出結(jié)果都包含Statuscode,這也是正確的。在API調(diào)用中,Statuscode是常見(jiàn)的反饋機(jī)制,用以表示服務(wù)狀態(tài),如請(qǐng)求是否成功等。C選項(xiàng)提到輸出結(jié)果有wordsblocklist,這同樣正確。在OCR技術(shù)中,識(shí)別出的文字通常會(huì)被組織成塊或行,以便于后續(xù)處理和分析。D選項(xiàng)則提到輸出結(jié)果包含type信息,代表文字識(shí)別區(qū)域類型。這一點(diǎn)是不準(zhǔn)確的。在通用的OCRAPI輸出中,并不一定會(huì)包含type信息,這取決于具體的API設(shè)計(jì)和實(shí)現(xiàn)。通常,OCR的輸出更側(cè)重于文字內(nèi)容和位置信息,而不是識(shí)別區(qū)域的類型。91.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面答案:C解析:這道題考察的是對(duì)線性回歸在高維空間中擬合面的理解。線性回歸在二維空間中擬合的是一條直線,在三維空間中擬合的是一個(gè)平面。當(dāng)維度超過(guò)三維時(shí),線性回歸擬合的是一個(gè)超平面,而不是曲面或超曲面。因此,正確答案是C。92.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能答案:B解析:這道題考察的是對(duì)人工智能發(fā)展階段的理解。人工智能的發(fā)展通常被劃分為三個(gè)階段:計(jì)算智能、感知智能和認(rèn)知智能。計(jì)算智能關(guān)注于計(jì)算和數(shù)據(jù)處理的能力,認(rèn)知智能則涉及更高層次的理解、推理和決策能力。而感知智能正好位于這兩者之間,它關(guān)注的是機(jī)器對(duì)外界環(huán)境的感知和理解能力,比如圖像識(shí)別、語(yǔ)音識(shí)別等。因此,根據(jù)這個(gè)知識(shí)點(diǎn),我們可以確定答案是B,即感知智能。93.MindSpore訓(xùn)練的時(shí)候,為了方便查看網(wǎng)絡(luò)模型損失值、當(dāng)前訓(xùn)練輪次時(shí)間等信息,需要用到以下哪個(gè)選項(xiàng)?A、model.trainB、nn.opsC、allback.LossMonitorD、ataset.Mnist答案:C解析:這道題考察的是對(duì)MindSpore框架中訓(xùn)練模型時(shí)監(jiān)控?fù)p失值等信息的理解。在MindSpore中,`callback.LossMonitor`用于在訓(xùn)練過(guò)程中監(jiān)控模型的損失值和其他指標(biāo),方便用戶查看。因此,為了查看網(wǎng)絡(luò)模型的損失值、當(dāng)前訓(xùn)練輪次時(shí)間等信息,應(yīng)使用`callback.LossMonitor`。94.哪一項(xiàng)不屬于人工智能技術(shù)帶來(lái)的爭(zhēng)議性問(wèn)題?A、通過(guò)圖像處理技術(shù),很多減肥藥廣告可以改變?nèi)宋锏耐庥^以達(dá)到減肥前后的對(duì)比。B、通過(guò)GAN網(wǎng)絡(luò)生成家居圖像發(fā)布在租房和定酒店的平臺(tái),以達(dá)到欺騙消費(fèi)者的目的。C、通過(guò)圖像處理技術(shù),把犯罪嫌疑人P在一個(gè)從未去過(guò)的地方或者將他與未見(jiàn)過(guò)的人放在一起,以此來(lái)制造假證據(jù)。D、高鐵站利用計(jì)算機(jī)視覺(jué)技術(shù)進(jìn)行人臉識(shí)別,快速完成身份信息對(duì)比。答案:D解析:人工智能技術(shù)在帶來(lái)便利的同時(shí),也引發(fā)了一系列爭(zhēng)議性問(wèn)題,這些問(wèn)題主要涉及數(shù)據(jù)隱私、倫理道德、安全性等方面。A選項(xiàng)描述的是圖像處理技術(shù)在減肥藥廣告中的應(yīng)用,這種技術(shù)改變了人物的外觀以制造減肥前后的對(duì)比效果,這涉及到廣告真實(shí)性的問(wèn)題,可能誤導(dǎo)消費(fèi)者,因此屬于人工智能技術(shù)的爭(zhēng)議性問(wèn)題。B選項(xiàng)提到的是利用GAN網(wǎng)絡(luò)生成家居圖像以欺騙消費(fèi)者,這是一種利用人工智能生成虛假信息的行為,明顯屬于不道德和違法的行為,也是人工智能技術(shù)的爭(zhēng)議性問(wèn)題之一。C選項(xiàng)指出通過(guò)圖像處理技術(shù)制造假證據(jù),這涉及到司法公正和證據(jù)真實(shí)性的問(wèn)題,嚴(yán)重違反了法律和倫理,同樣屬于人工智能技術(shù)的爭(zhēng)議性問(wèn)題。而D選項(xiàng)描述的是高鐵站利用計(jì)算機(jī)視覺(jué)技術(shù)進(jìn)行人臉識(shí)別,快速完成身份信息對(duì)比,這是人工智能技術(shù)在公共安全領(lǐng)域的正常應(yīng)用,目的是提高安全性和效率,并沒(méi)有涉及爭(zhēng)議性問(wèn)題。因此,根據(jù)上述分析,D選項(xiàng)不屬于人工智能技術(shù)帶來(lái)的爭(zhēng)議性問(wèn)題,是正確答案。95.取樣和量化后的數(shù)字一整張圖像在數(shù)學(xué)上可以由什么表示?A、通道B、矩陣C、坐標(biāo)D、像素答案:B解析:在數(shù)字圖像處理中,取樣和量化后的圖像可以被看作是一個(gè)二維數(shù)組或矩陣,其中每個(gè)元素對(duì)應(yīng)圖像中的一個(gè)像素點(diǎn),矩陣的行和列分別對(duì)應(yīng)圖像的高度和寬度。因此,一整張數(shù)字圖像在數(shù)學(xué)上可以由矩陣表示。選項(xiàng)B正確。96.在應(yīng)用開(kāi)發(fā)時(shí),以下哪種操作不屬于典型網(wǎng)絡(luò)定義?A、網(wǎng)絡(luò)定義B、網(wǎng)絡(luò)執(zhí)行C、知識(shí)蒸餾D、權(quán)值初始化答案:C解析:在應(yīng)用開(kāi)發(fā)中,網(wǎng)絡(luò)定義是典型網(wǎng)絡(luò)操作之一,它包括網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)、參數(shù)的配置等。選項(xiàng)A是正確的。而知識(shí)蒸餾、權(quán)值初始化都是與網(wǎng)絡(luò)訓(xùn)練和優(yōu)化相關(guān)的操作,但不是網(wǎng)絡(luò)定義。因此,選項(xiàng)C不屬于典型網(wǎng)絡(luò)定義。97.以下哪一項(xiàng)不屬于人工智能技術(shù)帶來(lái)的爭(zhēng)議性問(wèn)題?A、利用GAN網(wǎng)絡(luò)生成家居圖像發(fā)布在租房和訂酒店的平臺(tái),以達(dá)到欺騙消費(fèi)者的目的。B、高鐵站利用計(jì)算機(jī)視覺(jué)技術(shù)進(jìn)行人臉識(shí)別,快速完成身份信息比對(duì)。C、通過(guò)圖像處理技術(shù),很多減肥藥廣告可以改變?nèi)宋锏耐庥^以達(dá)到減肥前后的對(duì)比D、通過(guò)圖像處理技術(shù),把犯罪嫌疑人P在一個(gè)從未去過(guò)的地方或?qū)⑺c未見(jiàn)過(guò)的人放在一起以此來(lái)制造假證據(jù)答案:B解析:人工智能技術(shù)的爭(zhēng)議性通常與其在倫理、隱私、安全等方面的應(yīng)用有關(guān)。選項(xiàng)A描述了利用GAN網(wǎng)絡(luò)生成虛假家居圖像以欺騙消費(fèi)者,這涉及到倫理和欺詐問(wèn)題。選項(xiàng)C和D都涉及到圖像處理技術(shù)用于制造虛假信息,無(wú)論是減肥藥廣告的效果還是犯罪證據(jù),都涉及到倫理和法律問(wèn)題。而選項(xiàng)B描述的是高鐵站利用計(jì)算機(jī)視覺(jué)技術(shù)進(jìn)行人臉識(shí)別以快速完成身份信息比對(duì),這是一種提高效率和安全性的應(yīng)用,并未直接涉及到爭(zhēng)議性問(wèn)題。因此,選項(xiàng)B是不屬于人工智能技術(shù)帶來(lái)的爭(zhēng)議性問(wèn)題的正確答案。98.spectrogram函數(shù)中的nperseg參數(shù)可以設(shè)置以下哪一項(xiàng)參數(shù)?A、采樣頻率B、幀移C、窗函數(shù)D、幀長(zhǎng)答案:D解析:這道題考察的是對(duì)spectrogram函數(shù)中參數(shù)的理解。在spectrogram函數(shù)中,noverlap參數(shù)是用來(lái)設(shè)置幀移的,也就是連續(xù)幀之間的重疊樣本數(shù)。通過(guò)調(diào)整這個(gè)參數(shù),可以控制幀之間的重疊程度,進(jìn)而影響頻譜分析的結(jié)果。因此,正確答案是C,表示noverlap參數(shù)設(shè)置的是幀移。99.John自己編寫(xiě)了一個(gè)人工智能計(jì)算框架,其中部分算子不適配昇騰芯片,則John需要如何操作來(lái)解決這個(gè)問(wèn)題?A、通過(guò)CANN(ComputeArchitectureforneuralnetwork)中的已有算子進(jìn)行適配。B、通過(guò)適配層,完成不同框架的圖到FE(FusionEnginC、lRGraph的轉(zhuǎn)換。D、通過(guò)TBE(TensorBoostEnginE、完成不同框架的算子到昇騰算子的映射。F、通過(guò)ATC(AscendTensorCompiler)完成算子轉(zhuǎn)換。答案:C解析:John需要通過(guò)TBE(TensorBoostEngine)完成不同框架的算子到昇騰算子的映射,以解決算子不適配昇騰芯片的問(wèn)題。這是因?yàn)門(mén)BE是華為Ascend(昇騰)系列芯片的配套工具,能夠?qū)⒉煌蚣艿乃阕舆m配到昇騰芯片上,從而實(shí)現(xiàn)高效的計(jì)算和推理。其他選項(xiàng)如CANN、適配層、ATC等,雖然在某些情況下可能有用,但它們并不是針對(duì)昇騰芯片的專門(mén)工具。100.TensorFlow2.0中可用于張量合并的方法有?A、splitB、joinC、oncatD、unstack答案:C解析:在TensorFlow2.0中,處理張量合并的操作是關(guān)鍵的一部分。根據(jù)TensorFlow的API,`concat`函數(shù)是用于沿指定軸連接張量的方法,因此它是用于張量合并的正確選項(xiàng)。相比之下,`split`函數(shù)用于將張量分割成多個(gè)子張量,`join`并不是TensorFlow中用于張量操作的函數(shù),而`unstack`函數(shù)用于將張量的一個(gè)軸解開(kāi)成多個(gè)張量。因此,選項(xiàng)C是正確的答案。101.以下對(duì)超參數(shù)學(xué)習(xí)率的作用的描述,正確的是哪一項(xiàng)?A、減少過(guò)擬合B、控制參數(shù)更新速度C、減少偏差D、都不対答案:B解析:正確答案是B.控制參數(shù)更新速度。學(xué)習(xí)率是一個(gè)超參數(shù),它控制了每次更新參數(shù)時(shí)更新的步長(zhǎng)。如果學(xué)習(xí)率過(guò)大,參數(shù)可能會(huì)在最小值附近“震蕩”,無(wú)法收斂;如果學(xué)習(xí)率過(guò)小,參數(shù)可能需要很長(zhǎng)時(shí)間才能收斂,甚至可能無(wú)法收斂。因此,學(xué)習(xí)率決定了參數(shù)更新的速度,從而影響了模型的訓(xùn)練效果。102.遷移學(xué)習(xí)是將某個(gè)領(lǐng)域或任務(wù)上學(xué)習(xí)到的知識(shí)或模式應(yīng)用到不同但相關(guān)的領(lǐng)域或問(wèn)題中。以下哪一種是實(shí)現(xiàn)遷移學(xué)習(xí)常用的技術(shù)手段?A、重新訓(xùn)練B、模型微週(Fine-tuninC、暫退法(Drput)D、標(biāo)簽平滑答案:B解析:遷移學(xué)習(xí)旨在將一個(gè)領(lǐng)域或任務(wù)中學(xué)到的知識(shí)應(yīng)用于另一個(gè)相關(guān)但不同的領(lǐng)域或任務(wù)。在給出的選項(xiàng)中,A項(xiàng)“重新訓(xùn)練”通常意味著從頭開(kāi)始訓(xùn)練一個(gè)新模型,不涉及遷移學(xué)習(xí)的概念。C項(xiàng)“暫退法(Dropout)”和D項(xiàng)“標(biāo)簽平滑”是訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)用于防止過(guò)擬合的技術(shù),而非遷移學(xué)習(xí)的技術(shù)手段。B項(xiàng)“模型微調(diào)(Fine-tuning)”是遷移學(xué)習(xí)中常用的技術(shù)手段,它利用在源任務(wù)上預(yù)訓(xùn)練的模型,在新的目標(biāo)任務(wù)上進(jìn)行調(diào)整和優(yōu)化,以實(shí)現(xiàn)知識(shí)的遷移和應(yīng)用。因此,正確答案是B。103.以下哪一項(xiàng)屬于URL的一般格式?A、httpsB、httpsC、httpsD、https答案:D解析:URL的一般格式包括協(xié)議部分(比如https://)、域名部分和文件路徑部分。在所給選項(xiàng)中,只有選項(xiàng)D中包含了完整的URL格式"https://",因此選項(xiàng)D是屗務(wù)格式。104.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個(gè)像素在空間上存在什么鄰接關(guān)系?()A、不存在鄰接關(guān)系B、對(duì)角鄰接C、8-鄰接D、4-鄰接答案:B解析:對(duì)角鄰接,對(duì)角鄰接和4連接共同構(gòu)成8連接105.以下關(guān)于詞向量說(shuō)法錯(cuò)誤的是哪一項(xiàng)?A、BERT與ELMo都可以生成動(dòng)態(tài)詞向量。B、Word2Vec有兩種類型,Skip-gram與CBOW。C、原始的Glove方法可以很好的處理未登錄詞問(wèn)題。D、用fastText獲取詞向量能夠考慮子詞級(jí)別信息。答案:C解析:對(duì)于題目中關(guān)于詞向量的各個(gè)說(shuō)法,我們可以根據(jù)各模型與方法的特性和使用情況來(lái)進(jìn)行分析:A項(xiàng)正確。BERT和ELMo都是目前主流的動(dòng)態(tài)詞向量生成模型。B項(xiàng)也正確。Word2Vec是一個(gè)可以用于生成詞向量的算法,它主要分為Skip-gram和CBOW兩種訓(xùn)練模式。D項(xiàng)同樣正確。fastText除了能獲取詞向量之外,它的算法特點(diǎn)是可以考慮子詞級(jí)別信息。然而,對(duì)于C項(xiàng),原始的Glove方法雖然可以生成詞向量,但并不特別擅長(zhǎng)處理未登錄詞問(wèn)題。因此,這個(gè)說(shuō)法是錯(cuò)誤的。綜上所述,正確答案是C項(xiàng)。106.以下哪一選項(xiàng)不屬于馬爾科夫模型的三要素?()A、狀態(tài)集合B、觀測(cè)概率C、轉(zhuǎn)移概率D、初始概率答案:A解析:馬爾科夫模型三要素:狀態(tài)轉(zhuǎn)移矩陣,觀測(cè)概率,初始狀態(tài)概率向量107.在前饋神經(jīng)網(wǎng)絡(luò)的前向傳播過(guò)程當(dāng)中,具體是以下哪一項(xiàng)被前向傳播?A、輸入的數(shù)據(jù)B、卷積C、輸出的數(shù)據(jù)D、誤差答案:A解析:這道題考察的是前饋神經(jīng)網(wǎng)絡(luò)前向傳播過(guò)程的理解。在前饋神經(jīng)網(wǎng)絡(luò)中,前向傳播是指信息從輸入層開(kāi)始,逐層向一個(gè)方向傳遞,直至輸出層產(chǎn)生輸出的過(guò)程。在這個(gè)過(guò)程中,是輸入的數(shù)據(jù)被前向傳播,經(jīng)過(guò)各層的處理,最終產(chǎn)生輸出結(jié)果。因此,正確答案是A,即輸入的數(shù)據(jù)。108.取20度為一個(gè)區(qū)間統(tǒng)計(jì)一個(gè)cell的HOG特征,對(duì)稱的角度歸為一類,則這個(gè)cell特征長(zhǎng)度為?A、10B、7C、8D、9答案:D解析:這道題考察的是對(duì)HOG(HistogramofOrientedGradients,方向梯度直方圖)特征的理解。HOG特征通常用于圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域,特別是在對(duì)象檢測(cè)中。題目中提到“取20度為一個(gè)區(qū)間統(tǒng)計(jì)”,意味著360度被分成了18個(gè)區(qū)間(360/20=18)。但題目又指出“對(duì)稱的角度歸為一類”,即對(duì)稱的區(qū)間合并,那么18個(gè)區(qū)間將合并成9個(gè)(因?yàn)閷?duì)稱的區(qū)間會(huì)合并成一個(gè))。所以,這個(gè)cell的特征長(zhǎng)度是9。109.如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說(shuō)明該模型?A、過(guò)擬合B、可能過(guò)擬合可能欠擬合C、剛好擬合D、欠擬合答案:D解析:在機(jī)器學(xué)習(xí)中,偏差和方差是衡量模型性能的兩個(gè)重要指標(biāo)。偏差大通常意味著模型的預(yù)測(cè)值與真實(shí)值之間的差異大,即模型可能未能很好地捕捉到數(shù)據(jù)的內(nèi)在規(guī)律。方差小則表明模型在不同訓(xùn)練集上的預(yù)測(cè)結(jié)果較為穩(wěn)定,模型的泛化能力較好。當(dāng)一個(gè)模型在測(cè)試集上偏差很大,方差很小時(shí),這可能表明模型既沒(méi)有過(guò)擬合也沒(méi)有很好地?cái)M合數(shù)據(jù),即可能處于過(guò)擬合和欠擬合之間的狀態(tài)。110.RGB的值為(255,0,0)代表什么顏色?()A、純藍(lán)B、純黑C、純綠D、純紅答案:D解析:RGB顏色模型是一種將紅色、綠色和藍(lán)色光以不同強(qiáng)度混合從而使人類感知到各種顏色的方法。在該模型中,每種顏色都對(duì)應(yīng)一個(gè)取值范圍為0到255的強(qiáng)度值。給定RGB值(255,0,0),代表紅色通道的值最大(255),而綠色和藍(lán)色通道的值均為0。因此,RGB(255,0,0)代表純紅色。綜上所述,答案為D。111.專家系統(tǒng)屬于以下哪個(gè)學(xué)派?()A、符號(hào)主義B、連接主義(神經(jīng)網(wǎng)絡(luò))C、行為主義(機(jī)器狗、機(jī)器動(dòng)物)D、以上都不是答案:A解析:專家系統(tǒng)是一個(gè)智能計(jì)算機(jī)程序系統(tǒng),其內(nèi)部含有大量的某個(gè)領(lǐng)域?qū)<宜降闹R(shí)與經(jīng)驗(yàn),能夠利用人類專家的知識(shí)和解決問(wèn)題的方法來(lái)處理該領(lǐng)域問(wèn)題。也就是說(shuō),專家系統(tǒng)是一個(gè)具有大量的專門(mén)知識(shí)與經(jīng)驗(yàn)的程序系統(tǒng),它應(yīng)用人工智能技術(shù)和計(jì)算機(jī)技術(shù),根據(jù)某領(lǐng)域一個(gè)或多個(gè)專家提供的知識(shí)和經(jīng)驗(yàn),進(jìn)行推理和判斷,模擬人類專家的決策過(guò)程,以便解決那些需要人類專家處理的復(fù)雜問(wèn)題。從學(xué)派上來(lái)說(shuō),屬于符號(hào)主義112.以下關(guān)于K-means的說(shuō)法中,哪一項(xiàng)是正確的?A、K-means的輸出滿足同一聚類中的對(duì)象相似度較高、不同聚類中的對(duì)象相似度較小的k個(gè)聚類結(jié)果。B、K-means的超參數(shù)X和k-NN的超參數(shù)K一樣,都是定義了結(jié)果的類別個(gè)數(shù)C、K-means的計(jì)算量比較大,對(duì)于距離非常敏感D、K-means與k-NN一樣,都屬于無(wú)監(jiān)督學(xué)習(xí)。答案:A解析:這是一道關(guān)于K—means算法的理解題。首先,我們知道K—means是一種聚類算法,用于將數(shù)據(jù)分為K個(gè)聚類,使得同一聚類內(nèi)的數(shù)據(jù)點(diǎn)相似度高,而不同聚類間的數(shù)據(jù)點(diǎn)相似度低。A選項(xiàng)提到K—means的超參數(shù)K與k—NN的超參數(shù)k相同,這是不準(zhǔn)確的。在K—means中,K定義了聚類的數(shù)量,而在k—NN中,k定義了用于分類決策的最近鄰的數(shù)量。B選項(xiàng)說(shuō)K—means與k—NN都屬于無(wú)監(jiān)督學(xué)習(xí),這也是不正確的。K—means是無(wú)監(jiān)督的,因?yàn)樗恍枰A(yù)先標(biāo)記的數(shù)據(jù)來(lái)訓(xùn)練。但k—NN是一種監(jiān)督學(xué)習(xí)算法,因?yàn)樗枰A(yù)先標(biāo)記的數(shù)據(jù)來(lái)訓(xùn)練模型。C選項(xiàng)描述K—means的輸出滿足同一聚類中的對(duì)象相似度較高、不同聚類中的對(duì)象相似度較

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論