版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
述是A選項(xiàng)。解析:華為云EI自然語(yǔ)言處理服務(wù)提供的意圖理解API支持的領(lǐng)域包括音樂(lè)類、鬧鐘類和笑話類等。因此,不屬于該API支持的領(lǐng)域的選項(xiàng)是D,即娛樂(lè)類。3.以下哪一個(gè)不屬于人臉識(shí)別技術(shù)?C、人臉檢測(cè)D、翻拍識(shí)別答案:D解析:人臉識(shí)別技術(shù)主要包括人臉?biāo)阉?、人臉比?duì)和人臉檢測(cè)等核心功能。人臉?biāo)阉魇窃诖罅咳四様?shù)據(jù)中查找與特定人臉相似的人臉;人臉比對(duì)是比較兩張人臉圖像的相似度;人臉檢測(cè)則是在圖像或視頻中定位人臉的位置。而翻拍識(shí)別,通常指的是識(shí)別圖像或視頻是否被翻拍或篡改,它并不直接屬于人臉識(shí)別技術(shù)的范疇,而是更偏向于圖像內(nèi)容安全或真實(shí)性驗(yàn)證的技術(shù)。因此,選項(xiàng)D“翻拍識(shí)別”不屬于人4.關(guān)于人工智能和機(jī)器學(xué)習(xí)的關(guān)系,以下說(shuō)法正確的是哪一項(xiàng)?A、機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計(jì)學(xué)的知識(shí)進(jìn)行分析、B、所有機(jī)器學(xué)習(xí)算法都涉及到非常多的人工神經(jīng)網(wǎng)絡(luò)C、所有的機(jī)器學(xué)習(xí)都是在模仿人腦的機(jī)制來(lái)解釋數(shù)據(jù),例如圖像,聲音和文本、D、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)、機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一個(gè)特例。解析:人工智能和機(jī)器學(xué)習(xí)是兩個(gè)密切相關(guān)的領(lǐng)域,它們都是通過(guò)計(jì)算機(jī)程序和算法來(lái)模擬人類的智能行為。機(jī)器學(xué)習(xí)是人工智能的一個(gè)子領(lǐng)域,它主要關(guān)注如何通過(guò)算法和數(shù)據(jù)來(lái)訓(xùn)練計(jì)算機(jī)程序,使其能夠自主地學(xué)習(xí)和改進(jìn),從而更好地完成特定任務(wù)。機(jī)器學(xué)習(xí)算法中,有些涉及到人工神經(jīng)網(wǎng)絡(luò),但并不是所有機(jī)器學(xué)習(xí)算法都涉及到人工神經(jīng)網(wǎng)絡(luò)。機(jī)器學(xué)習(xí)并不一定是在模仿人腦的機(jī)制來(lái)解釋數(shù)據(jù),它可以使用各種不同的算法和技術(shù)來(lái)處理不同類型的數(shù)據(jù)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它使用更深層次的神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行學(xué)習(xí)和預(yù)測(cè),但機(jī)器學(xué)習(xí)并不是深度學(xué)習(xí)的一個(gè)特例。因此,選項(xiàng)B和C都不完全正確。而選項(xiàng)D雖然正確,但這不是問(wèn)題的重點(diǎn)。因此,答案是A,機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計(jì)學(xué)的知識(shí)進(jìn)行分析。5.很多手機(jī)提供了護(hù)眼的屏幕顯示模式,可以減少藍(lán)光,緩解視疲勞。這項(xiàng)功能可以通過(guò)調(diào)整顯示圖像的()實(shí)現(xiàn)。A、對(duì)比度C、飽和度D、亮度解析:這道題考查對(duì)手機(jī)護(hù)眼功能原理的了解。在顯示技術(shù)中,色相的調(diào)整能改變光的波長(zhǎng)和頻率。減少藍(lán)光,緩解疲勞的護(hù)眼功能正是通過(guò)調(diào)整顯示圖像的色相來(lái)實(shí)現(xiàn)的。對(duì)比度、飽和度和亮度的改變主要影響圖像的視覺(jué)效果,對(duì)減少藍(lán)光作用不大,所以答案選B。6.TensorFlow2.0中查看張量維度的方法是?解析:在TensorFlow2.0中,查看張量(Tensor)維度的方法是通過(guò)屬性這個(gè)屬性返回張量的維度數(shù)。7.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、compile解析:在使用TensorFlow2.0中Keras接口來(lái)構(gòu)建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作。對(duì)于這一步驟,通常需要使用`.compile`方法來(lái)對(duì)模型進(jìn)行配置,包括選擇優(yōu)化器、損失函數(shù)以及評(píng)估指標(biāo)等。因此,正確答案是選項(xiàng)A:compile。8.隨機(jī)梯度下降和批量梯度下降相比優(yōu)勢(shì)在于?()A、更容易收斂(隨機(jī)梯度下降收斂更不穩(wěn)定)B、迭代速度更快D、泛化能力更強(qiáng)解析:批量梯度下降法是最原始的形式,它是指在每一次迭代實(shí)現(xiàn)了并行。(2)由全數(shù)據(jù)集確定的方向能夠更好地代表樣本總體,從而更準(zhǔn)確地朝下降法不同于批量梯度下降,隨機(jī)梯度下降是每次迭代使用一個(gè)樣本來(lái)對(duì)參數(shù)進(jìn)行準(zhǔn)確度下降。由于即使在目標(biāo)函數(shù)為強(qiáng)凸函數(shù)的情況下,SGD仍舊無(wú)法做斂。(2)可能會(huì)收斂到局部最優(yōu),由于單個(gè)樣本并不能代表全體樣batch上優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù)并不會(huì)比單個(gè)數(shù)據(jù)慢太多。(2)每次使用一個(gè)batch可以大大減小收斂所需要的迭代次數(shù),同時(shí)可以使收斂到的結(jié)果更加接近梯度下降的效果。(比如上例中的30W,設(shè)置batch_size=100時(shí),需要迭代3000次,遠(yuǎn)小于SGD的30W次)缺點(diǎn):(1)batch_size的不當(dāng)選擇可能會(huì)帶來(lái)一些問(wèn)題9.0n-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮昇騰芯片的算力,可以大大降低交互的開(kāi)銷,從而提升加速器占用率,關(guān)于On-Device執(zhí)行以下描述錯(cuò)誤的是?A、超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問(wèn)題、交互開(kāi)銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開(kāi)銷甚至遠(yuǎn)大于執(zhí)行開(kāi)銷,導(dǎo)致加速器占用率低B、MindSpore通過(guò)面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)-計(jì)算-通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平C、超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ResNet50單迭代20ms時(shí)間時(shí)會(huì)產(chǎn)生中心控制的同步開(kāi)銷和頻繁同步的通信開(kāi)銷。傳統(tǒng)方法需要3次同步完成AIIReduce,數(shù)據(jù)驅(qū)動(dòng)方法自主AIIReduce,無(wú)控制開(kāi)銷D、MindSpore通過(guò)梯度數(shù)據(jù)驅(qū)動(dòng)的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主AIIReduce,梯度聚合步調(diào)一致,計(jì)算與通信充分流水解析:在解釋C選項(xiàng)時(shí),由于MindSpore通過(guò)面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式提升,所以C選項(xiàng)描述錯(cuò)誤。而其他選項(xiàng)都與On-Device執(zhí)行有關(guān),分別描述了不同方面的內(nèi)容,因此是正確的。10.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以下哪項(xiàng)關(guān)于其算法步驟是正確的?A、先反向傳播計(jì)算出誤差,再正向傳播計(jì)算梯度B、只有反向傳播計(jì)算輸出結(jié)果。C、只有反向傳播計(jì)算梯度D、先正向傳播計(jì)算出誤差,再反向傳播計(jì)算解析:這道題考察的是對(duì)反向傳播算法步驟的理解。反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中用于訓(xùn)練網(wǎng)絡(luò)的重要算法。其核心步驟是先進(jìn)行正向傳播計(jì)算輸出結(jié)果,并與真實(shí)標(biāo)簽計(jì)算誤差,然后再進(jìn)行反向傳播,根據(jù)誤差計(jì)算梯度并更新網(wǎng)絡(luò)參數(shù)。因此,選項(xiàng)A“先反向傳播計(jì)算出誤差,再正向傳播計(jì)算梯度”的描述是錯(cuò)誤的,正確的步驟應(yīng)該是先正向傳播計(jì)算出誤差,再反向傳播計(jì)算梯度,即選項(xiàng)D的描述。11.以下哪個(gè)選項(xiàng)不屬于語(yǔ)音聲學(xué)特征?A、語(yǔ)義B、振幅12.以下哪一項(xiàng)對(duì)于每一個(gè)參數(shù)都用相同的學(xué)習(xí)率進(jìn)行更新?解析:在優(yōu)化算法中,Momentum算法通常會(huì)使用相同的更新率來(lái)更新每一個(gè)參數(shù)。A、大小核智能超頻B、異構(gòu)調(diào)度D、內(nèi)存復(fù)用解析:MindSporeLite是一個(gè)用于優(yōu)化華為MindSpore的編譯器,旨在提高深度學(xué)習(xí)的運(yùn)行效率。其中涉及到的技術(shù)包括異構(gòu)調(diào)度、聯(lián)邦學(xué)習(xí)、內(nèi)存復(fù)用等。而大小核智能超頻并非MindSporeLite所使用的技術(shù)。因此,答案為A。14.卷積神經(jīng)網(wǎng)絡(luò)的核心思想可以總結(jié)為兩點(diǎn),一是局部感知,二是權(quán)值共享,關(guān)于這兩點(diǎn)以下說(shuō)法正確的是?A、圖像的空間聯(lián)系是局部像素較為稀疏,而距離較遠(yuǎn)的像素相關(guān)性較強(qiáng)B、每一個(gè)卷積核在追歷整個(gè)圖像的時(shí)候,卷積核的參數(shù)是固定不變的C、圖像的空間聯(lián)系是局部像素較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較強(qiáng)D、每一個(gè)卷積核在遍歷整個(gè)圖像的時(shí)候,卷積核的參數(shù)是變致的解析:這道題考察的是對(duì)卷積神經(jīng)網(wǎng)絡(luò)核心思想的理解。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)局部感知和權(quán)值共享來(lái)減少計(jì)算量并提取圖像特征。局部感知指的是網(wǎng)絡(luò)只關(guān)注圖像的局部區(qū)域,而權(quán)值共享則意味著同一個(gè)卷積核在遍歷整個(gè)圖像時(shí),其參數(shù)是保持不變的。選項(xiàng)A錯(cuò)誤,因?yàn)閳D像的空間聯(lián)系通常是局部像素較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較弱。選項(xiàng)B正確,它準(zhǔn)確地描述了權(quán)值共享的特點(diǎn),即每一個(gè)卷積核在遍歷整個(gè)圖像時(shí),其參數(shù)是固定不變的。選項(xiàng)C雖然描述了局部像素的緊密性,但后半句關(guān)于距離較遠(yuǎn)的像素相關(guān)性較強(qiáng)的描述是錯(cuò)誤的。選項(xiàng)D錯(cuò)誤,因?yàn)樗c權(quán)值共享的定義相違背,權(quán)值共享意味著卷積核的參數(shù)在遍歷圖像時(shí)是保持不變的。綜上所述,正確答案是B。答案:D解析:這道題考察的是對(duì)人工智能領(lǐng)域歷史發(fā)展的了解。感知器(perceptron)算法是人工智能領(lǐng)域的一個(gè)重要里程碑,由Rosenblatt發(fā)明。根據(jù)歷史記錄,這一發(fā)明發(fā)生在1958年,因此正確答案是D。這個(gè)算法對(duì)后來(lái)的神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)發(fā)展產(chǎn)生了深遠(yuǎn)影響。16.Mary想將訓(xùn)練好的模型部署上線,她可以使用以下哪個(gè)服務(wù)?答案:C解析:MindSporeServing是一個(gè)輕量級(jí)、高性能的服務(wù)模塊,旨在幫助MindSpore開(kāi)發(fā)者在生產(chǎn)環(huán)境中高效部署在線推理服務(wù)。使用簡(jiǎn)單一鍵發(fā)布和部署支持batching高性能高擴(kuò)展17.NNLM模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?()答案:B解析:NNLM指神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型。通常,卷積神經(jīng)網(wǎng)絡(luò)會(huì)函數(shù)將最終的輸出量化。18.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開(kāi)C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫(xiě)為RNN解析:這道題考察的是對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)及其變種LSTM的理解。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)確實(shí)可以根據(jù)時(shí)間軸展開(kāi),LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種,專門(mén)設(shè)計(jì)來(lái)解決傳統(tǒng)RNN都是正確的。而選項(xiàng)B的說(shuō)法“LSTM無(wú)法解決梯度消失的問(wèn)題”是錯(cuò)誤的,因?yàn)?9.以下哪個(gè)選項(xiàng)不屬于自然語(yǔ)言處理技術(shù)的三個(gè)層面()A、語(yǔ)音分析C、句法分析解析:語(yǔ)音分析是語(yǔ)音識(shí)別中的文本分析的工作20.如果有100個(gè)卷積核,每個(gè)卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項(xiàng)是正確的參數(shù)量解析:卷積核的參數(shù)量計(jì)算通?;谄涑叽?。每個(gè)卷積核的大小是10x10,所以每個(gè)卷積核有100個(gè)參數(shù)。如果有100個(gè)這樣的卷積核,那么總參數(shù)量就是100個(gè)卷積核乘以每個(gè)卷積核的100個(gè)參數(shù),即10K。因此,選項(xiàng)C是正確的答案。21.“知識(shí)表示是對(duì)知識(shí)的描述,即用一組符號(hào)把知識(shí)編碼成計(jì)算機(jī)可以接受的某種結(jié)構(gòu)。其表示方法是唯一的。”關(guān)于上述描述,以下哪一個(gè)說(shuō)法是正確的?A、該說(shuō)法正確,知識(shí)表示是專家系統(tǒng)的一種B、該說(shuō)法錯(cuò)誤,知識(shí)表示方法不是唯一的。C、該說(shuō)法正確,知識(shí)表示可用于專家規(guī)則,模糊推理D、該說(shuō)法錯(cuò)誤,知識(shí)表示的編碼方式是唯一的。解析:上述描述中提到知識(shí)表示是對(duì)知識(shí)的描述,并且用一組符號(hào)把知識(shí)編碼成計(jì)算機(jī)可以接受的某種結(jié)構(gòu)。這表明知識(shí)表示的方法不是唯一的,因?yàn)椴煌闹R(shí)可能需要不同的編碼方式。22.下列哪一項(xiàng)是函數(shù)tf.abs的功能?A、張量的拼接逐元素的相加計(jì)算絕對(duì)值B、逐元素的相加解析:在TensorFlow中,'tf.abs`函數(shù)的功這是該函數(shù)的基本和直接用途,不涉及張量的拼接、逐元素的相加或?qū)崿F(xiàn)統(tǒng)計(jì)學(xué)中的各種分布。因此,根據(jù)`tf.abs`的定義和功能,選項(xiàng)C“計(jì)算絕對(duì)值”是正確的23.與人類駕駛對(duì)比,以下哪一個(gè)智能駕駛汽車中的部件可以看作是人類的感知器A、智能座艙B、毫米波雷達(dá)D、方向盤(pán)解析:這道題考察的是對(duì)智能駕駛汽車部件功能的理解。在智能駕駛汽車中,各個(gè)部件承擔(dān)著不同的角色。與人類駕駛相比,感知器官在人體中負(fù)責(zé)感知外界環(huán)境。在智能駕駛汽車中,毫米波雷達(dá)負(fù)責(zé)探測(cè)和感知周圍環(huán)境,如其他車輛、障礙物等,與人類的感知器官功能相似。因此,毫米波雷達(dá)可以看作是智能駕駛汽車的“感知器官”。24.以下關(guān)于深度學(xué)習(xí)中常用的損失函數(shù)的描述,哪一項(xiàng)是不正確的?A、二次代價(jià)函數(shù)關(guān)心目標(biāo)輸出和實(shí)際輸出之間的“距離”B、二次代價(jià)函數(shù)更多得用于分類問(wèn)題,而交叉熵代價(jià)函數(shù)一般用于回歸問(wèn)題C、交叉熵代價(jià)函數(shù)刻畫(huà)了兩個(gè)概率分布之間的距離D、訓(xùn)練的目的是使得損失函數(shù)達(dá)到最小解析:這道題考察的是對(duì)深度學(xué)習(xí)中損失函數(shù)的理解。二次代價(jià)函數(shù)確實(shí)關(guān)心目標(biāo)輸出和實(shí)際輸出之間的“距離”,常用于回歸問(wèn)題。交叉熵代價(jià)函數(shù)則常用于分類問(wèn)題,它刻畫(huà)了兩個(gè)概率分布之間的距離。訓(xùn)練的目的是使得損失函數(shù)達(dá)到最小,這是機(jī)器學(xué)習(xí)的基本目標(biāo)。因此,選項(xiàng)B中的描述“二次代價(jià)函數(shù)更多得用于分類問(wèn)題,而交叉椅代價(jià)函數(shù)一般用于回歸問(wèn)題”是不正確的。25.反向傳播算法的做法是:計(jì)算之后將其進(jìn)行反向傳播。以下哪一項(xiàng)為空白處的正確內(nèi)容?A、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和解析:正確的內(nèi)容是“C.各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和”。反向傳播算法是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法。在神經(jīng)網(wǎng)絡(luò)中,每個(gè)神經(jīng)元都根據(jù)輸入和權(quán)重計(jì)算出一個(gè)輸出,然后將這個(gè)輸出傳遞給下一層的神經(jīng)元。在計(jì)算輸出時(shí),有一個(gè)正向傳播的過(guò)程,即輸入樣本通過(guò)各層神經(jīng)元的計(jì)算得到最終的輸出。反向傳播算法則是在計(jì)算完成后,將誤差從輸出層向輸入層反向傳播,并根據(jù)這個(gè)誤差來(lái)更新神經(jīng)網(wǎng)絡(luò)的權(quán)重。具體來(lái)說(shuō),反向傳播算法首先計(jì)算輸出結(jié)果與樣本標(biāo)簽之間的誤差,然后將這個(gè)誤差按照權(quán)重進(jìn)行分配,得到每個(gè)神經(jīng)元的誤差。然后,根據(jù)這個(gè)誤差來(lái)更新神經(jīng)網(wǎng)絡(luò)的權(quán)重,使得神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果更加接近于樣本標(biāo)簽。因此,正確的內(nèi)容是“各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和”。26.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?A、最大功率B、架構(gòu)解析:這是一道關(guān)于昇騰310和昇騰910屬性對(duì)比的問(wèn)題。首先,我們需要了解昇騰310和昇騰910是華為推出的兩款A(yù)l處理器,它們?cè)谠O(shè)計(jì)上會(huì)有一定的相似性和差異性。1.分析選項(xiàng)A,最大功率:不同型號(hào)的處理器,由于設(shè)計(jì)、用途等差異,其最大功率很可能不同。因此,不能斷定昇騰310和昇騰910的最大功率相同。2.分析選項(xiàng)B,架構(gòu):昇騰系列處理器通?;谙嗤幕蛳嗨频募軜?gòu)設(shè)計(jì),以確保兼容性和可擴(kuò)展性。因此,昇騰310和昇騰910很可能采用相同的架構(gòu)。3.分析選項(xiàng)C,整數(shù)精度:處理器的整數(shù)精度可能因其設(shè)計(jì)、用途和性能要求而有所不同。因此,不能假設(shè)昇騰310和昇騰910的整數(shù)精度相同。4.分析選項(xiàng)D,7nm制程:制程技術(shù)是指制造處理器所使用的工藝技術(shù)。不同型號(hào)的處理器可能采用不同的制程技術(shù),以提高性能、降低功耗或降低成本。因此,不能斷定昇騰310和昇騰910都使用7nm制程。綜上所述,最有可能相同的屬性是架構(gòu),因?yàn)樘幚砥飨盗型ǔ;谙嗤募軜?gòu)設(shè)計(jì)。因此,答案是B。27.對(duì)美食的照片進(jìn)行調(diào)整,可以使食物的顏色更鮮明,看起來(lái)富有食欲。A、減小亮度D、減少飽和度解析:多選題28.在坐標(biāo)變化時(shí),計(jì)算得到的坐標(biāo)數(shù)值不是整數(shù),需要使用什么方法獲取該像素的值?A、插值解析:坐標(biāo)數(shù)值不是整數(shù)的情況下,需要進(jìn)行插值計(jì)算,以獲得該像素的真實(shí)數(shù)值。選項(xiàng)A“插值”方法正是用于這一目的。因此,正確是A。29.在調(diào)用語(yǔ)音合成服務(wù)時(shí),需要提前設(shè)置一些參數(shù)值,下列哪個(gè)范圍的值可以作為音量值?往往被設(shè)定在0到100之間,其中0表示靜音,100表示最大音量。因此,選項(xiàng)A 解析:這道題考察的是對(duì)AI框架及其采用的自動(dòng)微分技術(shù)的理解。MindSpore作為一個(gè)AI框架,其核心和編程范式受到所采用的自動(dòng)微分技術(shù)的影響。源碼轉(zhuǎn)換是一種自動(dòng)微分技術(shù),它通過(guò)分析源代碼并將其轉(zhuǎn)換為能夠執(zhí)行自動(dòng)微分的格式,來(lái)實(shí)現(xiàn)對(duì)函數(shù)或表達(dá)式的微分計(jì)算。MindSpore正是采用了這種方式來(lái)實(shí)現(xiàn)自動(dòng)微分的,因此答案是B。32.在綜合實(shí)驗(yàn)中,以下有關(guān)通用表格識(shí)別測(cè)試實(shí)驗(yàn)和通用文字識(shí)別測(cè)試實(shí)驗(yàn)的描述,錯(cuò)誤的是哪一個(gè)選項(xiàng)?B、兩個(gè)實(shí)驗(yàn)的輸出結(jié)果都有Statuscode,表示服務(wù)狀態(tài)C、兩個(gè)實(shí)驗(yàn)的輸出結(jié)果都有wordsblocklist,代表子區(qū)域識(shí)別文字塊列表。D、兩個(gè)實(shí)驗(yàn)輸出結(jié)果都包含type信息,代表文字識(shí)別區(qū)域類型解析:在綜合實(shí)驗(yàn)中,關(guān)于通用表格識(shí)別測(cè)試實(shí)驗(yàn)和通用文字識(shí)別測(cè)試實(shí)驗(yàn)的描述,我們需要根據(jù)OCR(OpticalCharacterRecognition,光學(xué)字符識(shí)別)技術(shù)的通用知識(shí)來(lái)判斷。A選項(xiàng)提到兩個(gè)實(shí)驗(yàn)都使用OCRAPI,這是正確的,因?yàn)闊o(wú)論是表格還是文字識(shí)別,都屬于OCR技術(shù)的應(yīng)用范疇。B選項(xiàng)說(shuō)兩個(gè)實(shí)驗(yàn)的輸出結(jié)果都包含Statuscode,這也是正確的。在API調(diào)用中,Statuscode是常見(jiàn)的反饋機(jī)制,用以表示服務(wù)狀態(tài),如請(qǐng)求是否成功等。C選項(xiàng)提到輸出結(jié)果有wordsblocklist,這同樣正確。在OCR技術(shù)中,識(shí)別出的文字通常會(huì)被組織成塊或行,以便于后續(xù)處理和分析。D選項(xiàng)則提到輸出結(jié)果包含type信息,代表文字識(shí)別區(qū)域類型。這一點(diǎn)是不準(zhǔn)確的。在通用的OCRAPI輸出中,并不一定會(huì)包含type信息,這取決于具體區(qū)域的類型。33.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者的A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇解析:這道題考察的是對(duì)L1和L2正則化在機(jī)器學(xué)習(xí)中的作用的理解。L1正則化傾向于產(chǎn)生稀疏權(quán)重矩陣,即生成一個(gè)很多元素為0的權(quán)重矩陣,因此它可以用于特征選擇。而L2正則化則是傾向于分散權(quán)重向量,使其元素值較為平均,不具備特征選擇的能力。所以,選項(xiàng)A“L1正則化可以做特征選擇”是正確的。34.以下不是命名實(shí)體識(shí)別的難點(diǎn)有?()B、規(guī)則復(fù)雜D、長(zhǎng)度統(tǒng)一解析:命名實(shí)體識(shí)別(NER)是自然語(yǔ)言處理中的一個(gè)任務(wù),旨在從文本中識(shí)別出具有特定意義的實(shí)體,如人名、地名、機(jī)構(gòu)名等。其難點(diǎn)通常包括:實(shí)體數(shù)量龐大、識(shí)別規(guī)則復(fù)雜以及實(shí)體間的嵌套關(guān)系復(fù)雜。而實(shí)體的長(zhǎng)度并不構(gòu)成NER的難點(diǎn),因?yàn)閷?shí)體可以是任意長(zhǎng)度的。因此,選項(xiàng)D“長(zhǎng)度統(tǒng)一”不是命名實(shí)體識(shí)別的難點(diǎn)。35.以下關(guān)于分詞的說(shuō)法中,哪個(gè)選項(xiàng)是不正確的?A、基于規(guī)則的分詞簡(jiǎn)單高效,但是詞典維護(hù)困難。B、統(tǒng)計(jì)分詞的目的就是對(duì)分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式。C、在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法。D、中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法樹(shù)等其他模塊的性能。解析:這道題考察的是對(duì)分詞相關(guān)知識(shí)的理解。A選項(xiàng),統(tǒng)計(jì)分詞確實(shí)是通過(guò)計(jì)算不同分詞方式的概率,選擇概率最大的作為最終結(jié)果,這是正確的。B選項(xiàng),中文與英文不同,需要進(jìn)行分詞處理,分詞的性能確實(shí)會(huì)影響到后續(xù)的詞性標(biāo)注、句法分析等任務(wù),這也是正確的。C選項(xiàng),在實(shí)際應(yīng)用中,為了提高分詞的準(zhǔn)確性和適應(yīng)性,通常會(huì)結(jié)合多種分詞方法,而不是只采用一種,所以這個(gè)選項(xiàng)是不正確的。D選項(xiàng),基于規(guī)則的分詞方法依賴于預(yù)先定義的詞典和規(guī)則,確實(shí)存在詞典維護(hù)困難的問(wèn)題,這是正確的。綜上所述,不正確的選項(xiàng)是C。通過(guò)調(diào)整圖像的()實(shí)現(xiàn)B、飽和度D、色相37.267.下圖中,像素點(diǎn)p到t的4連通通路為()PuQRVTS解析:4連通只能是橫向、縱向路徑8連通除了橫向、縱向路徑,還能包括斜向路徑38.某廠家想要生產(chǎn)一批虛擬助理以供醫(yī)院使用,而對(duì)于虛擬助理來(lái)說(shuō),聲紋識(shí)別主要涉及到以下哪一項(xiàng)技術(shù)?A、語(yǔ)音識(shí)別和處理技術(shù)B、圖像識(shí)別與處理技術(shù)D、圖像生成與增強(qiáng)技術(shù)解析:這道題考察的是對(duì)虛擬助理技術(shù)領(lǐng)域的了解。聲紋識(shí)別是虛擬助理在交互過(guò)程中識(shí)別用戶聲音特征的技術(shù),它主要依賴于語(yǔ)音識(shí)別和處理技術(shù)。通過(guò)這項(xiàng)技術(shù),虛擬助理能夠解析和處理用戶的語(yǔ)音輸入,進(jìn)而實(shí)現(xiàn)與用戶的自然交互。因此,對(duì)于虛擬助理來(lái)說(shuō),聲紋識(shí)別主要涉及到的是語(yǔ)音識(shí)別和處理技術(shù)。39.以下哪一選項(xiàng)是訓(xùn)練靜態(tài)詞向量的方法?動(dòng)態(tài)詞向量40.以下關(guān)于回歸模型調(diào)試與應(yīng)用的描述中,錯(cuò)的是哪一項(xiàng)?A、當(dāng)訓(xùn)練完成之后,需要使用測(cè)試集進(jìn)行測(cè)試,確保模型的泛化能力。B、如果最后的模型效果不好,也需要注意使用數(shù)據(jù)清理與特征工程。C、如果出現(xiàn)過(guò)擬合,可以使用帶有正則項(xiàng)的LASSO回歸或者Ridge回歸,并調(diào)節(jié)超參數(shù)D、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的回歸模型,比如邏輯回歸。解析:回歸模型的調(diào)試與應(yīng)用中,如果出現(xiàn)欠擬合,通常需要使用更多的特征或者更復(fù)雜的模型,而不是使用更加復(fù)雜的回歸模型,比如邏輯回歸。因此選項(xiàng)C是錯(cuò)A、original42.某個(gè)汽車公司的產(chǎn)品,A廠占40%,B廠占60%,A的次品率是1%,B的次品率是2%,現(xiàn)在抽出一輛汽車是次品,問(wèn)是A廠生產(chǎn)的可能性是多少?的產(chǎn)品占比分別是40%和60%,次品率分別是1%和2%。根據(jù)貝葉斯定理,要求出抽率)=(0.4*0.01)/(0.4*0.01+0.6*0.02)=0.25。因此,答案是A。B、人臉識(shí)別——圖像預(yù)處理——圖像檢測(cè)C、圖像預(yù)處理——目標(biāo)檢測(cè)——人臉識(shí)別解析:預(yù)處理-目標(biāo)檢測(cè)-整個(gè)人臉識(shí)別。先檢測(cè)、再識(shí)別45.在交通執(zhí)法的車輛檢測(cè)場(chǎng)景中,對(duì)違章車輛的罰寧可漏報(bào),不要誤報(bào),以免產(chǎn)生錯(cuò)誤的罰款,這需要系統(tǒng)的哪個(gè)指示很高?解析:在交通執(zhí)法的車輛檢測(cè)場(chǎng)景中,誤報(bào)會(huì)導(dǎo)致錯(cuò)誤的罰款,因此需要系統(tǒng)的性能指示器中召回率很高。召回率是衡量系統(tǒng)在漏報(bào)方面表現(xiàn)的重要指標(biāo),它表示系統(tǒng)能夠正確識(shí)別出所有應(yīng)該被識(shí)別出的目標(biāo)的能力。在這個(gè)場(chǎng)景中,對(duì)違章車輛的罰款可接受漏報(bào),但不能有誤報(bào),否則會(huì)產(chǎn)生錯(cuò)誤的罰款。46.ModelArts開(kāi)發(fā)環(huán)境的作用是什么()A、訓(xùn)練C、代碼預(yù)測(cè)D、數(shù)據(jù)準(zhǔn)備解析:ModelArts是華為云提供的一站式AI開(kāi)發(fā)平臺(tái),涵蓋了數(shù)據(jù)處理、模型訓(xùn)練、模型管理等AI開(kāi)發(fā)的全流程。針對(duì)此題,我們需要明確ModelArts開(kāi)發(fā)環(huán)境的主要作用。A選項(xiàng)“訓(xùn)練”雖然是AI開(kāi)發(fā)的一個(gè)重要環(huán)節(jié),但并非開(kāi)發(fā)環(huán)境的主要或唯一作用。B選項(xiàng)“預(yù)測(cè)”通常是模型訓(xùn)練完成后,在部署階段進(jìn)行的活動(dòng),也不是開(kāi)發(fā)環(huán)境的主要作用。C選項(xiàng)“代碼預(yù)測(cè)”更貼近開(kāi)發(fā)環(huán)境的實(shí)際作用。在ModelArts的開(kāi)發(fā)環(huán)境中,開(kāi)發(fā)者可以編寫(xiě)和測(cè)試代碼,進(jìn)行模型的開(kāi)發(fā)和調(diào)試,這包括了對(duì)代碼的預(yù)測(cè)功能驗(yàn)證。D選項(xiàng)“數(shù)據(jù)準(zhǔn)備”是Al項(xiàng)目的一個(gè)前期步驟,雖然重要,但并不是開(kāi)發(fā)環(huán)境的主要作用。綜上所述,ModelArts開(kāi)發(fā)環(huán)境的主要作用是支持開(kāi)發(fā)者進(jìn)行代碼的編寫(xiě)、測(cè)試和預(yù)測(cè)驗(yàn)證,因此正確答案是C。47.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個(gè)像素在空間上存在什么鄰接關(guān)系?()解析:對(duì)角鄰接,對(duì)角鄰接和4連接共同構(gòu)成8連接詞的局部關(guān)系局部關(guān)系49.關(guān)于激活函數(shù),以下說(shuō)法中哪一項(xiàng)是正確的?B、Tanh函數(shù)是關(guān)于0點(diǎn)對(duì)稱的C、用了RELU激活函數(shù)的模型收斂速度非常慢收斂速度,所以A選項(xiàng)錯(cuò)誤。tanh函數(shù)是關(guān)于0點(diǎn)對(duì)稱的,這是其特性之一,因此B選項(xiàng)正確。Sigmoid函數(shù)雖然簡(jiǎn)單易懂,但存在梯度消失問(wèn)題,所以C選項(xiàng)錯(cuò)誤。Softmax函數(shù)常用于多分類問(wèn)題的輸出層,所以D選項(xiàng)錯(cuò)誤。綜上所述,正確答案是B。50.以下哪一個(gè)選項(xiàng)不屬于知識(shí)圖譜構(gòu)建流程?B、確定知識(shí)譜圖面向的領(lǐng)域C、創(chuàng)造新的概念D、知識(shí)融合解析:這道題考察的是對(duì)知識(shí)圖譜構(gòu)建流程的理解。知識(shí)圖譜的構(gòu)建通常包括數(shù)據(jù)獲取、確定知識(shí)圖譜面向的領(lǐng)域、知識(shí)抽取、知識(shí)融合等步驟。其中,數(shù)據(jù)獲取是基礎(chǔ),確定領(lǐng)域是方向,知識(shí)抽取是從數(shù)據(jù)中提取實(shí)體和關(guān)系,知識(shí)融合則是解決不同數(shù)據(jù)源之間的實(shí)體和關(guān)系沖突。而“創(chuàng)造新的概念”并不屬于這一流程,它更偏向于知識(shí)創(chuàng)新或本體構(gòu)建,而非知識(shí)圖譜的構(gòu)建流程。因此,選項(xiàng)C是不正確的。51.以下關(guān)于達(dá)芬奇架構(gòu)的描述,錯(cuò)誤的是哪一選項(xiàng)?B、控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行。解析:這道題考察對(duì)達(dá)芬奇架構(gòu)的理解。達(dá)芬奇架構(gòu)是一種針對(duì)Al計(jì)算的專用架提到控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行,這也是符合達(dá)芬奇架構(gòu)的設(shè)計(jì)的。D選項(xiàng)描述了AICore的片上存儲(chǔ)單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲(chǔ)系統(tǒng),這也是準(zhǔn)確的。而C選項(xiàng)提到計(jì)算單元包含四種基礎(chǔ)計(jì)算資源,這與達(dá)芬奇架構(gòu)的實(shí)際設(shè)計(jì)不符,因此是錯(cuò)誤的。在達(dá)芬奇架構(gòu)中,計(jì)算單元通常包含更多種類的計(jì)算資源,以適應(yīng)不同的AI計(jì)算需求。所以,錯(cuò)誤的選項(xiàng)是C。52.TensorFlow2.0中“isinstance”代表了什么運(yùn)算?()C、判斷是否為T(mén)ensorD、合并tensor解析:isinstance用來(lái)判斷一個(gè)對(duì)象是否為T(mén)ensor解析:Atlas800AI服務(wù)器是華為推出的面向AI訓(xùn)練場(chǎng)景的服務(wù)器系列。在該系列中,基于鯤鵬處理器平臺(tái)的型號(hào)是Atlas800型號(hào):3000。這一型號(hào)專門(mén)設(shè)計(jì)用于支持高性能計(jì)算和Al訓(xùn)練任務(wù),利用鯤鵬處理器的強(qiáng)大性能來(lái)滿足復(fù)雜計(jì)算需求。54.語(yǔ)音識(shí)別的難度有?()A、個(gè)人特征因素B、場(chǎng)景因素C、地域因素D、以上都是答案:D解析:全選B、中間網(wǎng)絡(luò)層的層數(shù)多C、計(jì)算機(jī)對(duì)問(wèn)題的處理更加靈活D、汁算機(jī)的求解更加精準(zhǔn)解析:在深度學(xué)習(xí)中,“深度”主要指的是神經(jīng)網(wǎng)絡(luò)模型中中間網(wǎng)絡(luò)層的數(shù)量眾多。通過(guò)增加網(wǎng)絡(luò)層的層數(shù),可以提取更復(fù)雜和抽象的特征,從而提高模型的學(xué)習(xí)能力和表現(xiàn)效果。A選項(xiàng)計(jì)算機(jī)理解的深度并非準(zhǔn)確的定義活并非“深度”的本質(zhì)含義;D選項(xiàng)計(jì)算機(jī)求解更加精準(zhǔn)也不是“深度”所指的內(nèi)容。所以,正確答案是B選項(xiàng)。56.下列哪個(gè)開(kāi)發(fā)環(huán)節(jié)最能體現(xiàn)不同項(xiàng)目之間的不同?A、數(shù)據(jù)準(zhǔn)備B、構(gòu)造網(wǎng)絡(luò)C、模型訓(xùn)練與驗(yàn)證D、模型調(diào)用解析:不同項(xiàng)目之間的不同開(kāi)發(fā)環(huán)節(jié)主要體現(xiàn)在核心環(huán)節(jié)上。對(duì)于機(jī)器學(xué)習(xí)項(xiàng)目,構(gòu)造網(wǎng)絡(luò)是體現(xiàn)不同項(xiàng)目之間的不同的關(guān)鍵環(huán)節(jié)。這是因?yàn)椴煌捻?xiàng)目可能需要不同的網(wǎng)絡(luò)結(jié)構(gòu)、參數(shù)設(shè)置、數(shù)據(jù)預(yù)處理方法等,這些都會(huì)影響最終的模型性能和效果。因此,選項(xiàng)B是正確的答案。57.單層感知機(jī)無(wú)法解決以下哪個(gè)問(wèn)題?A、簡(jiǎn)單二分類問(wèn)題解析:?jiǎn)螌痈兄獧C(jī)是一種簡(jiǎn)單的線性二分類模型,它基于輸入特征的加權(quán)和來(lái)進(jìn)行的,因?yàn)檫@些問(wèn)題都可以通過(guò)線性決策邊界來(lái)劃分。然而,XOR問(wèn)題是一個(gè)非線性可分的問(wèn)題,它需要一個(gè)更復(fù)雜的模型,比如多層神經(jīng)網(wǎng)絡(luò),才能正確分類。因此,單層感知機(jī)無(wú)法解決XOR問(wèn)題,答案是D。58.圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽被稱為?解析:在圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽通常被稱為GroundTruth,因?yàn)樗砹苏鎸?shí)的數(shù)據(jù)和信息,是進(jìn)行算法訓(xùn)練和評(píng)估的重要參考。因此,選項(xiàng)C是正確59.ModelArts自動(dòng)學(xué)習(xí)中的預(yù)測(cè)分析功能可以用于哪種應(yīng)用()A、識(shí)別花朵種類B、分割圖片中的物體C、人臉識(shí)別D、預(yù)測(cè)房?jī)r(jià)解析:自動(dòng)深度學(xué)習(xí)中有圖像分類、物體檢測(cè)功能;自動(dòng)機(jī)器的預(yù)測(cè)分析。溫度變化是結(jié)構(gòu)化數(shù)據(jù)預(yù)測(cè)分析60.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問(wèn)題。嚴(yán)格意義上來(lái)講是在以下哪個(gè)環(huán)節(jié)出現(xiàn)樣度消失間題?A、反向傳播更新參數(shù)B、正向傳播更新參數(shù)C、反向傳播計(jì)算結(jié)果D、正向傳播計(jì)算結(jié)果解析:這道題考察的是深度學(xué)習(xí)中的梯度消失問(wèn)題。梯度消失主要指的是在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,由于層數(shù)較多,反向傳播時(shí)梯度值趨近于0,導(dǎo)致參數(shù)更新非常緩慢或停止。這個(gè)問(wèn)題出現(xiàn)在**反向傳播更新參數(shù)**的環(huán)節(jié),因?yàn)槭窃谶@個(gè)過(guò)程中計(jì)算梯度并更新網(wǎng)絡(luò)參數(shù)的。正向傳播只是計(jì)算輸出結(jié)果,不涉及梯度計(jì)算,所以不會(huì)出現(xiàn)梯度消失問(wèn)題。因此,正確答案是A。61.以下哪個(gè)選項(xiàng)是神經(jīng)網(wǎng)絡(luò)訓(xùn)練最常用的方法?C、高其消元解析:這道題考察的是神經(jīng)網(wǎng)絡(luò)訓(xùn)練的基礎(chǔ)知識(shí)。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,最常用的方法是梯度下降法,它用于優(yōu)化神經(jīng)網(wǎng)絡(luò)的權(quán)重,通過(guò)計(jì)算損失函數(shù)關(guān)于權(quán)重的梯度,并沿著梯度的反方向更新權(quán)重,從而最小化損失函數(shù)。選項(xiàng)B“梯度下降”正是這一方法的準(zhǔn)確描述。其他選項(xiàng)如A的“共輪樣度法”、C的“高其消元”和D的“最小二乘法”都不是神經(jīng)網(wǎng)絡(luò)訓(xùn)練的標(biāo)準(zhǔn)方法或術(shù)語(yǔ)。62.伽馬變化是()處理,直方圖均衡化是(),均值濾波是()處理。A、點(diǎn)處理,局部處理,大局處理B、局部處理,點(diǎn)處理,大局處理C、點(diǎn)處理,大局處理,局部處理D、大局處理,點(diǎn)處理,局部處理解析:伽馬變換是一種全局處理方法,用于調(diào)整圖像的對(duì)比度;直方圖均衡化也是一種全局處理方法,用于改善圖像的視覺(jué)效果;均值濾波是一種局部處理方法,用于減少圖像中的噪聲。因此,為C。63.“從有標(biāo)簽的歷史數(shù)據(jù)中來(lái)預(yù)測(cè)下季度的商鋪營(yíng)收會(huì)在20-30萬(wàn)還是30-40萬(wàn)”,這是一個(gè)什么問(wèn)題?C、分類問(wèn)題D、聚類問(wèn)題解析:分類問(wèn)題是指根據(jù)已有數(shù)據(jù)預(yù)測(cè)離散型變量的取值,如預(yù)測(cè)某個(gè)商品的類別;聚類問(wèn)題是指將數(shù)據(jù)集中的樣本分成若干組,使得同一組內(nèi)的樣本相似度較高,不同組之間的樣本相似度較低;規(guī)則問(wèn)題是指根據(jù)一定的規(guī)則進(jìn)行決策或預(yù)測(cè)。64.在神經(jīng)網(wǎng)絡(luò)中引入非線性因素的是以下哪個(gè)選項(xiàng)?B、激活函數(shù)C、損失函數(shù)D、模型輸入解析:在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的作用是引入非線性因素,使得神經(jīng)網(wǎng)絡(luò)能夠擬合非線性關(guān)系。如果沒(méi)有激活函數(shù),神經(jīng)網(wǎng)絡(luò)只能擬合線性關(guān)系,無(wú)法解決復(fù)雜的問(wèn)題。權(quán)重參數(shù)是神經(jīng)網(wǎng)絡(luò)中的連接強(qiáng)度,用于調(diào)整輸入信號(hào)的重要性。損失函數(shù)用于衡量神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果與真實(shí)結(jié)果之間的差異,以便通過(guò)反向傳播算法來(lái)調(diào)整權(quán)重參數(shù)。模型輸入是神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)。因此,引入非線性因素的是激活函數(shù),正確答案是B。解析:HUAWEIHiAI平臺(tái)支持與AndroidStudi應(yīng)用程序中集成和使用HiAl的AI能力。JupyterNotebook、MyEclipse和Spi不是專門(mén)用于Android應(yīng)用程序開(kāi)發(fā)的工具66.以下哪一項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中一對(duì)多的類型?B、情感分析解析:這道題考察的是對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)應(yīng)用類型的理解。R其中“一對(duì)多”指的是輸入是一個(gè)序列,但輸出是多個(gè)序列或序列的一部分。分析各選項(xiàng):-A項(xiàng)(機(jī)器翻譯):通常屬于“多對(duì)多”類型,輸入和輸出都是序列。-B項(xiàng)(情感分析):屬于“多對(duì)一”類型,輸入是序列,輸出是一個(gè)分類標(biāo)簽。-C項(xiàng)(動(dòng)作識(shí)別):同樣可能是“多對(duì)一”或“多對(duì)多”,輸入視頻幀序列,輸出動(dòng)作類別或序列。-D項(xiàng)(音樂(lè)生成):屬于“一對(duì)多”類型,輸入可以是單個(gè)音符或和弦,輸出是一系列音符組成的音樂(lè)。因此,D項(xiàng)(音樂(lè)生成)是符合“一對(duì)多”類型的RNN應(yīng)用。67.感知機(jī)的結(jié)構(gòu)是模擬以下哪種生物結(jié)構(gòu)?()B、神經(jīng)元答案:B解析:模擬神經(jīng)元,輸入處理輸出68.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法?答案:C解析:關(guān)鍵詞提取是文本處理中的一項(xiàng)重要任務(wù),旨在從文本中自動(dòng)抽取出最具代表性的詞匯或短語(yǔ)。常用的關(guān)鍵詞提取算法包括TF-IDF、TextRank和LDA。TF-IDF算法通過(guò)計(jì)算詞頻(TF)和逆文檔頻率(IDF)的乘積來(lái)衡量一個(gè)詞在文檔中的重要性。TextRank算法則是基于圖的方法,將文本中的詞作為節(jié)點(diǎn),通過(guò)邊的連接來(lái)表示詞之間的關(guān)系,進(jìn)而提取關(guān)鍵詞。LDA(LatentDirichletAllocation)解析:這道題考察的是MindSpore框架中Tensor初始化時(shí)數(shù)據(jù)類型的轉(zhuǎn)換優(yōu)先級(jí)。在MindSpore中,當(dāng)Tensor包含多種類型的數(shù)據(jù)時(shí),會(huì)進(jìn)行類型轉(zhuǎn)換以確保Tensor中數(shù)據(jù)類型的一致性。類型轉(zhuǎn)換遵循一定的優(yōu)先級(jí)規(guī)則,通常是bool類型優(yōu)先級(jí)最高,其次是int類型,最后是float類型。因此,正確的類型轉(zhuǎn)換優(yōu)先級(jí)71.以下哪一項(xiàng)是mox.file中用來(lái)移動(dòng)一個(gè)OBS文件或文件夾的API?答案:A解析:mox.file.rename是重命名或移動(dòng)更多文件操作詳modelarts/modelarts_11_0005.html更多文件操作詳72.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過(guò)程中,以下哪個(gè)選項(xiàng)不屬于決策樹(shù)構(gòu)建過(guò)程當(dāng)中的步驟?樹(shù))。而數(shù)據(jù)清理(C選項(xiàng))通常是在特征工程階段完成的,不屬于決策樹(shù)構(gòu)建的C、無(wú)論是CBow模型還是Skip-gram模型,都是以Huffman樹(shù)作為基礎(chǔ)的周圍詞的向量。當(dāng)訓(xùn)練完成之后,每個(gè)詞都會(huì)作為中心詞,把周圍詞的詞向量進(jìn)行了調(diào)整,這樣也就獲得了整個(gè)文本里面所有詞的詞向量。要注意的是,cbow的對(duì)周圍詞的調(diào)整是統(tǒng)一的:求出的gradient的值會(huì)同樣的作用到每個(gè)周圍詞的詞向量當(dāng)中去??梢钥吹剑琧bow預(yù)測(cè)行為的次數(shù)跟整個(gè)文本的詞數(shù)幾乎是相等的(每次預(yù)測(cè)行為才會(huì)進(jìn)行一次backpropgation,而往往這也是最耗時(shí)的部分),復(fù)雜度大概是0(V)。而skip-gram是用中心詞來(lái)預(yù)測(cè)周圍的詞。在skip-gram中,會(huì)利用周圍的詞的預(yù)測(cè)結(jié)果情況,使用GradientDecent來(lái)不斷的調(diào)整中心詞的詞向量,最終所有的文本遍歷完畢之后,也就得到了文本所有詞的詞向量??梢钥闯觯瑂kip-gram進(jìn)行預(yù)測(cè)的次數(shù)是要多于cbow的:因?yàn)槊總€(gè)詞在作為中心詞時(shí),都要使用周圍詞進(jìn)行預(yù)測(cè)一次。這樣相當(dāng)于比cbow的方法多進(jìn)行了K次(假設(shè)K為窗口大小),因此時(shí)間的復(fù)雜度為O(KV),訓(xùn)練時(shí)間要比cbow要長(zhǎng)。但是在skip-gram當(dāng)中,每個(gè)詞都要收到周圍的詞的影響,每個(gè)詞在作為中心詞的時(shí)候,都要進(jìn)行K次的預(yù)測(cè)、調(diào)整。因此,當(dāng)數(shù)據(jù)量較少,或者詞為生僻詞出現(xiàn)次數(shù)較少時(shí),這種多次的調(diào)整會(huì)使得詞向量相對(duì)的更加準(zhǔn)確。因?yàn)楸M管cbow從另外一個(gè)角度來(lái)說(shuō),某個(gè)詞也是會(huì)受到多次周圍詞的影響(多次將其包含在內(nèi)的窗口移動(dòng)),進(jìn)行詞向量的跳幀,但是他的調(diào)整是跟周圍的詞一起調(diào)整的,grad的值會(huì)平均分到該詞上,相當(dāng)于該生僻詞沒(méi)有收到專門(mén)的訓(xùn)練,它只是沾了周圍詞的光而已。因此,從更通俗的角度來(lái)說(shuō):在skip-gram里面,每個(gè)詞在作為中心詞的時(shí)候,實(shí)際上是1個(gè)學(xué)生VSK個(gè)老師,K個(gè)老師(周圍詞)都會(huì)對(duì)學(xué)生(中心詞)進(jìn)行“專業(yè)”的訓(xùn)練,這樣學(xué)生(中心詞)的“能力”(向量結(jié)果)相對(duì)就會(huì)扎實(shí)(準(zhǔn)確)一些,但是這樣肯定會(huì)使用更長(zhǎng)的時(shí)間;Cbow是1個(gè)老師VSK個(gè)學(xué)生,K個(gè)學(xué)生(周圍詞)都會(huì)從老師(中心詞)那里學(xué)習(xí)知識(shí),但是老師(中心詞)是一視同體的,教給大家的一樣的知識(shí)。至于你學(xué)到了多少,還要看下一輪(假如還在窗口內(nèi)),或者以后的某一輪,你還有機(jī)會(huì)加入老師的課堂當(dāng)中(再次出現(xiàn)作為周圍詞),跟著大家一起學(xué)習(xí),然后進(jìn)步一點(diǎn)。因此相對(duì)skip-gram,你的業(yè)務(wù)能力肯定沒(méi)有人家強(qiáng),但是對(duì)于整個(gè)訓(xùn)練營(yíng)(訓(xùn)練過(guò)程)來(lái)說(shuō),這樣肯定效率高,速度更快。74.圖像識(shí)別任務(wù)可以分為三個(gè)層次,根據(jù)操作對(duì)象的數(shù)據(jù)量,從小到大依次為?()A、圖像處理,圖像分析,圖像理解B、圖像分析,圖像理解,圖像處理C、圖像分析,圖像處理,圖像理解D、圖像理解,圖像分析,圖像處理解析:圖像識(shí)別任務(wù)可以分為三個(gè)層次,根據(jù)操作對(duì)象的數(shù)據(jù)量,從小到大依次為圖像處理,圖像分析,圖像理解。1.圖像處理這個(gè)層次的操作對(duì)象是原始圖像數(shù)據(jù),主要是對(duì)圖像進(jìn)行預(yù)處理和增強(qiáng),如去噪、對(duì)比度增強(qiáng)、色彩校正等,以改善圖像的質(zhì)量和可讀性。2.圖像分析這個(gè)層次的操作對(duì)象是經(jīng)過(guò)處理的圖像數(shù)據(jù),主要是對(duì)圖像進(jìn)行特征提取和目標(biāo)檢測(cè),如邊緣檢測(cè)、形狀分析、紋理特征提取等,以提取出圖像中的關(guān)鍵信息。3.圖像理解這個(gè)層次的操作對(duì)象是經(jīng)過(guò)分析的圖像數(shù)據(jù),主要是對(duì)圖像進(jìn)行語(yǔ)義理解和內(nèi)容理解,如場(chǎng)景理解、物體識(shí)別、人臉識(shí)別等,以實(shí)現(xiàn)對(duì)圖像的深入理解和解釋。因此,正確是A。75.在邏輯回歸中,加入L1范數(shù),會(huì)產(chǎn)生什么效果?()B、能加快計(jì)算速度C、可以獲得更準(zhǔn)確的結(jié)果D、可以減小訓(xùn)練誤差解析:L2與L1的主要區(qū)別如下:通過(guò)上面的分析,L1相對(duì)于L2能夠產(chǎn)生更加稀疏的模型,即當(dāng)L1正則在參數(shù)w比較小的情況下,能夠直接縮減至0,因此可以起到特征選擇的作用。如果從概率角度進(jìn)行分析,很多范數(shù)約束相當(dāng)于對(duì)參數(shù)添加先驗(yàn)分布,其中L2范數(shù)相當(dāng)于參數(shù)服從高斯先驗(yàn)分布;L1范數(shù)相當(dāng)于拉普拉斯分布。76.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是哪個(gè)選項(xiàng)?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系D、以上都不對(duì)解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)關(guān)系的理解。機(jī)器學(xué)習(xí)是一個(gè)廣泛的領(lǐng)域,旨在開(kāi)發(fā)算法使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,它使用神經(jīng)網(wǎng)絡(luò)模型來(lái)模擬人腦的學(xué)習(xí)過(guò)程。因此,深度學(xué)習(xí)確實(shí)是機(jī)器學(xué)習(xí)的一個(gè)分支,選項(xiàng)A正確。選項(xiàng)B錯(cuò)誤,因?yàn)樯疃葘W(xué)習(xí)不是機(jī)器學(xué)習(xí)的全部,而是其一部分。選項(xiàng)C錯(cuò)誤,因?yàn)樯疃葘W(xué)習(xí)和機(jī)器學(xué)習(xí)確實(shí)有關(guān)系,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)特定方法。選項(xiàng)D錯(cuò)誤,因?yàn)锳選項(xiàng)是正確的。77.以下選項(xiàng)中不屬于超參數(shù)搜索方法的是哪一項(xiàng)?C、貝葉斯搜索解析:在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,超參數(shù)搜索是優(yōu)化模型性能的重要步驟。超參數(shù)搜索方法主要分為以下幾類:網(wǎng)格搜索、隨機(jī)索是通過(guò)在預(yù)定義的參數(shù)空間中窮舉搜索最優(yōu)的參數(shù)組合。C選項(xiàng)貝葉斯搜索是一種基于貝葉斯優(yōu)化理論的搜索方法,它能夠根據(jù)歷史搜索結(jié)果動(dòng)態(tài)調(diào)整搜索范圍。D選項(xiàng)隨機(jī)搜索是隨機(jī)選取不同的參數(shù)組合來(lái)探索整個(gè)參數(shù)空間,尋求可能的最優(yōu)解。而B(niǎo)選項(xiàng)聚類算法,是一種無(wú)監(jiān)督學(xué)習(xí)方法,主要目的是將數(shù)據(jù)點(diǎn)進(jìn)行分類,使其同組內(nèi)的相似度盡可能高,與其他組的差異盡可能大。因此,它不是超參數(shù)搜索方法的一種。所以,答案為B、聚類算法。78.下列哪一項(xiàng)是張量[[0.1],[2.3]]的正確階數(shù)?解析:這道題考察的是對(duì)張量階數(shù)的理解。張量的階數(shù),也稱為維度,是指張量中索引的數(shù)量。在張量[0,1]:[2,3]中,有兩個(gè)索引范圍,即[0,1]和[2,3],因此它是一個(gè)二階張量。所以正確答案是C。79.在一個(gè)任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無(wú)監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)算法類型的理解。半監(jiān)督學(xué)習(xí)是指同時(shí)使用有標(biāo)記數(shù)據(jù)和無(wú)標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練的學(xué)習(xí)方法。根據(jù)題目描述,學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這正是半監(jiān)督學(xué)習(xí)的特點(diǎn)。因此,正確答案是A。80.以下關(guān)于機(jī)器學(xué)習(xí)中分類模型與回歸模型的說(shuō)法,哪一項(xiàng)說(shuō)法是正確的?A、對(duì)回歸問(wèn)題和分類問(wèn)題的評(píng)價(jià),最常用的指標(biāo)都是準(zhǔn)確率和召回率B、輸出變量為有限個(gè)離散變量的預(yù)測(cè)問(wèn)題是回歸問(wèn)題,輸出變量為連續(xù)變量的預(yù)測(cè)問(wèn)題是分類問(wèn)題C、回歸問(wèn)題知分類問(wèn)題都有可能發(fā)生過(guò)擬合D、邏輯回歸是一種典型的回歸模型解析:這道題考察的是對(duì)機(jī)器學(xué)習(xí)中分類模型與回歸模型的理解。A選項(xiàng)錯(cuò)誤,因?yàn)闇?zhǔn)確率和召回率主要用于分類問(wèn)題的評(píng)價(jià),而不是回歸問(wèn)題。B選項(xiàng)錯(cuò)誤,描述顛倒了,輸出變量為有限個(gè)離散變量的預(yù)測(cè)問(wèn)題是分類問(wèn)題,輸出變量為連續(xù)變量的預(yù)測(cè)問(wèn)題是回歸問(wèn)題。C選項(xiàng)正確,無(wú)論是回歸問(wèn)題還是分類問(wèn)題,都有可能發(fā)生過(guò)擬合,即模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。D選項(xiàng)錯(cuò)誤,邏輯回歸雖然名字中有“回歸”,但實(shí)際上是一種分類模型,用于處理二分類問(wèn)題。因此,正確答案是C。81.以下哪一項(xiàng)是Sigmoid函數(shù)導(dǎo)數(shù)的最大值A(chǔ)、0.5得最大值,因?yàn)榇藭r(shí)(1-f(x))也等于0.5,所以f'(x)=0.5*0.5=0.25。因此,選項(xiàng)C是正確的答案。82.Atlas200DK所基于的昇騰310芯片主要的應(yīng)用是?A、模型訓(xùn)練解析:Atlas200DK是基于華為昇騰310芯片的開(kāi)發(fā)套件,它主要針對(duì)的是AI模型的推理應(yīng)用。推理是指使用已經(jīng)訓(xùn)練好的模型對(duì)數(shù)據(jù)進(jìn)行預(yù)測(cè)或分類的過(guò)程。與訓(xùn)昇騰310芯片的設(shè)計(jì)重點(diǎn)是優(yōu)化推理性能,使得Atlas200DK在模型推理應(yīng)用中表現(xiàn)出色。所以,選項(xiàng)A“模型推理”是正確的答83.NNLM模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?84.以下選項(xiàng)中,哪一項(xiàng)不屬于模型訓(xùn)練的超參數(shù)?A、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率B、一元線性回歸模型Y=wX+b中的權(quán)置系數(shù)(斜率)“D、隨機(jī)森林當(dāng)中的樹(shù)的棵數(shù)解析:這道題考察的是對(duì)模型訓(xùn)練中超參數(shù)的理解。超參數(shù)是在開(kāi)始學(xué)習(xí)過(guò)程之前設(shè)置值的參數(shù),它們不能通過(guò)訓(xùn)練過(guò)程本身來(lái)學(xué)習(xí)。A項(xiàng)“學(xué)習(xí)率”是訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)的一個(gè)關(guān)鍵超參數(shù),它控制著權(quán)重更新的幅度。C項(xiàng)“K最近鄰算法中的K”指的是算法在做出預(yù)測(cè)時(shí)要考慮的最近鄰居的數(shù)量,也是一個(gè)超參數(shù)。D項(xiàng)“隨機(jī)森林當(dāng)中的樹(shù)的棵數(shù)”決定了隨機(jī)森林模型的復(fù)雜度和過(guò)擬合的風(fēng)險(xiǎn),同樣是一個(gè)超參數(shù)。而B(niǎo)項(xiàng)“一元線性回歸模型中的權(quán)置系數(shù)(斜率)”是通過(guò)訓(xùn)練數(shù)據(jù)學(xué)習(xí)得到的,不是超參數(shù)。因此,答案是B。C、垂直鏡像解析:水平鏡像左右互換86.下列哪個(gè)不是tensorFlow中的元素?A、graph載體。由于TensorFlow是一個(gè)深度學(xué)習(xí)框架,因此point并不是TensorFlow中的一個(gè)元素,這是一個(gè)并非TensorFlow內(nèi)置概念的虛擬選項(xiàng)。因此,所給答案D是87.在Mindspore中,能夠提供訓(xùn)練過(guò)程可視化的是以下哪個(gè)子系統(tǒng)?解析:Mindlnsight是MindSpore中的一個(gè)子系統(tǒng),其主要功能就是為訓(xùn)練過(guò)程提供可視化支持。它能夠幫助用戶直觀地了解模型訓(xùn)練的情況,包括參數(shù)變化、性能指標(biāo)等。而MindData主要負(fù)責(zé)數(shù)據(jù)處理,MindCompiler側(cè)重于模型編譯優(yōu)化,MindExpressd并非MindSpore中的常見(jiàn)子系統(tǒng)。所以,正確答案是C。88.不屬于jieba分詞模式的選項(xiàng)是?B、精確模式解析:jieba是一款優(yōu)秀的中文分詞工具,具有三種分詞模式,分別是1.精確模式試圖將句子最精確地切開(kāi),適合文本分析;2.全模式把句子中所有的可以成詞的詞語(yǔ)都掃描出來(lái),速度非???;3.搜索引擎模式在精確模式的分,提高召回率,適合用于搜索引擎分詞。因此,選項(xiàng)C的“隨機(jī)模式”不屬于89.以下關(guān)于計(jì)算機(jī)視覺(jué)的說(shuō)法,哪一個(gè)選項(xiàng)是正確的?A、計(jì)算機(jī)視覺(jué)需要用到圖像處理技術(shù)B、計(jì)算機(jī)視覺(jué)是利用計(jì)算機(jī)技術(shù)來(lái)理解并運(yùn)用自然語(yǔ)言的學(xué)科C、計(jì)算機(jī)視覺(jué)就是讓計(jì)算機(jī)去分析語(yǔ)言數(shù)據(jù)D、計(jì)算機(jī)視覺(jué)就是通過(guò)專家經(jīng)驗(yàn)提供排障指導(dǎo)的學(xué)科解析:這道題考察的是對(duì)計(jì)算機(jī)視覺(jué)概念的理解。計(jì)算機(jī)視覺(jué),作為一個(gè)學(xué)科領(lǐng)域,主要關(guān)注如何使計(jì)算機(jī)能夠“看見(jiàn)”并理解圖像和視頻內(nèi)容。這自然涉及到圖像處理技術(shù),用于分析、解釋圖像數(shù)據(jù)。A選項(xiàng)指出“計(jì)算機(jī)視覺(jué)需要用到圖像處理技術(shù)”,這與計(jì)算機(jī)視覺(jué)的定義和應(yīng)用相符合,是正確的。B選項(xiàng)描述的是自然語(yǔ)言處理,與計(jì)算機(jī)視覺(jué)不同,它關(guān)注的是理解和生成人類語(yǔ)言。C選項(xiàng)同樣混淆了計(jì)算機(jī)視覺(jué)與自然語(yǔ)言處理的領(lǐng)域,計(jì)算機(jī)視覺(jué)處理的是圖像和視頻數(shù)據(jù),而不是語(yǔ)言數(shù)據(jù)。D選項(xiàng)描述的是專家系統(tǒng)或基于知識(shí)的系統(tǒng),它們利用專家經(jīng)驗(yàn)來(lái)提供指導(dǎo)或解決問(wèn)題,與計(jì)算機(jī)視覺(jué)不直接相關(guān)。綜上所述,A選項(xiàng)正確描述了計(jì)算機(jī)視覺(jué)的一個(gè)核心方面,即需要使用圖像處理技術(shù)。解析:一副8位的圖像,表示每個(gè)采樣點(diǎn)有2^8=256級(jí),從最暗到最亮可以分辨256個(gè)級(jí)別。一副32級(jí)的灰度圖像,每個(gè)采樣點(diǎn)從最暗到最亮,可以分辨32個(gè)級(jí)別。91.TensorFlow使用的數(shù)據(jù)類型是?解析:這道題考察的是對(duì)TensorFlow框架基礎(chǔ)知識(shí)的理解。TensorFlow是一個(gè)廣泛使用的深度學(xué)習(xí)框架,其核心數(shù)據(jù)結(jié)構(gòu)是“Tensor”,用于表示所有的數(shù)據(jù)。在TensorFlow中,無(wú)論是輸入數(shù)據(jù)、模型參數(shù)還是輸出結(jié)果,都是以Tensor的形式存在。因此,TensorFlow使用的數(shù)據(jù)類型是Tensor,選項(xiàng)C正確。92.高斯混合模型在語(yǔ)音識(shí)別中的作用是?()A、表示因素之間的概率轉(zhuǎn)移B、用來(lái)表示一個(gè)音素的多維數(shù)值分布C、用來(lái)區(qū)分不同的音素D、評(píng)估HMM算法的優(yōu)勢(shì)解析:高斯混合模型表示了觀測(cè)數(shù)據(jù)在總體樣本中的概率分布,即一個(gè)音素的多位數(shù)值分布。93.在應(yīng)用開(kāi)發(fā)時(shí),以下哪種操作不屬于網(wǎng)絡(luò)定義的步驟?A、指定輸入維度B、知識(shí)蒸館C、權(quán)值初始化D、指定網(wǎng)絡(luò)優(yōu)化器解析:這道題考察的是神經(jīng)網(wǎng)絡(luò)開(kāi)發(fā)的基本步驟。在神經(jīng)網(wǎng)絡(luò)開(kāi)發(fā)中,通常需要指定輸入維度(A選項(xiàng)),進(jìn)行權(quán)值初始化(C選項(xiàng)),以及指定網(wǎng)絡(luò)優(yōu)化器(D選項(xiàng))來(lái)優(yōu)化網(wǎng)絡(luò)性能。而“知識(shí)蒸餾”是一種模型壓縮技術(shù),用于將一個(gè)復(fù)雜模型的知識(shí)轉(zhuǎn)移到一個(gè)更簡(jiǎn)單、更小的模型中,它并不屬于網(wǎng)絡(luò)定義的常規(guī)步驟,而是模型優(yōu)化和壓縮的一個(gè)環(huán)節(jié)。因此,B選項(xiàng)“知識(shí)蒸餾”是不屬于網(wǎng)絡(luò)定義步驟的94.FusionDirector為服務(wù)器和華為邊緣設(shè)備統(tǒng)一運(yùn)維管理軟件,以下哪一項(xiàng)不是它的特性?A、為數(shù)據(jù)中心提供硬件精細(xì)化管理能力B、為智算中心提供一站式軟件部署服務(wù)C、為公有云提供大規(guī)模服務(wù)器自動(dòng)化運(yùn)維能力D、為私有云提供一站式硬件管理能力解析:FusionDirector是華為提供的一款服務(wù)器和邊緣設(shè)備統(tǒng)一運(yùn)維管理軟件。根據(jù)軟件的功能描述:A項(xiàng),F(xiàn)usionDirector確實(shí)為數(shù)據(jù)中心提供了硬件管理能力,這是其基礎(chǔ)功能之一。C項(xiàng),F(xiàn)usionDir站式硬件管理能力,這也是它作為運(yùn)維管理軟件的核心功能。然而,B項(xiàng)提到“為智算中心提供一站式軟件部署服務(wù)”并非FusionDirector的核心特性或主要功能。FusionDirector主要關(guān)注硬件的管理和運(yùn)維,而非軟件部署服務(wù)。因此,B項(xiàng)不是FusionDirector的特性,答案選B。95.ModelArts預(yù)置模型的本質(zhì)是什么()C、強(qiáng)化學(xué)習(xí)解析:遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法,指的是一個(gè)預(yù)訓(xùn)練的模型被重新用在另一個(gè)任務(wù)中96.以下哪一選項(xiàng)不屬于馬爾科夫模型的三要素?()A、狀態(tài)集合向量,其中向量中的每個(gè)元素的值都介于(0,1)之間,元素值的和為介于(1,100)縮(映射)成另一個(gè)K維的實(shí)數(shù)向量,其中向量中的每個(gè)元素取值都介于(0,1)1,而不是(1,100)之間。因?yàn)椤皉esult”在多數(shù)編程和數(shù)據(jù)處理上下文中,都被用作表示操作或函數(shù)返回的主要結(jié)果或輸出。因此,根據(jù)這一通用約定,選項(xiàng)B“result”是正確的答案。99.MoXing的自動(dòng)超參搜索功能的作用是什么()A、提供手動(dòng)調(diào)參的指導(dǎo)C、自動(dòng)搜索初最優(yōu)的學(xué)習(xí)率100.John想要通過(guò)神經(jīng)網(wǎng)絡(luò),將一段視頻中的眾多個(gè)動(dòng)物檢測(cè)出來(lái),并確定它們的大概位置,則John可以選擇以下哪個(gè)網(wǎng)絡(luò)?101.華為深度學(xué)習(xí)框架MindSpore的亮點(diǎn)有?()A、通過(guò)實(shí)現(xiàn)AI算法即代碼,使開(kāi)發(fā)態(tài)變得更加友好,顯著減少模型開(kāi)發(fā)時(shí)間,降B、通過(guò)MindSpore自身的技術(shù)創(chuàng)新及MindSpore與Ascend處理器協(xié)同優(yōu)化,實(shí)現(xiàn)了運(yùn)行態(tài)的高效,大大提高了計(jì)算性能。C、原生適應(yīng)每個(gè)場(chǎng)景包括端,邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活。解析:這道題考察的是對(duì)華為深度學(xué)習(xí)框架MindSpore亮點(diǎn)的理解。根據(jù)MindSpore的官方介紹和特性,我們可以知道:*MindSpore通過(guò)實(shí)現(xiàn)AI算法即代碼,確實(shí)使開(kāi)發(fā)態(tài)變得更加友好,顯著減少了模型開(kāi)發(fā)時(shí)間,降低了模型開(kāi)發(fā)門(mén)檻。*MindSpore通過(guò)自身的技術(shù)創(chuàng)新以及與Ascend處理器的協(xié)同優(yōu)化,實(shí)現(xiàn)了運(yùn)行態(tài)的高效,大大提高了計(jì)算性能。*MindSpore原生適應(yīng)每個(gè)場(chǎng)景,包括端、邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活。綜上所述,選項(xiàng)A、B、C都是MindSpo亮點(diǎn),所以答案是D,“以上皆是”。102.在語(yǔ)音識(shí)別實(shí)驗(yàn)中,以下哪一項(xiàng)屬于初始化客戶端所需要的方法解析:這道題考察的是在語(yǔ)音識(shí)別實(shí)驗(yàn)中,對(duì)于客戶端初始化所需方法的了解。在語(yǔ)音識(shí)別或類似的編程實(shí)驗(yàn)中,初始化客戶端通常指的是創(chuàng)建一個(gè)客戶端實(shí)例,以便后續(xù)進(jìn)行各種操作。根據(jù)編程常識(shí)和語(yǔ)音識(shí)別實(shí)驗(yàn)的常規(guī)操作,Asrcustomizationclient()'看起來(lái)是一個(gè)構(gòu)造函數(shù)或方法,用于創(chuàng)建或初始化一個(gè)客戶端實(shí)例。而其他選項(xiàng),如`Asrcustomshortrequeget_short_response()'、'se特定請(qǐng)求、獲取響應(yīng)或設(shè)置某些參數(shù)的方法,而不是用于初正確答案是A。B、語(yǔ)言語(yǔ)音學(xué)C、聽(tīng)覺(jué)語(yǔ)音學(xué)E、語(yǔ)義語(yǔ)音學(xué)解析:這道題考察的是對(duì)語(yǔ)音學(xué)范疇的理解。語(yǔ)音學(xué)是研究人類語(yǔ)音的產(chǎn)生、傳播和接收的科學(xué)。它主要包括聲學(xué)語(yǔ)音學(xué)(研究語(yǔ)音的物理屬性)、語(yǔ)言語(yǔ)音學(xué)(研究語(yǔ)音在語(yǔ)言中的使用)、聽(tīng)覺(jué)語(yǔ)音學(xué)(研究語(yǔ)音的感知)和發(fā)音語(yǔ)音學(xué)(研究語(yǔ)音的產(chǎn)生機(jī)制)。而語(yǔ)義語(yǔ)音學(xué)實(shí)際上更偏向于語(yǔ)義學(xué),關(guān)注的是語(yǔ)言的意義和表達(dá),不屬于傳統(tǒng)語(yǔ)音學(xué)的范疇。因此,答案是E。解析:這道題考查對(duì)ATC工具模型轉(zhuǎn)換后文件格式的了解。在相關(guān)技術(shù)領(lǐng)域中,ATC工具模型轉(zhuǎn)換有特定的文件格式規(guī)范。經(jīng)過(guò)實(shí)際應(yīng)用和技術(shù)標(biāo)準(zhǔn),轉(zhuǎn)換后的文件格式通常為Om格式,所以這道題應(yīng)選D選項(xiàng)。105.以下關(guān)于交叉驗(yàn)證的描述中,哪一項(xiàng)是錯(cuò)誤的A、k-折交叉驗(yàn)證是常用的交叉驗(yàn)證方法B、交叉驗(yàn)證首先用訓(xùn)練集對(duì)分類器進(jìn)行訓(xùn)練再利用驗(yàn)證集來(lái)測(cè)試訓(xùn)練得到的模型以此來(lái)做為評(píng)價(jià)分類器的性能指標(biāo)C、交叉驗(yàn)證是用來(lái)驗(yàn)證分類器的性能一種統(tǒng)計(jì)分析方法D、k-折交叉驗(yàn)證方法中的k不是超參數(shù)是由模型訓(xùn)練得來(lái)的解析:這道題考察的是對(duì)交叉驗(yàn)證的理解。交叉驗(yàn)證是一種評(píng)估模型性能的方法,其中k-折交叉驗(yàn)證是常用的一種。在這個(gè)過(guò)程中,數(shù)據(jù)集被分成k份,每次用其中k-1份作為訓(xùn)練集,剩余的一份作為驗(yàn)證集,重復(fù)k次,每次選擇不同的驗(yàn)證集。選項(xiàng)A正確描述了k-折交叉驗(yàn)證是常用的方法。選項(xiàng)B正確描述了交叉驗(yàn)證的基本過(guò)程。選項(xiàng)C正確指出交叉驗(yàn)證是一種統(tǒng)計(jì)分析方法。而選項(xiàng)D錯(cuò)誤,因?yàn)閗-折交叉驗(yàn)證中的k是人為設(shè)定的,不是由模型訓(xùn)練得來(lái)的,它是一個(gè)超參數(shù)。106.John在開(kāi)發(fā)昇騰應(yīng)用,現(xiàn)在他在筆記本電腦上創(chuàng)建了開(kāi)發(fā)環(huán)境,遠(yuǎn)程連接了一個(gè)搭載了Atlas3001推理卡的服務(wù)器,在這種場(chǎng)景下,Device指的是以下那一個(gè)選項(xiàng)?A、筆記本D、Ascend910芯片解析:在這個(gè)場(chǎng)景下,John在筆記本電腦上創(chuàng)建了開(kāi)發(fā)環(huán)境,并遠(yuǎn)程連接了一個(gè)搭載了Atlas3001推理卡的服務(wù)器。這里的“Device”通常指的是執(zhí)行計(jì)算任務(wù)的具體硬件設(shè)備。在這個(gè)上下文中,Atlas3001推理卡是負(fù)責(zé)執(zhí)行推理任務(wù)的硬件設(shè)備,因此“Device”指的是推理卡。所以,正確答案是C。107.以下常見(jiàn)的回歸方法中,既可以防止過(guò)擬合又可以進(jìn)行特征選擇的是哪一項(xiàng)?B、多項(xiàng)式回歸D、Ridge回歸解析:在常見(jiàn)的回歸方法中,過(guò)擬合是一個(gè)需要避免的問(wèn)題,它指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。特征選擇則是選擇對(duì)模型預(yù)測(cè)最有用的特實(shí)現(xiàn),但它并不直接進(jìn)行特征選擇。B選項(xiàng),LASSO回歸,既可以防止過(guò)擬合,因?yàn)樗矊?duì)系數(shù)大小施加懲罰,又可以進(jìn)行特征選擇,因?yàn)樗鼉A向于將不重要的特征的系數(shù)減小到0。C選項(xiàng),多項(xiàng)式回歸,主要用于擬合非線性關(guān)系,并不直接防止過(guò)擬合或進(jìn)行特征選擇。D選項(xiàng),多元線性回歸,是基本的線性回歸模型,同樣不直接防止過(guò)擬合或進(jìn)行特征選擇。因此,答案是B,LASSO回歸。108.以下關(guān)于邏輯回歸的描述中,哪一項(xiàng)是錯(cuò)誤的?A、邏輯回歸模型是一種分類模型,用來(lái)解決分類問(wèn)題。B、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù))。C、邏輯回歸與線性回歸都是廣義線性模型。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。解析:邏輯回歸和線性回歸的損失函數(shù)并不是最小二乘損失函數(shù),而是對(duì)數(shù)損失函數(shù)。因此,選項(xiàng)D是錯(cuò)誤的。邏輯回歸是一種廣義線性模型,它在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問(wèn)題。邏輯回歸是一種分類模型,主要用于預(yù)測(cè)一個(gè)樣本屬于某個(gè)類別(通常是二分類)的概率。109.華為的芯片支持HUA.WEIHiAI的哪一個(gè)模塊?是華為HiAl架構(gòu)中的重要組成部分,在芯片的功能實(shí)現(xiàn)和性能發(fā)揮中起到關(guān)鍵作110.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?B、語(yǔ)義分割C、信息檢索D、圖像生成解析:生成對(duì)抗網(wǎng)絡(luò)(GAN)目前廣泛應(yīng)用于多個(gè)領(lǐng)域,如數(shù)據(jù)增強(qiáng)、語(yǔ)義分割、111.以下關(guān)于聯(lián)邦學(xué)習(xí)的描述,哪一個(gè)選項(xiàng)是錯(cuò)誤的?B、聯(lián)邦學(xué)習(xí)原本用于解決安卓手機(jī)終端用戶在本地更新模型的問(wèn)題。C、聯(lián)邦學(xué)習(xí)的目的在于保證數(shù)據(jù)隱私安全及合法合規(guī)的基礎(chǔ)上,實(shí)現(xiàn)共同建模,提升AI橫型的效果D、聯(lián)邦學(xué)習(xí)最早在2016年由百度公司提出。解析:聯(lián)邦學(xué)習(xí)最早不是由百度公司在2016年提出的,而是近年來(lái)在人工智能領(lǐng)域逐漸興起的一種新的機(jī)器學(xué)習(xí)范式。因此,D選項(xiàng)是錯(cuò)誤的。下哪一項(xiàng)是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型C、離散值和分類模型D、連續(xù)數(shù)值和回歸模型解析:根據(jù)題目中的描述,標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),這通常意味著數(shù)據(jù)是連續(xù)的,而非離散的。因此,標(biāo)簽列數(shù)據(jù)類型更適合用回歸模型進(jìn)行處理。而預(yù)測(cè)分析項(xiàng)目通常涉及的是數(shù)值型數(shù)據(jù)的預(yù)測(cè),因此訓(xùn)練的模型類型應(yīng)該是回歸模型。因此,選項(xiàng)D是正確的。113.關(guān)于通用的圖像識(shí)別流程,以下說(shuō)法中哪一項(xiàng)是正確的?A、特征提取→圖像采集一→圖像預(yù)處理→圖像識(shí)別B、圖像采集→>圖像預(yù)改處理→>特征提取—>圖像識(shí)別C、圖像預(yù)改處理→特征提取→圖像采集一→圖像識(shí)別D、圖像預(yù)政處理→圖像采集一→特征提取圖像識(shí)別解析:這道題考察的是對(duì)圖像識(shí)別流程的理解。在通用的圖像識(shí)別流程中,首先進(jìn)行圖像采集,獲取到原始的圖像數(shù)據(jù);接著進(jìn)行圖像預(yù)處理,對(duì)圖像進(jìn)行去噪、增強(qiáng)等操作,以改善圖像質(zhì)量;然后進(jìn)行特征提取,從預(yù)處理后的圖像中提取出有用的特征信息;最后進(jìn)行圖像識(shí)別,根據(jù)提取的特征進(jìn)行分類和識(shí)別。因此,正確的流程是圖像采集→圖像預(yù)處理→特征提取→圖像識(shí)別,對(duì)應(yīng)選項(xiàng)B。114.以下哪個(gè)不是提示工程中常用的提示策略?115.ModelArts自動(dòng)學(xué)習(xí)的使用流程是什么?A、部署上線->模型訓(xùn)練->數(shù)據(jù)標(biāo)注B、模型訓(xùn)練->數(shù)據(jù)標(biāo)注->部署上線C、數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線D、數(shù)據(jù)標(biāo)注->部署上線->模型訓(xùn)練解析:這道題考察的是對(duì)ModelArts自動(dòng)學(xué)習(xí)使用流程的理解。在機(jī)器學(xué)習(xí)項(xiàng)目中,通常的流程是先進(jìn)行數(shù)據(jù)標(biāo)注,以便為模型訓(xùn)練提供準(zhǔn)確的輸入;接著進(jìn)行模型訓(xùn)練,使用標(biāo)注好的數(shù)據(jù)來(lái)訓(xùn)練模型;最后進(jìn)行部署上線,將訓(xùn)練好的模型部署到實(shí)際的應(yīng)用場(chǎng)景中。因此,正確的使用流程應(yīng)該是數(shù)據(jù)標(biāo)注->模型訓(xùn)練->部署上線,選項(xiàng)D正確。116.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?C、后面的模型必須建立在前面的模型之上D、相關(guān)關(guān)系解析:在Bagging集成學(xué)習(xí)方法中,每個(gè)基學(xué)習(xí)器是通過(guò)從原始數(shù)據(jù)集中隨機(jī)抽取樣本(有放回)來(lái)訓(xùn)練的。這意味著每個(gè)基學(xué)習(xí)器的訓(xùn)練數(shù)據(jù)集是獨(dú)立的,但由于都是從同一原始數(shù)據(jù)集中抽取,所以基學(xué)習(xí)器之間存在一定的相關(guān)性,尤其是在處理有偏數(shù)據(jù)集時(shí)。因此,它們之間的關(guān)系是相關(guān)關(guān)系,而不是相加關(guān)系、依賴關(guān)系或完全獨(dú)立。117.以下哪一項(xiàng)不屬于人工智能技術(shù)帶來(lái)的爭(zhēng)議性問(wèn)題?B、高鐵站利用計(jì)算機(jī)視覺(jué)技術(shù)進(jìn)行人臉識(shí)別,快速完成身份信息比對(duì)。C、通過(guò)圖像處理技術(shù),很多減肥藥廣告可以改變?nèi)宋锏耐庥^以達(dá)到減肥前后的對(duì)比D、通過(guò)圖像處理技術(shù),把犯罪嫌疑人P在一個(gè)從未去過(guò)的地方或?qū)⑺c未見(jiàn)過(guò)的人放在一起以此來(lái)制造假證據(jù)解析:人工智能技術(shù)的爭(zhēng)議性通常與其在倫理、隱私、安全等方面的應(yīng)用有關(guān)。選項(xiàng)A描述了利用GAN網(wǎng)絡(luò)生成虛假家居圖像以欺騙消費(fèi)者,這涉及到倫理和欺詐問(wèn)題。選項(xiàng)C和D都涉及到圖像處理技術(shù)用于制造虛假信息,無(wú)論是減肥藥廣告的效果還是犯罪證據(jù),都涉及到倫理和法律問(wèn)題。而選項(xiàng)B描述的是高鐵站利用計(jì)算機(jī)視覺(jué)技術(shù)進(jìn)行人臉識(shí)別以快速完成身份信息比對(duì),這是一種提高效率和安全性的應(yīng)用,并未直接涉及到爭(zhēng)議性問(wèn)題。因此,選項(xiàng)B是不屬于人工智能技術(shù)帶來(lái)的爭(zhēng)議性問(wèn)題的正確答案。118.MindSpore在提升計(jì)算性能方面做了很多優(yōu)化,下面哪項(xiàng)不屬于優(yōu)化的內(nèi)容?A、On-Device執(zhí)行C、內(nèi)存專用D、深度圖優(yōu)化解析:這道題考察的是對(duì)MindSpore計(jì)算性能優(yōu)化措施的了解。MindSpore作為一個(gè)深度學(xué)習(xí)框架,為了提升計(jì)算性能,確實(shí)采取了行則是一種并行計(jì)算方式,可以提高計(jì)算效率;內(nèi)存專用是指為計(jì)算任務(wù)分配專用內(nèi)存,減少內(nèi)存競(jìng)爭(zhēng),從而提升性能。而深度圖優(yōu)化并非MindSpore的計(jì)算性能優(yōu)化措施,它更多關(guān)聯(lián)于圖像處理領(lǐng)域,與計(jì)算性能優(yōu)化不直接相關(guān)。因此,選項(xiàng)DA、輸入門(mén)C、記憶門(mén)D、輸出門(mén)的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它通過(guò)引入三個(gè)“門(mén)”結(jié)構(gòu)來(lái)控制信息的流動(dòng),分別是遺忘門(mén)、輸入門(mén)和輸出門(mén)。這三個(gè)門(mén)分別負(fù)責(zé)決定哪些信息應(yīng)該被遺忘、哪些新信息應(yīng)該被存儲(chǔ)以及哪些信息應(yīng)該被輸出。而“記憶門(mén)”并不是LSTM結(jié)構(gòu)中的一部分,因此選項(xiàng)C是不屬于LSTM的。B、并行計(jì)算能力C、串行計(jì)算能力D、從內(nèi)存調(diào)用數(shù)據(jù)的能力解析:并行計(jì)算是對(duì)矩陣計(jì)算加速的一種有效方法,GPU在對(duì)圖像進(jìn)行訓(xùn)練是,采用了并行計(jì)算進(jìn)行加速121.以下哪一項(xiàng)是語(yǔ)音合成的簡(jiǎn)稱?()解析:TextToSpeech,文語(yǔ)轉(zhuǎn)換,即語(yǔ)音合成122.以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?A、目標(biāo)檢測(cè)解析:圖像識(shí)別服務(wù)主要處理和分析圖像數(shù)據(jù),用于識(shí)別圖像中的目標(biāo)、場(chǎng)景等內(nèi)容。選項(xiàng)A“目標(biāo)檢測(cè)”是圖像識(shí)別的一個(gè)應(yīng)用,用于檢測(cè)圖像中的特定目標(biāo);選項(xiàng)B“智能相冊(cè)”通常利用圖像識(shí)別技術(shù)來(lái)自動(dòng)分類和整理照片;選項(xiàng)C“場(chǎng)景分析”也是圖像識(shí)別的一個(gè)應(yīng)用,用于理解和分析圖像中的場(chǎng)景。而選項(xiàng)D“語(yǔ)音合成”是語(yǔ)音處理領(lǐng)域的技術(shù),與圖像識(shí)別無(wú)關(guān),它涉及將文本轉(zhuǎn)換為語(yǔ)音輸出。因123.數(shù)據(jù)管理中的物體檢測(cè)作業(yè)如何標(biāo)注?A、給圖片輸入類別標(biāo)簽B、用矩陣框住目標(biāo)C、用橢圓框住目標(biāo)D、用圓形框住目標(biāo)解析:在數(shù)據(jù)管理中的物體檢測(cè)作業(yè)中,通常使用圖像標(biāo)注的方式對(duì)目標(biāo)進(jìn)行標(biāo)記。具體來(lái)說(shuō),可以通過(guò)在圖像上用矩形、圓形或其他形狀框住目標(biāo)的方式來(lái)標(biāo)注物體。因此,選項(xiàng)B“用矩陣框住目標(biāo)”是正確的。124.人工智能應(yīng)用領(lǐng)域只有計(jì)算機(jī)視覺(jué)和語(yǔ)音處理。”關(guān)于上述描述,以下哪一個(gè)說(shuō)法是正確的?A、該說(shuō)法錯(cuò)誤,AI應(yīng)用領(lǐng)域應(yīng)包括計(jì)算機(jī)視覺(jué)、語(yǔ)音處理和自然語(yǔ)言處理等領(lǐng)域B、該說(shuō)法正確,計(jì)算機(jī)視覺(jué)是最重復(fù)的AI應(yīng)用領(lǐng)域。C、該說(shuō)法錯(cuò)誤,AI應(yīng)用領(lǐng)域只有計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理D、該說(shuō)法正確、語(yǔ)音處建以極高的準(zhǔn)確率處理語(yǔ)音數(shù)據(jù)。解析:這道題考察對(duì)人工智能應(yīng)用領(lǐng)域的了解。人工智能(AI)的應(yīng)用遠(yuǎn)不止計(jì)算機(jī)視覺(jué)和語(yǔ)音處理,它還包括自然語(yǔ)言處理、機(jī)器學(xué)習(xí)、機(jī)器人技術(shù)等多個(gè)領(lǐng)域。因此,原描述“人工智能應(yīng)用領(lǐng)域只有計(jì)算機(jī)視覺(jué)和語(yǔ)音處理”是不準(zhǔn)確的。解析:A選項(xiàng)正確,因?yàn)锳l的應(yīng)用領(lǐng)域廣泛,不僅限于計(jì)算機(jī)視覺(jué)和語(yǔ)音處理,還包括自然語(yǔ)言處理等其他重要領(lǐng)域。125.在全連接結(jié)構(gòu)中,使用一個(gè)包含1000個(gè)神經(jīng)元的隱藏層處理一張100*100分辨率的圖片,不考慮偏置項(xiàng),以下哪一項(xiàng)是正確的參數(shù)量?答案:D解析:這道題考察的是全連接層參數(shù)量的計(jì)算。在全連接層中,每個(gè)神經(jīng)元都與前一層的所有神經(jīng)元相連。因此,參數(shù)量等于前一層的神經(jīng)元數(shù)量乘以當(dāng)前層的神經(jīng)元數(shù)量。在這個(gè)問(wèn)題中,輸入層(即圖片)有100*100=10000個(gè)神經(jīng)元,隱藏層有1000個(gè)神經(jīng)元,所以參數(shù)量是10000*1000=10000000。因此,正確答案是D。126.下列哪一項(xiàng)屬于Mindspore的網(wǎng)絡(luò)結(jié)構(gòu)算子?A、mindspor解析:MindSpore是一種深度學(xué)習(xí)框架,其網(wǎng)絡(luò)結(jié)構(gòu)算子主要指的是用于構(gòu)建神經(jīng)網(wǎng)絡(luò)的各種層和操作。在給定的選項(xiàng)中,我們需要找到屬于MindSpore框架的網(wǎng)絡(luò)結(jié)構(gòu)算子。A選項(xiàng)`mindspore.nn.Dense`通常指的是全連接層(DenseLayer),這是神經(jīng)網(wǎng)絡(luò)中常用的一種層結(jié)構(gòu),屬于MindSpore的網(wǎng)絡(luò)結(jié)構(gòu)算子。B選項(xiàng)`mindspore.layer.Dense'并不是MindSpore的標(biāo)準(zhǔn)API,可能是用戶自定義的層或者與其他庫(kù)相關(guān)的層。C和D選項(xiàng)涉及到的`FC(FullyConnected)層,雖然也是神經(jīng)網(wǎng)絡(luò)中的常見(jiàn)層,但它們并不是MindSpore的直接API。因此,根據(jù)MindSpore的標(biāo)準(zhǔn)API和命名規(guī)范,正確答案是A、`mindspore.nn.Dense'。127.查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?-解析:為了檢查Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功,應(yīng)該使用npusiminfo命令。這個(gè)命令可以提供有關(guān)加速卡及其驅(qū)動(dòng)程序的信息,包括驅(qū)動(dòng)程序的版本、狀態(tài)等。其他選項(xiàng)B、C、D并不適用于檢查加速卡驅(qū)動(dòng)是否安裝成功的情況。答案:C解析:這道題考查對(duì)NNLM模型中網(wǎng)絡(luò)輸出層激活函數(shù)的了解。在自然語(yǔ)言處理模輸出層通常需要對(duì)多種可能的結(jié)果進(jìn)行概率預(yù)測(cè),Softmax函數(shù)能很好地滿足這一需求,所以答案選C。129.MindX包括多個(gè)組件,提供了集群調(diào)度、邊緣推理、應(yīng)用快速開(kāi)發(fā)等功能,其中哪個(gè)組件提供了開(kāi)源模型下載功能?答案:C解析:ModelZoo是一個(gè)模型倉(cāng)庫(kù),提供了大量的開(kāi)源模型下載,包括圖像分類、目標(biāo)檢測(cè)、語(yǔ)音識(shí)別等多種領(lǐng)域的模型。用戶可以在ModelZoo中找到自己需要的模型,并下載到本地進(jìn)行使用。因此,選項(xiàng)C是正確的答案。130.以下哪一項(xiàng)是異騰310芯片的功耗?A、8W解析:昇騰310為推理芯片,最大功耗8W;昇騰910為訓(xùn)練芯片,最大功耗310W131.根據(jù)所選特征評(píng)估標(biāo)準(zhǔn),從上至下遞歸地生成子節(jié)點(diǎn),直到數(shù)據(jù)集不可分則決策樹(shù)停止生長(zhǎng),以下哪一個(gè)選項(xiàng)代表的是決策樹(shù)構(gòu)建過(guò)程中的這一步驟?C、數(shù)據(jù)集重構(gòu)解析:在決策樹(shù)構(gòu)建過(guò)程中,生成決策樹(shù)是一個(gè)重要的步驟。根據(jù)題意,特征選擇、數(shù)據(jù)集重構(gòu)和剪枝都不是正確的選項(xiàng),因?yàn)樗鼈儾⒉恢苯由婕皼Q策樹(shù)的生長(zhǎng)過(guò)程。相反,當(dāng)數(shù)據(jù)集被完全處理完畢,已經(jīng)確定了所有的節(jié)點(diǎn)后,我們可能需要對(duì)其進(jìn)行修剪,以減少不必要的復(fù)雜性,防止過(guò)擬合,從而使決策樹(shù)更易于理解和應(yīng)用。但這些是在決策樹(shù)構(gòu)建完成之后進(jìn)行的步驟,而題目要求的是決策樹(shù)構(gòu)建過(guò)程中的步驟。因此,為A決策樹(shù)生成。132.自拍時(shí),手機(jī)前置鏡頭顯示的畫(huà)面需要通過(guò)哪個(gè)變換后,才是真實(shí)的場(chǎng)景圖像?C、垂直鏡像解析:這道題考察的是對(duì)手機(jī)前置鏡頭成像原理的理解。手機(jī)前置鏡頭拍攝時(shí),由于鏡頭的朝向和顯示方式,通常會(huì)顯示出一個(gè)鏡像的畫(huà)面。這個(gè)鏡像是在水平方向上進(jìn)行的,即左右顛倒,而不是上下顛倒或旋轉(zhuǎn)。因此,為了得到真實(shí)的場(chǎng)景圖像,需要對(duì)前置鏡頭顯示的畫(huà)面進(jìn)行水平鏡像變換。所以正確答案是D133.機(jī)器學(xué)習(xí)中,從獲取數(shù)據(jù)到正式放入模型之前,以下哪一個(gè)選項(xiàng)不是這個(gè)過(guò)程的一部分?解析:這道題考察的是機(jī)器學(xué)習(xí)數(shù)據(jù)預(yù)處理流程的理解。在機(jī)器學(xué)習(xí)中,數(shù)據(jù)預(yù)處理是模型訓(xùn)練前的重要步驟,它包括數(shù)據(jù)清理(去除噪聲、異常值等)、數(shù)據(jù)標(biāo)準(zhǔn)化(使數(shù)據(jù)符合一定的分布或范圍)、數(shù)據(jù)降維(減少數(shù)據(jù)特征的數(shù)量以提高計(jì)算效率)等。而數(shù)據(jù)可視化通常是在數(shù)據(jù)預(yù)處理之后,用于幫助理解數(shù)據(jù)分布和模型表現(xiàn),不屬于預(yù)處理流程的一部分。因此,選項(xiàng)D“數(shù)據(jù)可視化”不是從獲取數(shù)據(jù)到正式放入模型之前的過(guò)程的一部分。134.以下方法中屬于特征選擇嵌入法(Embedded)的是哪一項(xiàng)?B、特征遞歸消除法解析:特征選擇嵌入法(Embedded)是一種通過(guò)引入某種約束條件來(lái)選擇特征的方法。其中,L1正則是一種常見(jiàn)的約束條件,它通過(guò)懲罰具有較大系數(shù)的特征來(lái)抑制過(guò)擬合,從而選擇出重要的特征。因此,選項(xiàng)A“L1正則”是正確的。135.大語(yǔ)言模型基于Transformer架構(gòu)延伸出不同種路線圖?解析:BERT(BidirectionalEncoderRepresentationsfromTransformers)是一種基于Transformer架構(gòu)的預(yù)訓(xùn)練語(yǔ)言模型。在Transformer架構(gòu)中,存在Encoder (編碼器)和Decoder(解碼器)兩個(gè)主要部分。BERT只使用了Encoder部分進(jìn)行訓(xùn)練,以生成雙向的上下文表示。因此,BERT屬于Encoder-Only的路線圖,即只包含編碼器部分的架構(gòu)。所以,正確答案是A。136.以下關(guān)于KNN算法的描述中,哪一項(xiàng)是錯(cuò)誤的?A、如果一個(gè)樣本在特征空間中的k個(gè)最鄰近的樣本中的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別。D、KNN比較適合使用在樣本數(shù)量比較大的數(shù)據(jù)集中該算法更適合處理樣本數(shù)量相對(duì)較少,但類別數(shù)量較多的情況。因?yàn)閷?duì)于樣本數(shù)量大的數(shù)據(jù)集,計(jì)算復(fù)雜度會(huì)很高,而KNN算法主要通過(guò)投票機(jī)制來(lái)決定類別,對(duì)于樣本數(shù)量大的數(shù)據(jù)集,投票機(jī)制可能會(huì)變得不準(zhǔn)確。137.以下關(guān)于樸素貝葉斯的說(shuō)法中,哪一項(xiàng)是錯(cuò)誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫(kù)具有較高的準(zhǔn)確性和快速的速度B、樸素貝葉斯的“樸素”,指的是該方法需要假設(shè)各個(gè)特征之間是獨(dú)立的C、樸素貝葉斯是一種簡(jiǎn)單的多分類算法D、樸素貝葉斯算法依賴于
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 老年慢性病家庭醫(yī)生簽約綜合干預(yù)方案
- 2026年及未來(lái)5年市場(chǎng)數(shù)據(jù)中國(guó)道路運(yùn)輸行業(yè)市場(chǎng)發(fā)展數(shù)據(jù)監(jiān)測(cè)及投資戰(zhàn)略規(guī)劃報(bào)告
- 進(jìn)爵童子介紹
- 上海入團(tuán)考試題及答案
- 合規(guī)培訓(xùn)教學(xué)課件
- 2026年國(guó)際經(jīng)濟(jì)合作與跨國(guó)企業(yè)管理試題
- 2026年旅游管理專業(yè)知識(shí)要點(diǎn)自測(cè)題含答案
- 雨課堂學(xué)堂在線學(xué)堂云傳統(tǒng)文化與明德修身(山東外國(guó)語(yǔ)職業(yè)技術(shù)大學(xué))單元測(cè)試考核答案
- 2026中國(guó)地質(zhì)調(diào)查局長(zhǎng)沙自然資源綜合調(diào)查中心招聘36人備考題庫(kù)及一套答案詳解
- 2026廣東清遠(yuǎn)上帥鎮(zhèn)人民政府公益性崗位招聘2人的備考題庫(kù)及完整答案詳解
- pvc地膠施工方案
- 河南省三門(mén)峽市2024-2025學(xué)年高二上學(xué)期期末調(diào)研考試英語(yǔ)試卷(含答案無(wú)聽(tīng)力音頻及聽(tīng)力原文)
- 睡眠科普課課件
- (正式版)DB15∕T 3227-2023 《集中供熱單位產(chǎn)品能耗限額》
- 蘇教版數(shù)學(xué)三年級(jí)上冊(cè)備課計(jì)劃
- 2025年中遠(yuǎn)海運(yùn)集團(tuán)招聘筆試備考題庫(kù)(帶答案詳解)
- 大采高綜采工作面操作規(guī)程
- 保密車間出入管理制度
- 智能網(wǎng)聯(lián)汽車技術(shù)課件:車路協(xié)同控制
- 勞務(wù)派遣培訓(xùn)計(jì)劃方案
- 空氣能熱泵中央熱水系統(tǒng)調(diào)試
評(píng)論
0/150
提交評(píng)論