人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷1)_第1頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷1)_第2頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷1)_第3頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷1)_第4頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷1)_第5頁(yè)
已閱讀5頁(yè),還剩53頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷1)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共132題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.在某神經(jīng)網(wǎng)絡(luò)的隱層輸出中,包含1.5,那么該神經(jīng)網(wǎng)絡(luò)采用的激活函數(shù)可能是A)sigmoidB)tanhC)reluD)以上都不對(duì)答案:C解析:[單選題]2.灰度數(shù)字圖像是每個(gè)()只有一個(gè)采樣顏色的圖像。A)像素B)坐標(biāo)C)數(shù)值D)元素答案:A解析:灰度數(shù)字圖像是每個(gè)像素只有一個(gè)采樣顏色的圖像。[單選題]3.如圖所示,當(dāng)開(kāi)始訓(xùn)練時(shí),誤差一直很高,這是因?yàn)樯窠?jīng)網(wǎng)絡(luò)在往全局最小值前進(jìn)之前一直被卡在局部最小值里。為了避免這種情況,我們可以采取下面哪種策略?A)一開(kāi)始將學(xué)習(xí)速率減小10倍,然后用動(dòng)量項(xiàng)(momentum)B)增加參數(shù)數(shù)目,這樣神經(jīng)網(wǎng)絡(luò)就不會(huì)卡在局部最優(yōu)處C)改變學(xué)習(xí)速率,比如一開(kāi)始的幾個(gè)訓(xùn)練周期不斷更改學(xué)習(xí)率速率D)以上都不對(duì)答案:D解析:[單選題]4.上圖中激活函數(shù)屬于哪一個(gè)?A)SigmoidB)LeakyReLUC)tanhD)Relu答案:C解析:tanh[單選題]5.下列關(guān)于RNN說(shuō)法正確的是A)有幾個(gè)時(shí)間步,就有幾個(gè)RNN單元B)時(shí)間步數(shù)量和RNN數(shù)量無(wú)關(guān)C)RNN可以很好處理梯度爆炸問(wèn)題D)RNN可以解決語(yǔ)義遺忘問(wèn)題答案:B解析:[單選題]6.Tf.equal(0,False)的結(jié)果是A)1B)0C)TrueD)False答案:C解析:[單選題]7.下面不屬于Python特性的是()。A)解釋型B)靜態(tài)C)動(dòng)態(tài)D)面向?qū)ο蟠鸢?B解析:難易程度:中題型:[單選題]8.GoogLeNet層數(shù)很深,是()層網(wǎng)絡(luò),為了避免上述提到的梯度消失問(wèn)題,googlenet巧妙的在不同深度處增加了兩個(gè)loss來(lái)保證梯度回傳消失的現(xiàn)象。A)152B)22C)8D)5答案:B解析:[單選題]9.關(guān)于時(shí)間相關(guān)類,下列說(shuō)法錯(cuò)誤的是()。A)Timestamp是存放某個(gè)時(shí)間點(diǎn)的類B)Period是存放某個(gè)時(shí)間段的類C)Timestamp數(shù)據(jù)可以使用標(biāo)準(zhǔn)的時(shí)間str轉(zhuǎn)換得來(lái)D)兩個(gè)數(shù)值上相同的Period和Timestamp所代表的意義相同答案:D解析:難易程度:中題型:[單選題]10.A=?241?2,B=24?3?6,求BA()。A)1001B)0000C)?1001D)1111答案:B解析:難易程度:易題型:[單選題]11.自然語(yǔ)言處理領(lǐng)域中,判斷兩個(gè)單詞是不是一對(duì)上下文詞(context)與目標(biāo)詞(target),如果是一對(duì),則是()?A)負(fù)樣本B)無(wú)效樣本C)學(xué)習(xí)樣本D)正樣本答案:D解析:[單選題]12.在典型的Batch歸一化運(yùn)用中需要用什么來(lái)估算A)一個(gè)指數(shù)加權(quán)平均B)平均值C)方差D)最大值答案:A解析:[單選題]13.實(shí)際開(kāi)發(fā)過(guò)程中,關(guān)于訓(xùn)練集,驗(yàn)證集,測(cè)試集說(shuō)法錯(cuò)誤的是:A)可以直接使用訓(xùn)練集來(lái)驗(yàn)證算子的準(zhǔn)確率B)訓(xùn)練集用于算子的擬合C)驗(yàn)證集和測(cè)試集用來(lái)評(píng)判算子的準(zhǔn)確度D)可以不配置驗(yàn)證集答案:A解析:[單選題]14.關(guān)于agg方法,下列說(shuō)法錯(cuò)誤的是()。A)返回標(biāo)量值和數(shù)組B)可接收Numpy函數(shù)C)可對(duì)分組的不同列指定作用的函數(shù)D)可同時(shí)接收多個(gè)函數(shù)答案:A解析:難易程度:中題型:[單選題]15.局部平均值又被稱為A)常規(guī)平均值B)柵格平均值C)移動(dòng)平均值D)唯一平均值答案:C解析:[單選題]16.假設(shè)下方是傳入最大池化層的一個(gè)輸入,該層中神經(jīng)元的池化大小為(3,3)。那么,該池化層的輸出是多少?A)3B)7C)5D)5.5答案:B解析:[單選題]17.與學(xué)習(xí)率不同,()不影響計(jì)算訓(xùn)練時(shí)間。批量大小受硬件內(nèi)存的限制,而學(xué)習(xí)率則不然。建議使用適合硬件內(nèi)存的較大批量大小,并使用更大的學(xué)習(xí)速率。A)批量大小B)學(xué)習(xí)率C)動(dòng)量D)權(quán)重衰減答案:A解析:[單選題]18.Batch歸一化在神經(jīng)網(wǎng)絡(luò)中的作用不包括A)減少了隱藏值分布變化的數(shù)量B)減少了輸入值改變的問(wèn)題C)有輕微的正則化效果D)增加了輸入值改變的問(wèn)題答案:D解析:[單選題]19.想要處理梯度消失,相對(duì)最好的激活函數(shù)是:A)sigmoidB)ReluC)tanhD)LeakyRelu答案:D解析:[單選題]20.深度學(xué)習(xí)屬于人工智能三大主義(symbolicism、connectionism、actionism)中的()主義A)連接主義B)符號(hào)主義C)行為主義D)CAD答案:A解析:[單選題]21.張量A的shape為[4,1,3],執(zhí)行squeeze(A.以后,A)[4,3,1]B)[2,1,3]C)[4,3]D)[4,0,3]答案:C解析:[單選題]22.Python語(yǔ)言提供的3個(gè)基本數(shù)字類型是()。A)整數(shù)類型、二進(jìn)制類型、浮點(diǎn)數(shù)類型B)十進(jìn)制類型、二進(jìn)制類型、十六進(jìn)制類型C)整數(shù)類型、二進(jìn)制類型、復(fù)數(shù)類型D)整數(shù)類型、浮點(diǎn)數(shù)類型、復(fù)數(shù)類型答案:D解析:難易程度:易題型:[單選題]23.實(shí)踐中,Batch歸一化通常和什么一起使用A)訓(xùn)練集的mini-batchB)測(cè)試集的mini-batchC)整個(gè)訓(xùn)練集D)整個(gè)測(cè)試集答案:A解析:[單選題]24.關(guān)于聚類,下列說(shuō)法錯(cuò)誤的是()。A)聚類屬于無(wú)監(jiān)督算法B)聚類可用于數(shù)據(jù)預(yù)處理中的數(shù)據(jù)離散化C)聚類的劃分原則是樣本距離最小化D)聚類是根據(jù)數(shù)據(jù)相似度進(jìn)行樣本分組的方法答案:C解析:難易程度:中題型:[單選題]25.卷積核的大小對(duì)于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎?CA)聽(tīng)說(shuō)過(guò)B)是C)否D)知道答案:C解析:[單選題]26.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,處理它并給出一個(gè)輸出。這里是一個(gè)真實(shí)的神經(jīng)元的圖解表示。下列關(guān)于神經(jīng)元的陳述中哪一個(gè)是正確的?A)一個(gè)神經(jīng)元只有一個(gè)輸入和一個(gè)輸出B)一個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出C)一個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出D)上述都正確答案:D解析:[單選題]27.Tf.nn.softmax_cross_entropy_with_logits函數(shù)是TensorFlow中常用的求()的函數(shù),即計(jì)算labels和logits之間的交叉熵(crossentropy)A)信息熵B)信息元C)logitsD)交叉熵答案:D解析:[單選題]28.下面對(duì)面向?qū)ο蠛兔嫦蜻^(guò)程描述正確的是:()。A)面向?qū)ο缶幊瘫让嫦蜻^(guò)程編程更為高級(jí)B)面向?qū)ο蠛兔嫦蜻^(guò)程是編程語(yǔ)言的分類依據(jù)C)面向?qū)ο蠛兔嫦蜻^(guò)程是編程語(yǔ)言的結(jié)構(gòu)不清晰D)所有面向?qū)ο缶幊棠軐?shí)現(xiàn)的功能采用面向過(guò)程同樣能完成答案:D解析:難易程度:易題型:[單選題]29.Sys模塊包含了與Python解釋器和它的環(huán)境有關(guān)的函數(shù),常用的語(yǔ)句是?A)importsysB)importosC)importrandomD)importmath答案:A解析:[單選題]30.lstm中的門,使用哪個(gè)激活函數(shù)控制A)reluB)sigmoidC)tanhD)softmax答案:B解析:[單選題]31.從上升速度來(lái)看所有的函數(shù)的,上升最慢的是A)線性函數(shù)B)指數(shù)函數(shù)C)冪函數(shù)D)對(duì)數(shù)函數(shù)答案:D解析:[單選題]32.tensorflow中,數(shù)據(jù)喂入主要使用什么參數(shù)完成?A)PlaceholderB)ConstantC)Feed_dictD)Variable答案:C解析:[單選題]33.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來(lái)解決問(wèn)題?DA)蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)B)預(yù)測(cè)C)來(lái)粒子的檢測(cè)D)所有這些答案:D解析:[單選題]34.a=tf.constant([1,2,3,4])b=a.transpose(2,3,1,0)的結(jié)果是A)[1,2,3,4B)[4,3,2,1]C)[3,2,4,1]D)[3,4,2,1]答案:D解析:[單選題]35.在tf函數(shù)中,通常需將一個(gè)變量的值賦給另一個(gè)變量,可以使用編程語(yǔ)句是()A)tf.assign()B)tf.sub()C)tf.add()D)tf.eqeal()答案:A解析:[單選題]36.optimizer.step()A)計(jì)算步數(shù)B)返回當(dāng)前迭代代價(jià)值C)更新權(quán)重D)計(jì)算準(zhǔn)確率答案:C解析:[單選題]37.你有一個(gè)15x15x8的輸入,并使用?pad=2?進(jìn)行填充,填充后的尺寸是多少?A)17x17x10B)19x19x8C)19x19x12D)17x17x8答案:B解析:[單選題]38.()是一種實(shí)現(xiàn)機(jī)器學(xué)習(xí)的技術(shù)A)深度學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)人工智能D)量子力學(xué)答案:A解析:[單選題]39.表示關(guān)系表中的每一橫行的是()。A)碼B)列C)屬性D)元組答案:D解析:難易程度:易題型:[單選題]40.相對(duì)而言,最好梯度下降的算法是A)momentumB)adagradC)rmspropD)adam答案:D解析:[單選題]41.YOLO的英文全稱是什么?A)YouOnlyLookOnlyB)YouOnlyLikeOnceC)YouOnlyLookOneD)YouOnlyLookOnce答案:D解析:[單選題]42.Xavier初始化是最為常用的神經(jīng)網(wǎng)絡(luò)權(quán)重初始化方法,下圖是初始化的公式。Xavier初始化是用來(lái)幫助信號(hào)能夠在神經(jīng)網(wǎng)絡(luò)中傳遞得更深,下面哪些敘述是對(duì)的?1如果權(quán)重一開(kāi)始很小,信號(hào)到達(dá)最后也會(huì)很小2如果權(quán)重一開(kāi)始很大,信號(hào)到達(dá)最后也會(huì)很大3Xavier初始化是由高斯發(fā)布引出的4Xavier初始化可以幫助減少梯度彌散問(wèn)題BA)234B)1234C)124D)134答案:B解析:[單選題]43.Tensorflow中,tf.argmax()返回最大數(shù)值的(),通常和tf.equal()一起使用,計(jì)算模型準(zhǔn)確度A)上標(biāo)B)下標(biāo)C)坐標(biāo)D)內(nèi)積答案:B解析:[單選題]44.訓(xùn)練時(shí)使用()隨機(jī)忽略一部分神經(jīng)元,以避免模型過(guò)擬合。在AlexNet中主要是最后幾個(gè)全連接層使用了這個(gè)環(huán)節(jié)。A)DropoutB)Conv2dC)max-poolD)FC6-8答案:A解析:[單選題]45.pytorch繼承nn.Module基類層一般在()定義A)__init__B)forwardC)backwardD)call答案:A解析:[單選題]46.交叉熵描述的是()之間的距離A)概率分布B)平均值C)預(yù)測(cè)值與真實(shí)值D)以上都不對(duì)答案:A解析:[單選題]47.關(guān)于數(shù)據(jù)組織的維度,以下選項(xiàng)中描述錯(cuò)誤的是()A)一維數(shù)據(jù)采用線性方式組織,對(duì)應(yīng)于數(shù)學(xué)中的數(shù)組和集合等概念B)二維數(shù)據(jù)采用表格方式組織,對(duì)應(yīng)于數(shù)學(xué)中的矩陣C)高維數(shù)據(jù)有鍵值對(duì)類型的數(shù)據(jù)構(gòu)成,采用對(duì)象方式組織D)數(shù)據(jù)組織存在維度,字典類型用于表示一維和二維數(shù)據(jù)答案:D解析:難易程度:易題型:[單選題]48.梯度下降法的關(guān)鍵是()。A)找到損失函數(shù)最小值B)找到損失函數(shù)平均值C)找到損失函數(shù)中間值D)找到損失函數(shù)均方誤差值答案:A解析:難易程度:易題型:[單選題]49.在keras的自帶模型中,MobileNet模型的默認(rèn)輸入尺寸是()A)224x224B)244x244C)299x299D)229x229答案:A解析:[單選題]50.從輸入層到(),再到輸出層。逐層計(jì)算每一個(gè)節(jié)點(diǎn)對(duì)其下一層節(jié)點(diǎn)的影響,這就是前向傳播算法A)輸出層B)隱藏層C)輸入層D)激活函數(shù)層答案:B解析:[單選題]51.以下哪個(gè)是門控循環(huán)單元A)LSTMB)GRUC)CNND)RNN答案:B解析:[單選題]52.LSTM中,哪個(gè)門的作用是?決定我們會(huì)從細(xì)胞狀態(tài)中丟棄什么信息??A)輸入門B)遺忘門C)輸出門D)更新門答案:B解析:[單選題]53.以下選項(xiàng)中,不是Python中文件操作的相關(guān)函數(shù)是()。A)write()B)open()C)readlines()D)writelines()答案:D解析:難易程度:易題型:[單選題]54.在tf中將變量A的值賦給B的語(yǔ)句是()A)tf.assignB)tf.subC)tf.addD)tf.eqeal答案:A解析:[單選題]55.一種比Onehot更加有效的對(duì)離散特征進(jìn)行編碼的方法。一般用于將輸入中的單詞映射為稠密向量。嵌入層的參數(shù)需要學(xué)習(xí)。A)EmbeddingB)LSTMC)GRUD)SimpleRNN答案:A解析:[單選題]56.item()在pytorch中的作用是A)獲取數(shù)據(jù)值B)獲取維度C)獲取梯度D)獲取降維后的結(jié)果答案:A解析:[單選題]57.雙曲正切函數(shù)tanh是,它總體上()S型函數(shù)A)優(yōu)于B)劣于C)等于D)大于等于答案:A解析:[單選題]58.已知:大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來(lái)形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?AA)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個(gè)圖形識(shí)別的問(wèn)題時(shí)D)都不正確答案:A解析:[單選題]59.實(shí)現(xiàn)帶偏置的卷積操作的運(yùn)算是:A)conv_ret1=conv2d(x_image,W_conv1)+b_conv1B)conv_ret1=conv2d(x_image,W_conv1+b_conv1)C)conv_ret1=conv2d(x_image,W_conv1,b_conv1)D)conv_ret1=conv2d(x_image,W_conv1)答案:A解析:[單選題]60.以下選項(xiàng)中不是Python數(shù)據(jù)分析的第三方庫(kù)的是()A)numpyB)scipyC)pandasD)requests答案:D解析:難易程度:易題型:[單選題]61.在CNN中使用1X1卷積時(shí),下列哪一項(xiàng)是正確的?()A)它可以幫助降低維數(shù)B)可以用于特征池C)由于小的內(nèi)核大小,它會(huì)減少過(guò)擬合D)所有上述答案:D解析:[單選題]62.在深度學(xué)習(xí)中,前向算法就是有了聯(lián)結(jié)權(quán)重w和()H(x)之后,就可以由前往后面層計(jì)算A)激活函數(shù)B)正弦函數(shù)C)余弦函數(shù)D)Sigmoid函數(shù)答案:A解析:[單選題]63.A=tf.Variable(8.1)Sess.run(tf.assign_add(a,1))A的值是:A)8.1B)8.2C)9.1D)7.1答案:C解析:[單選題]64.不是LSTM的作用的是A)解決梯度消失B)解決梯度爆炸C)使用后面的時(shí)間步,預(yù)測(cè)前面時(shí)間步的結(jié)果D)關(guān)聯(lián)很久以前的時(shí)間步答案:C解析:[單選題]65.基于切比雪夫距離的單位園是一個(gè)A)圓形B)45度的正方型C)正方形,其邊與xy軸平行D)不確定答案:C解析:[單選題]66.面部識(shí)別系統(tǒng)的核心是局部特征分析算法,即()A)LFAB)SIFTC)OPENCVD)CNN+OPENCV答案:A解析:[單選題]67.詞向量技術(shù)是將詞轉(zhuǎn)化成為稠密向量,并且對(duì)于相似的詞,其對(duì)應(yīng)的詞向量也()A)不同B)相等C)相同D)相近答案:D解析:[單選題]68.pytorch中啟動(dòng)tensorboard的指令是:A)notebook.start("--logdir./data/tensorboard")B)notebook.list()C)load_exttensorboardD)writer=SummaryWriter('./data/tensorboard')答案:A解析:[單選題]69.使用二維濾波器滑動(dòng)到被卷積的二維圖像上所有位置,并在每個(gè)位置上與該像素點(diǎn)及其領(lǐng)域像素點(diǎn)做內(nèi)積,這就是()A)一維卷積B)二維卷積C)三維卷積D)四維卷積答案:B解析:[單選題]70.深度學(xué)習(xí)的主要編程語(yǔ)言是()。A)CB)C++C)javaD)python答案:D解析:難易程度:易題型:[單選題]71.Mini-batch指的是A)小批量梯度下降B)隨機(jī)梯度下降C)批量梯度下降D)小批量損失計(jì)算答案:A解析:[單選題]72.在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,監(jiān)督學(xué)習(xí)算法有A)聚類B)降維C)回歸算法D)PCA答案:C解析:[單選題]73.屬于百度飛槳的模型部署組件()。A)X2PaddleB)AutoDLC)VisualDLD)PaddleFL答案:A解析:難易程度:易題型:[單選題]74.以下選項(xiàng)中,Pyhon使用矩陣運(yùn)算是調(diào)用的第三方庫(kù)是()。A)turtleB)matplotlibC)numpyD)time答案:C解析:難易程度:易題型:[單選題]75.刪除DataFrame數(shù)據(jù)的方法不包括()。A)dropB)popC)delD)remove答案:D解析:難易程度:中題型:[單選題]76.pytorch封裝類正向傳播的函數(shù)是:A)callB)forwardC)backD)research答案:B解析:[單選題]77.百度飛槳中訓(xùn)練配置流程的最后一步是()。A)指定運(yùn)行訓(xùn)練的機(jī)器資源B)設(shè)置優(yōu)化算法和學(xué)習(xí)率C)聲明模型實(shí)例D)加載訓(xùn)練和測(cè)試數(shù)據(jù)答案:B解析:難易程度:易題型:[單選題]78.Momentum(動(dòng)量梯度下降法)的參數(shù)β一般默認(rèn)值是A)0.7B)0.8C)0.9D)1答案:C解析:[單選題]79.關(guān)于Python的全局變量和局部變量,以下選項(xiàng)中描述錯(cuò)誤的是()。A)局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時(shí),變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用B)全局變量指在函數(shù)之外定義的變量,-般沒(méi)有縮進(jìn),在程序執(zhí)行全過(guò)程有效C)使用global保留字聲明簡(jiǎn)單數(shù)據(jù)類型變量后,該變量作為全局變量使用D)簡(jiǎn)單數(shù)據(jù)類型變量無(wú)論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放答案:A解析:難易程度:易題型:[單選題]80.對(duì)于MLP,輸入層中的節(jié)點(diǎn)數(shù)為10,隱藏層為5.從輸入層到隱藏層的最大連接數(shù)是()A)50B)小于50C)超過(guò)50D)這是一個(gè)任意值答案:A解析:[單選題]81.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型)。現(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。我們應(yīng)該如何操作?()A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B)對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不對(duì)答案:B解析:[單選題]82.將26x26的圖像做2x2的最大池化,輸出將是多少?A)26x26B)13x13C)56x56D)28x28答案:B解析:[單選題]83.深度學(xué)習(xí)模型訓(xùn)練,一個(gè)訓(xùn)練過(guò)程的完成可以不包含()A)數(shù)據(jù)集加載B)優(yōu)化器設(shè)置C)網(wǎng)絡(luò)搭建D)學(xué)習(xí)率調(diào)整答案:D解析:進(jìn)行深度學(xué)習(xí)模型訓(xùn)練,一個(gè)訓(xùn)練過(guò)程的完成包含以下幾點(diǎn):1.數(shù)據(jù)集加載2.網(wǎng)絡(luò)搭建3.優(yōu)化器設(shè)置4.學(xué)習(xí)率調(diào)整(可選)[單選題]84.下列描述有誤的是()。A)基本流程:創(chuàng)建畫布,繪制圖形,保存展示圖形B)必須先保存圖形才能展示圖形C)添加圖例必須在繪制圖形之后D)創(chuàng)建子圖時(shí),默認(rèn)會(huì)根據(jù)畫布的大小平均分配答案:B解析:難易程度:中題型:[單選題]85.Relu()激活函數(shù)的作用是將大于0的數(shù)保持不變,小于()的數(shù)輸出為0A)-1B)0C)1D)x答案:B解析:[單選題]86.貝努力實(shí)驗(yàn)的基礎(chǔ)概率空間是:A)均勻分布B)高斯分布C)0-1分布D)指數(shù)分布答案:C解析:[單選題]87.A=?241?2,B=24?3?6,求AB()。A)16328?16B)1632?8?16C)?16?32816D)16?328?16答案:C解析:難易程度:易題型:[單選題]88.softmax函數(shù)說(shuō)法錯(cuò)誤的是A)輸出的結(jié)果和為1B)使用于多分類C)可以防止數(shù)據(jù)過(guò)擬合D)輸出的結(jié)果為正類別的概率答案:C解析:softmax沒(méi)有防止數(shù)據(jù)過(guò)擬合的作用[單選題]89.加權(quán)平均值是通過(guò)()得到的A)局部平均值B)局部方差C)全局平均值D)全局方差答案:A解析:[單選題]90.學(xué)習(xí)率的作用是()A)控制參數(shù)更新速度B)減少過(guò)擬合C)減少偏差D)以上都不是答案:A解析:[單選題]91.帶泄露的ReLU函數(shù)是指?A)Sigmoid函數(shù)B)tanh函數(shù)C)ReLUD)leakyReLU答案:D解析:[單選題]92.管道處理是用于()性能A)CPUB)GPUC)TPUD)編譯答案:B解析:[單選題]93.如果我的數(shù)據(jù)大小為150x150,并且我使用的池化大小為2x2,那么生成的圖像將是什么大小?A)149x149B)300x300C)148x148D)75x75答案:D解析:[單選題]94.不能解決梯度消失的是:A)調(diào)整激活函數(shù)類型B)使用batchnormC)增大隱藏層數(shù)量D)訓(xùn)練值預(yù)處理答案:C解析:[單選題]95.全連接神經(jīng)網(wǎng)絡(luò)的主要缺點(diǎn)是()A)網(wǎng)絡(luò)參數(shù)過(guò)多B)網(wǎng)絡(luò)模型復(fù)雜C)網(wǎng)絡(luò)層數(shù)過(guò)多D)以上都不正確答案:A解析:[單選題]96.生成隨機(jī)整數(shù)命令是()。A)importB)random.random(C)random.randint(D)import答案:C解析:難易程度:易題型:[單選題]97.在深度學(xué)習(xí)中的目標(biāo)檢測(cè)中會(huì)檢測(cè)出多個(gè)目標(biāo)框,后期需要通過(guò)非極大值抑制去除得分低并且iou()閾值的目標(biāo)框A)小于B)大于C)等于D)大于或小于答案:B解析:[單選題]98.假設(shè)測(cè)試集的分類標(biāo)簽為test_label,預(yù)測(cè)值為prediction,現(xiàn)在需要計(jì)算按類平均精準(zhǔn)率precision,應(yīng)該使用sklearn庫(kù)中的函數(shù)A)precision_score(test_label,prediction,average='micro')B)precision_score(test_label,prediction,average='macro')C)precision_score(prediction,test_label,average='micro')D)precision_score(prediction,test_label,average='macro')答案:B解析:[單選題]99.20世紀(jì)被稱作第三次科技革命的重要標(biāo)志之一的計(jì)算機(jī)的發(fā)明與應(yīng)用,因?yàn)閿?shù)字計(jì)算機(jī)只能識(shí)別和處理由?0?.?1?符號(hào)串組成的代碼。其運(yùn)算模式是()A)鍵盤B)磁盤C)顯示器D)二進(jìn)制答案:D解析:[單選題]100.在keras的自帶模型中,XceptionV1模型的默認(rèn)輸入尺寸是()A)229x229B)299x299C)224x224D)244x244答案:B解析:[單選題]101.語(yǔ)句W_conv1=weight_variable([5,5,8,32])b_conv1=bias_variable([X])兩句代碼實(shí)現(xiàn)卷積核,其中對(duì)應(yīng)偏置的數(shù)字X應(yīng)該是:A)32B)8C)5D)1答案:A解析:[單選題]102.pytorch控制維度轉(zhuǎn)換的函數(shù)是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:A解析:[單選題]103.在a=tf.Variable([1,2,3]),b=tf.Variable([3,2,1]),經(jīng)過(guò)tf.multiply(a,B.后值為A)[3,4,3]B)10C)運(yùn)算不能進(jìn)行D)結(jié)果是矩陣答案:A解析:[單選題]104.使用pivot_table函數(shù)制作透視表時(shí),要用下列()參數(shù)設(shè)置行分組鍵。A)dataB)valuesC)columnsD)Index答案:D解析:難易程度:中題型:[單選題]105.Keras中,處理二分類的代價(jià)調(diào)用是:A)mseB)binary_crossentropyC)categorical_crossentropyD)sparse_categorical_crossentropy答案:B解析:[單選題]106.Softmax的說(shuō)法正確的是A)主要用于二分類B)算出來(lái)為概率值C)將最小的概率值所對(duì)應(yīng)的類別作為輸入樣本的輸出類別D)所有的概率相加大于1答案:B解析:[單選題]107.計(jì)算數(shù)組中間值的命令正確的是()。A)min()B)max()C)mean()D)median()答案:D解析:難易程度:易題型:[單選題]108.在神經(jīng)網(wǎng)絡(luò)中,下列哪種技術(shù)用于解決過(guò)擬合A)DropoutB)VariableC)SoftmaxD)Relu答案:A解析:[單選題]109.Anaconda是一款()軟件。A)開(kāi)源的python版本,包含conda、python等180多個(gè)科學(xué)包以及其依賴項(xiàng)B)是一款深度學(xué)習(xí)開(kāi)發(fā)軟件,集成了很多開(kāi)發(fā)包C)是一款深度學(xué)習(xí)編譯環(huán)境,提供了生成的APID)是一款版本管理平臺(tái),提供了不同版本的管理功能答案:A解析:[單選題]110.關(guān)于空間,向量空間也稱為(),它是線性代數(shù)的中心內(nèi)容和基本概念之一A)線性空間B)內(nèi)積空間C)賦范空間D)希爾伯特空間答案:A解析:[單選題]111.下列關(guān)于def語(yǔ)句與lambda語(yǔ)句的說(shuō)法錯(cuò)誤的是()。A)def語(yǔ)句允許傳入多個(gè)參數(shù),輸出多個(gè)返回值B)無(wú)返回值的def語(yǔ)句也可能輸出信息C)lambda語(yǔ)句只能是單行的形式D)lambda語(yǔ)句不支持嵌入結(jié)構(gòu)體答案:D解析:難易程度:中題型:[單選題]112.Sigmoid函數(shù)常被用作神經(jīng)網(wǎng)絡(luò)的閾值函數(shù),將變量映射到()之間。A)0,1B)0,-1C)10,0D)0,0.1答案:A解析:[單選題]113.opout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過(guò)程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無(wú)法發(fā)揮顯著優(yōu)勢(shì)?()A)仿射層B)卷積層C)RNN層D)均不對(duì)答案:C解析:[單選題]114.PIL庫(kù)是Python語(yǔ)盲重要的第三方庫(kù),用于()。A)Wcb開(kāi)發(fā)B)機(jī)器學(xué)習(xí)C)圖像處理D)游戲開(kāi)發(fā)答案:D解析:難易程度:易題型:[單選題]115.BP算法是通過(guò)梯度下降的方法對(duì)聯(lián)結(jié)權(quán)重進(jìn)行優(yōu)化,即需要計(jì)算誤差函數(shù)對(duì)聯(lián)結(jié)權(quán)重的()。A)導(dǎo)數(shù)B)偏導(dǎo)數(shù)C)平方差D)標(biāo)準(zhǔn)偏差答案:B解析:[單選題]116.下列關(guān)于運(yùn)算符的說(shuō)法正確的是()。A)算術(shù)運(yùn)算符包括加、減、乘、除4種B)運(yùn)算符?=?和運(yùn)算符?==?是等效的C)邏輯表達(dá)式xD)指數(shù)運(yùn)算符的優(yōu)先級(jí)最高答案:D解析:難易程度:中題型:[單選題]117.要想讓損失值最小,需要找到()A)鞍點(diǎn)B)局部最優(yōu)解C)轉(zhuǎn)折點(diǎn)D)全局最優(yōu)解答案:D解析:[單選題]118.卷積如何改善圖像識(shí)別?A)它們使圖像變小B)它們使圖像處理更快C)它們使圖像更清晰D)它們隔離圖像中的特征答案:D解析:[單選題]119.Siamese網(wǎng)絡(luò)從數(shù)據(jù)中去學(xué)習(xí)一個(gè)相似性(),用這個(gè)學(xué)習(xí)出來(lái)的度量去比較和匹配新的未知類別的樣本。A)度量B)范數(shù)C)歐式距離D)模答案:A解析:[單選題]120.CNN傳遞數(shù)據(jù)處理時(shí),數(shù)據(jù)應(yīng)該是()維度A)1B)2C)3D)4答案:D解析:[單選題]121.可以根據(jù)前后語(yǔ)義進(jìn)行處理計(jì)算的網(wǎng)絡(luò)模型時(shí)A)CNNB)BRNNC)RNND)LSTM答案:B解析:[單選題]122.以下哪一個(gè)不是深度學(xué)習(xí)開(kāi)發(fā)平臺(tái)()。A)hadoopB)caffeC)tensorflowD)pytorch答案:A解析:難易程度:易題型:[單選題]123.雙曲正切函數(shù)即(),取值范圍為[-1,1]A)RelU函數(shù)B)sigmoid函數(shù)C)tanh函數(shù)D)sin函數(shù)答案:C解析:[單選題]124.在keras中,evaluate函數(shù)按()計(jì)算在某些輸入數(shù)據(jù)上模型的誤差。A)batchB)dataC)labelD)訓(xùn)練數(shù)據(jù)答案:A解析:[單選題]125.正態(tài)分布特點(diǎn)是()。A)一條直線B)中間高兩邊低C)中間低兩邊高D)拋物線答案:B解析:難易程度:易題型:[單選題]126.計(jì)算機(jī)人工神經(jīng)元模型把神經(jīng)元簡(jiǎn)化為3個(gè)過(guò)程,分別是輸入信號(hào)線性加權(quán)、()和非線性激活。A)分類B)求和C)預(yù)測(cè)D)以上都不對(duì)答案:B解析:[單選題]127.在繪圖時(shí)?m?表示那種顏色()。A)紅色B)藍(lán)色C)青色D)以上都不是答案:D解析:難易程度:易題型:[單選題]128.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享A)卷積神經(jīng)網(wǎng)絡(luò)B)遞歸神經(jīng)網(wǎng)絡(luò)C)全連接神經(jīng)網(wǎng)絡(luò)D)無(wú)正確選項(xiàng)答案:A解析:[單選題]129.提出?人工智能?概念是在()年A)1955B)1956C)1957D)1958答案:B解析:[單選題]130.在AlexNet等典型的卷積神經(jīng)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)的深度增加,通常有()A)每層的通道的高度和寬度減少,通道數(shù)增加B)每層的通道的高度和寬度增加,通道數(shù)增加C)每層的通道的高度和寬度減少,通道數(shù)減少。D)每層的通道的高度和寬度增加,通道數(shù)減少。答案:A解析:[單選題]131.在TensorFlow中,占位符的語(yǔ)法格式為A)Tf.placeholder(name,shape,dtype)B)Tf.placeholder(shape,name=None,dtype)C)Tf.placeholder(dtype,shape)D)Tf.placeholder(dtype,shape=None,name=None)答案:D解析:[單選題]132.騰訊云提供多種方案保障云服務(wù)器安全,并提供備份及回滾機(jī)制的數(shù)據(jù)安全性,下面哪一種不是云服務(wù)器安全服務(wù)的描述:()A)多種方式遠(yuǎn)程登錄云服務(wù)器:提供多種登錄方式,包括密鑰登錄、密碼登錄、VNC登錄等B)極速內(nèi)網(wǎng)質(zhì)量:騰訊云同地域機(jī)房?jī)?nèi)網(wǎng)互通,底層均為萬(wàn)兆或千兆網(wǎng)絡(luò),保證內(nèi)網(wǎng)通信質(zhì)量C)豐富的安全服務(wù):提供DDoS防護(hù)、DNS劫持檢測(cè)、入侵檢測(cè)、漏洞掃描、網(wǎng)頁(yè)木馬檢測(cè)、登錄防護(hù)等安全服務(wù),為您的服務(wù)器保駕護(hù)航D)免費(fèi)提供云監(jiān)控:并支持多種實(shí)時(shí)預(yù)警E)自定義訪問(wèn)控制:通過(guò)安全組和網(wǎng)絡(luò)ACL自定義主機(jī)和網(wǎng)絡(luò)的訪問(wèn)策略,靈活自由地為不同實(shí)例設(shè)定不同的防火墻F)回收站保護(hù)機(jī)制:支持包年包月類型云服務(wù)到期后進(jìn)入回收站一段時(shí)間,規(guī)避因立即銷毀帶來(lái)的數(shù)據(jù)丟失等重大影響答案:B解析:騰訊云提供多種方案保障云服務(wù)器安全,并提供備份及回滾機(jī)制的數(shù)據(jù)安全性。多種方式遠(yuǎn)程登錄云服務(wù)器:提供多種登錄方式,包括密鑰登錄、密碼登錄、VNC登錄等。豐富的安全服務(wù):提供DDoS防護(hù)、DNS劫持檢測(cè)、入侵檢測(cè)、漏洞掃描、網(wǎng)頁(yè)木馬檢測(cè)、登錄防護(hù)等安全服務(wù),為您的服務(wù)器保駕護(hù)航。免費(fèi)提供云監(jiān)控:并支持多種實(shí)時(shí)預(yù)警?;厥照颈Wo(hù)機(jī)制:支持包年包月類型云服務(wù)到期后進(jìn)入回收站一段時(shí)間,規(guī)避因立即銷毀帶來(lái)的數(shù)據(jù)丟失等重大影響。自定義訪問(wèn)控制:通過(guò)安全組和網(wǎng)絡(luò)ACL自定義主機(jī)和網(wǎng)絡(luò)的訪問(wèn)策略,靈活自由地為不同實(shí)例設(shè)定不同的防火墻。第2部分:多項(xiàng)選擇題,共41題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]133.例如集合外的一個(gè)點(diǎn),該點(diǎn)到該集合的距離是A)是該點(diǎn)到集合邊界點(diǎn)的最短距離B)是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C)是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D)是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB解析:[多選題]134.梯度下降法目前主要分為三種方法,區(qū)別在于每次參數(shù)更新時(shí)計(jì)算的樣本數(shù)據(jù)量不同:A)小批量梯度下降法B)批量梯度下降法C)隨機(jī)梯度下降法D)大量梯度下降法答案:ABC解析:梯度下降法目前主要分為三種方法,區(qū)別在于每次參數(shù)更新時(shí)計(jì)算的樣本數(shù)據(jù)量不同:批量梯度下降法(BGD,BatchGradientDescent)隨機(jī)梯度下降法(SGD,StochasticGradientDescent)小批量梯度下降法(Mini-batchGradientDescent)[多選題]135.實(shí)現(xiàn)tensorboard的流程有:A)根據(jù)可視化信息,利用日志寫入器寫入指定目錄B)指定一個(gè)目錄創(chuàng)建一個(gè)torch.utils.tensorboard.SummaryWriter日志寫入器。C)傳入日志目錄作為參數(shù)啟動(dòng)TensorBoardD)設(shè)定tensorboard腳本答案:ABC解析:[多選題]136.讀入的圖片,要想用tf卷積,需要A)將圖片轉(zhuǎn)換成張量B)需要按照tf的四元組格式C)需要定義卷積核D)定義步長(zhǎng)答案:ABCD解析:[多選題]137.圖像卷積常常用于()中。A)圖像濾波(平滑化)B)圖像梯度C)開(kāi)運(yùn)算D)基于梯度運(yùn)算的邊緣提取答案:ABCD解析:[多選題]138.keras.optimizers子模塊中包含的優(yōu)化方式有A)SGDB)AdagradC)RMSpropD)Nadam答案:ABCD解析:[多選題]139.如果用貝努力實(shí)驗(yàn)概率事件A,進(jìn)行參數(shù)估計(jì),參數(shù)是:P(A)=p(1)^m*p(0)^nA)讓A的可能概率最大B)參數(shù)就是p(1)或p(0)C)讓p(1)最大D)讓m最大答案:AB解析:[多選題]140.Sigmoid函數(shù)的性質(zhì)有哪些?A)將輸出數(shù)據(jù)壓縮到[0,1]集合范圍B)能解決非線性分類問(wèn)題C)將負(fù)的權(quán)值映射到正值D)將正權(quán)值映射到負(fù)數(shù)答案:ABC解析:[多選題]141.Momentum算法可以使用()下降A(chǔ))batchB)mini-batchC)LassoD)Ridge答案:AB解析:[多選題]142.以下可以處理Mnist數(shù)據(jù)集的分類算法有A)KNNB)邏輯回歸C)卷積神經(jīng)網(wǎng)絡(luò)D)k-mean答案:ABC解析:[多選題]143.梯度下降的步驟包含A)正向傳播B)反向傳播C)參數(shù)更新D)求導(dǎo)答案:ABCD解析:[多選題]144.keras中fit函數(shù)的參數(shù)有A)dataB)labelsC)epochsD)batch_size答案:ABCD解析:[多選題]145.在h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64])這條語(yǔ)句的意義有:A)卷積層的終極輸出是64幅圖B)卷積層輸出圖片size是7X7C)將64幅7X7張量改寫成一個(gè)向量D)h_pool2_flat是全鏈接層的輸入數(shù)據(jù)答案:ABCD解析:[多選題]146.在程序中y_predict和y_actual的意義A)y_predict來(lái)自神經(jīng)網(wǎng)絡(luò)輸出B)y_predict必從softmax函數(shù)出來(lái)。C)y_actual從標(biāo)簽集合來(lái)的。D)兩者的維度屬性一致。答案:ABCD解析:[多選題]147.不再依賴池化進(jìn)行降采樣的模型有A)lenetB)alexnetC)resnetD)inception答案:CD解析:[多選題]148.GoogLeNet摒棄了()等傳統(tǒng)著名網(wǎng)絡(luò)的?一條線?架構(gòu)。升級(jí)版為InceptionA)GoogLeNetB)VGGC)ResNetD)AlexNet答案:BD解析:[多選題]149.Anaconda包含了()約180多個(gè)科學(xué)包及其依賴項(xiàng)。A)condaB)matlabC)PythonD)cad答案:AC解析:[多選題]150.請(qǐng)選出常用的三種梯度下降的方法()A)批量梯度下降B)大批量梯度下降C)隨機(jī)梯度下降D)小批量梯度下降答案:ACD解析:[多選題]151.線性變換中,若A是方陣,用A對(duì)線性空間的向量t進(jìn)行變換。其結(jié)果為TA)變換前后向量模有變化B)t角度變化到TC)T也是向量D)T和t維度相同答案:ABCD解析:[多選題]152.pytorch求導(dǎo)的方式可以是:A)backwardB)autograd.gradC)自動(dòng)微分和優(yōu)化器D)梯度磁帶答案:ABC解析:[多選題]153.PyCharm使用()語(yǔ)言是提高開(kāi)發(fā)效率的工具A)numpyB)PythonIDEC)PythonD)sklearn答案:BC解析:[多選題]154.深圳市的家庭生活垃圾可分為()A)可回收物B)廚余垃圾C)有害垃圾D)其他垃圾答案:ABCD解析:[多選題]155.下面幾個(gè)參數(shù)中,不屬于卷積核的參數(shù)是A)步長(zhǎng)B)填充C)輸入通道D)輸出通道答案:AB解析:[多選題]156.可以處理深度過(guò)擬合問(wèn)題的方式有A)數(shù)據(jù)增強(qiáng)B)dropoutC)L2正則D)批量歸一化答案:ABCD解析:[多選題]157.在W.assign_add(10)的正確斷言:A)W必須提前初始化B)W對(duì)應(yīng)值增加10C)執(zhí)行后,W值為10D)通過(guò)sess.run()實(shí)現(xiàn)答案:ABD解析:[多選題]158.不涉及隱藏層時(shí),分類算法中,會(huì)用到激活函數(shù)有A)reluB)tanhC)softmaxD)sigmoid答案:CD解析:[多選題]159.通過(guò)試驗(yàn)超參數(shù)的不同取值可以A)選擇對(duì)訓(xùn)練集目標(biāo)而言的最優(yōu)解B)對(duì)于開(kāi)發(fā)集而言的最優(yōu)解C)超參搜索過(guò)程中最想優(yōu)化的東西D)簡(jiǎn)化參數(shù)調(diào)試答案:ABC解析:[多選題]160.關(guān)于深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成,將卷積層放在前面,將全連接層放在后面,它們的作用是A)用卷積層提取特征B)pooling的下采樣能夠降低overfittingC)激活函數(shù)relu可以用到卷積層D)全連接層負(fù)責(zé)分類答案:ABCD解析:[多選題]161.關(guān)于行為主義的正確描述是A)基礎(chǔ)理論是控制論B)產(chǎn)生在20世紀(jì)50年代產(chǎn)生C)是仿生昆蟲的D)是研究自組織、自適應(yīng)、自學(xué)習(xí)的答案:ABCD解析:[多選題]162.Keras中的基礎(chǔ)層有A)DenseB)BatchNormalizationC)SpatialDropout2DD)DenseFeature答案:ABCD解析:[多選題]163.離散有限個(gè)事件的信息熵是()A)有限的B)無(wú)限的C)可能為負(fù)D)可能大于1答案:AD解析:[多選題]164.范數(shù),在()、()及相關(guān)的數(shù)學(xué)領(lǐng)域,范數(shù)是一個(gè)函數(shù),是矢量空間內(nèi)的所有矢量賦予非零的正長(zhǎng)度或大小。A)線性代數(shù)B)泛函分析C)腐蝕D)膨脹答案:AB解析:[多選題]165.關(guān)于?熊貓方式?和魚子醬方式的選擇說(shuō)法正確的是A)當(dāng)計(jì)算機(jī)資源足夠時(shí)選擇?魚子醬方式?B)當(dāng)計(jì)算機(jī)資源足夠時(shí)選擇?熊貓方式?C)當(dāng)計(jì)算機(jī)資源缺乏時(shí)選擇?魚子醬方式?D)當(dāng)計(jì)算機(jī)資源缺乏時(shí)選擇?熊貓方式?答案:AD解析:[多選題]166.數(shù)和矩陣相乘在函數(shù)和矩陣與矩陣相乘的函數(shù)分別是?A)tf.multiply(x2,y2)B)tf.matmul(x,y)C)tf.equalD)tf.cast答案:AB解析:[多選題]167.分類任務(wù)的損失函數(shù),可以是:A)信息熵B)最小二乘平方損失C)距離模型D)概率模型答案:ABCD解析:[多選題]168.下列屬于dropout特性的有:A)具有正則化功能B)具有激活函數(shù)功能C)常用于圖像處理D)機(jī)器學(xué)習(xí)算法答案:AC解析:[多選題]169.pytorch張量合并的函數(shù)是A)catB)stackC)splitD)shape答案:AB解析:[多選題]170.帶有記憶處理的神經(jīng)元有A)LSTMB)GRUC)CNND)RESNET答案:AB解析:[多選題]171.能夠跳出局部最優(yōu)解的算法有:A)AdamB)MomentumC)RMSpropD)Lasso答案:ABC解析:[多選題]172.如果一個(gè)時(shí)間步很重要,但是要在很多個(gè)時(shí)間步后有效,可以使用什么模型進(jìn)行處理A)RNNB)LSTMC)GRUD)BRNN答案:BC解析:[多選題]173.深度學(xué)習(xí)中通過(guò)動(dòng)物來(lái)形容訓(xùn)練模型有A)熊貓法B)魚子醬法C)貓狗法D)大魚法答案:AB解析:第3部分:判斷題,共54題,請(qǐng)判斷題目是否正確。[判斷題]174.深度網(wǎng)絡(luò)不能使用zeros創(chuàng)建權(quán)重A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]175.編程語(yǔ)句os.environ['TF_CPP_MIN_LOG_LEVEL']='2'含意是編程程序時(shí)默認(rèn)的顯示等級(jí)只顯示warning和ErrorA)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]176.BP算法是神經(jīng)網(wǎng)絡(luò)發(fā)展歷程中里程碑式的算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]177.隨機(jī)梯度下降算法是每次考慮單個(gè)樣本進(jìn)行權(quán)重更新。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.GRU是LSTM網(wǎng)絡(luò)的一種效果很好的變體,它較LSTM網(wǎng)絡(luò)的結(jié)構(gòu)更加簡(jiǎn)單。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]179.Softmax用于多分類過(guò)程中,它將多個(gè)神經(jīng)元的輸出,映射到(0,1)區(qū)間內(nèi),可以看成概率來(lái)理解,從而來(lái)進(jìn)行多分類A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]180.KNN可以用來(lái)夠造神經(jīng)網(wǎng)絡(luò)()。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]181.導(dǎo)數(shù)和偏導(dǎo)沒(méi)有本質(zhì)區(qū)別,都是當(dāng)自變量的變化量趨于0時(shí),函數(shù)值的變化量與自變量變化量比值的極限A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.人工神經(jīng)網(wǎng)絡(luò)是一種模仿生物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行信息處理的數(shù)學(xué)模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]183.GatedRecurrentunits的出現(xiàn)可以幫助防止在RNN中的梯度消失問(wèn)題。()A:對(duì)B:錯(cuò)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.Relu函數(shù)就是正數(shù)不變,負(fù)數(shù)取零的激活函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.通過(guò)池化操作,必須保證特征損失不能太大。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.BP算法可以使網(wǎng)絡(luò)權(quán)值收斂到一個(gè)最終解,但它并不能保證所求為誤差超平面的全局最優(yōu)解,也可能是一個(gè)局部極小值。這主要是因?yàn)锽P算法所采用的是梯度下降法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]187.圖像經(jīng)過(guò)卷積之后會(huì)變小,輸入輸出大小不一致。采用0填充的方式解決這個(gè)問(wèn)題。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.占位符的定義,有助于將預(yù)先不知道的值帶入運(yùn)算中。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]189.池化操作是將圖像按窗口大小分為不重疊的區(qū)域,然后對(duì)每一個(gè)區(qū)域內(nèi)的元素進(jìn)行聚合。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]190.增加網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試集分類錯(cuò)誤率。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.MXNet是Facebook公司的深度學(xué)習(xí)平臺(tái)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]192.由于Yolo是對(duì)整張圖片做卷積,所以其在檢測(cè)目標(biāo)有更大的視野,它不容易對(duì)背景誤判A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.MNIST訓(xùn)練集數(shù)據(jù)樣本的形狀為(55000,784)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.機(jī)器學(xué)習(xí)是?深度學(xué)習(xí)?的重要組成部分。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]195.通常說(shuō)的信息熵總是在一個(gè)概率系統(tǒng)下才有意義。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.Non-MaximumSuppression,簡(jiǎn)稱NMS,理解為抑制不是極大值的元素,可以理解為局部最大搜索A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]197.自定義訓(xùn)練循環(huán)無(wú)需編譯模型,直接利用優(yōu)化器根據(jù)損失函數(shù)反向傳播迭代參數(shù),擁有最高的靈活性A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.如果想獲取當(dāng)前場(chǎng)景背景的圖像,則可以通過(guò)圖像差分便可以提取出前景A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]199.卷積運(yùn)算的主要目的是為了增強(qiáng)信號(hào)特征,較少噪音。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.Inception使用不同卷積,獲取圖像不同尺寸的特征A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.處理分類問(wèn)題一般用神經(jīng)網(wǎng)絡(luò),處理預(yù)測(cè)問(wèn)題用線性回歸。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.灰度值范圍是1-255A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]203.希爾伯特空間也是一個(gè)內(nèi)積空間A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.Tensorflow是谷歌公司開(kāi)發(fā)的深度學(xué)習(xí)開(kāi)發(fā)框架。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]205.框架TensorFlow?最初是由GoogleBrain團(tuán)隊(duì)(隸屬于Google的AI部門)中的研究人員和工程師聯(lián)合開(kāi)發(fā)的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.GRU有三個(gè)門A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]207.人工神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的子集,機(jī)器學(xué)習(xí)是人工智能體系的子集A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.對(duì)于突發(fā)性業(yè)務(wù)高峰,推薦您選擇包年包月的計(jì)費(fèi)模式,購(gòu)買時(shí)長(zhǎng)越久越劃算;對(duì)于穩(wěn)定業(yè)務(wù),您可以選擇按量計(jì)費(fèi)的計(jì)費(fèi)模式,隨時(shí)開(kāi)通/銷毀計(jì)算實(shí)例,按實(shí)例的實(shí)際使用量付費(fèi)。計(jì)費(fèi)精確到秒,最大程度降低成本。A)正確B)錯(cuò)誤答案:錯(cuò)解析:對(duì)于穩(wěn)定業(yè)務(wù),推薦您選擇包年包月的計(jì)費(fèi)模式,購(gòu)買時(shí)長(zhǎng)越久越劃算;對(duì)于突發(fā)性業(yè)務(wù)高峰,您可以選擇按量計(jì)費(fèi)的計(jì)費(fèi)模式,隨時(shí)開(kāi)通/銷毀計(jì)算實(shí)例,按實(shí)例的實(shí)際使用量付費(fèi)。計(jì)費(fèi)精確到秒,最大程度降低成本。[判斷題]209.lenet使用平均池化降采樣A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]210.dataloder不能控制批處理量大小A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]211.SGD因?yàn)槭茉胍粲绊懘?,現(xiàn)在已經(jīng)放棄使用A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]212.RNN的LSTM可以防止梯度消失或者梯度爆炸A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.如果使用的學(xué)習(xí)率太大,會(huì)導(dǎo)致網(wǎng)絡(luò)無(wú)法收斂。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.損失函數(shù),可以由交叉熵定義A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]215.對(duì)一個(gè)概率空間的樣本事件進(jìn)行劃分,劃分后依然是概率空間。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.SOFTMAX函數(shù),是用來(lái)將全數(shù)域函數(shù)結(jié)果映射到概率空間。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.常用來(lái)進(jìn)行數(shù)據(jù)類型轉(zhuǎn)換的函數(shù)是tf.fcast()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.訓(xùn)練集和測(cè)試集準(zhǔn)確率偏差越高越好A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]219.歐氏距離是一種很好的相似性度量標(biāo)準(zhǔn)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.經(jīng)過(guò)權(quán)值和閾值不斷迭代調(diào)整的過(guò)程,就是網(wǎng)絡(luò)的學(xué)習(xí)與訓(xùn)練過(guò)程A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.動(dòng)量梯度下降法運(yùn)行速度幾乎總是快于標(biāo)準(zhǔn)的梯度下降算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.在數(shù)字圖像處理領(lǐng)域,將圖像分為模擬圖像和數(shù)字圖像兩種,計(jì)算機(jī)處理的信號(hào)都是數(shù)字信號(hào),所以在計(jì)算機(jī)上處理的圖像均為模擬圖像。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]223.在其他條件不變的前提下,增加訓(xùn)練集量容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]224.MNIST全連接神經(jīng)網(wǎng)絡(luò)模型一共有3層,既輸入層、隱藏層和輸出層。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]225.訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batchA)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.句子向量表示有監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)都可以獲得。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.過(guò)擬合是指由于訓(xùn)練樣本不足,導(dǎo)致測(cè)試結(jié)果不堪用A)正確B)錯(cuò)誤答案:錯(cuò)解析:第4部分:?jiǎn)柎痤},共33題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問(wèn)答題]228.怎么提升網(wǎng)絡(luò)的泛化能力答案:從數(shù)據(jù)上提升性能:收集更多的數(shù)據(jù),對(duì)數(shù)據(jù)做縮放和變換,特征組合和重新定義問(wèn)題。從算法調(diào)優(yōu)上提升性能:用可靠的模型診斷工具對(duì)模型進(jìn)行診斷,權(quán)重的初始化,用小的隨機(jī)數(shù)初始化權(quán)重。對(duì)學(xué)習(xí)率進(jìn)行調(diào)節(jié),嘗試選擇合適的激活函數(shù),調(diào)整網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu),調(diào)節(jié)batch和epoch的大小,添加正則化的方法,嘗試使用其它的優(yōu)化方法,使用earlystopping。解析:[問(wèn)答題]229.編程:定義占位符input1和input2,利用占位符,啟動(dòng)tensorflow圖,實(shí)現(xiàn)input1*input2,并將結(jié)果保存到變量result中。答案:ImporttensorflowastfDefplacer_holders():input1=tf.placeholder(dtype="float32",shape=[1,2])input2=tf.placeholder(dtype="float32",shape=[2,1])input1_value=[[2,4]]input2_value=[[1],[2]]product=tf.matmul(input1,input2)sess=tf.Session()result=sess.run(product,feed_dict={input1:[[2,4]],input2:[[1],[2]]})returnresult解析:[問(wèn)答題]230.間距運(yùn)算中,增大填充后,輸出大小會(huì)_______答案:變大解析:[問(wèn)答題]231.卷積核的深度應(yīng)該_____輸入圖片的通道數(shù)。答案:等于;解析:[問(wèn)答題]232.編程:定義一個(gè)32位浮點(diǎn)數(shù)的常量,將此常量的數(shù)據(jù)類型轉(zhuǎn)換為32位有符號(hào)整型并輸出。答案:ImpimporttensorflowastfFloat_tensor=tf.constant([1.8,2.2],dtype=tf.float32)Result=tf.cast(float_tensor,dtype=32)Withtf.Session()assess:print(sess.run(result))解析:[問(wèn)答題]233.編程:使用Tensorflow定義變量+常量,實(shí)現(xiàn)輸出計(jì)數(shù)功能。答案:ImporttensorflowastfState=tf.Variable(0,name='Parameter_name_counter')#print()One=tf.constant(1)New_value=tf.add(state,one)Update=tf.assign(state,new_value)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)for_inrange(8):sess.run(update)print(sess.run(state))解析:[問(wèn)答題]234.Dropout率和正則化有什么關(guān)系?()提示:我們定義Dropout率為保留一個(gè)神經(jīng)元為激活狀態(tài)的概率A)Dropout率越高,正則化程度低B)Dropout率越高,正則化程度越高答案:A解析:[問(wèn)答題]235.多通道圖形,按通道進(jìn)行卷積運(yùn)算,并將結(jié)果_______答案:相加解析:[問(wèn)答題]236.input=tf.constant([-10,0,4,8],dtype=tf.float32)Output=tf.nn.relu(input)Output的結(jié)果為_(kāi)______。答案:[0,0,4,8];解析:[問(wèn)答題]237.說(shuō)說(shuō)你對(duì)MNIST數(shù)據(jù)集的了解。答案:MNIST是一個(gè)非常有名的手寫字?jǐn)?shù)據(jù)集,在這個(gè)數(shù)據(jù)集中包含60000張圖片作為訓(xùn)練數(shù)據(jù)(55000張訓(xùn)練,5000張驗(yàn)證),10000張圖片作為測(cè)試數(shù)據(jù),每一張圖片都代表0~9的一個(gè)數(shù)字。解析:[問(wèn)答題]238.編程:使用tf.assign給變量賦值,然后通過(guò)assign_add使變量的值每次調(diào)用增加1。答案:ImporttensorflowastfMy_state=tf.Variable(0,name="counter")One=tf.constant(1)New_value=tf.add(my_state,one)Update=tf.assign(my_state,new_value)Init_Op=tf.global_variables_initializer()Withtf.Session()as

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論