人工智能算法知識(shí)考試題庫(kù)500題_第1頁(yè)
人工智能算法知識(shí)考試題庫(kù)500題_第2頁(yè)
人工智能算法知識(shí)考試題庫(kù)500題_第3頁(yè)
人工智能算法知識(shí)考試題庫(kù)500題_第4頁(yè)
人工智能算法知識(shí)考試題庫(kù)500題_第5頁(yè)
已閱讀5頁(yè),還剩148頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能算法知識(shí)考試題庫(kù)500題(供參考)

一、單選題

1.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積

核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則

輸出的featuremap矩陣的結(jié)構(gòu)是()。

A、27*27*3

B、28*28*3

C、27*27*6

D、28*28*6

答案:D

解析:循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,

卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featurema

P,則輸出的featuremap矩陣的結(jié)構(gòu)是28*28*6。

2.fromskIearnimportIinear_modeIreg=Iinear_modeI.Lasso,其中Lasso是用

來(lái)擬合什么樣的線性模型的?

A、稀疏數(shù)據(jù)

B、稀疏系數(shù)

C'稀疏標(biāo)簽

答案:B

3.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,哪一個(gè)必然可以得到該最優(yōu)解

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:A

解析:廣度優(yōu)先搜索搜索的范圍最廣

4.在強(qiáng)化學(xué)習(xí)過(guò)程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種結(jié)果;()表示

采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前認(rèn)為最優(yōu)的動(dòng)作的值。

A、探索

B、開(kāi)發(fā)

C、開(kāi)發(fā)

D、探索

E、探索

答案:A

5.對(duì)于一個(gè)分類任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成

0,下面哪個(gè)敘述是正確的?

A、其他選項(xiàng)都不對(duì)

B、沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練

C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西

D、神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變

答案:C

6.下列哪些不是“子集搜索”中的搜索方式(_)

A、單向搜索

B、雙向搜索

C、前向搜索

D、后向搜索

答案:A

解析:見(jiàn)算法解析

7.LARS屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

答案:C

解析:見(jiàn)算法解析

8.生成式方法是直接基于(_)的方法?

A、生成式學(xué)習(xí)

B、生成式場(chǎng)景

C、生成式數(shù)據(jù)

D、生成式模型

答案:D

解析:見(jiàn)算法解析

9,下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect

對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重

A、1是對(duì)的,2是錯(cuò)的

B、都是對(duì)的

C、1是錯(cuò)的,2是對(duì)的

D、都是錯(cuò)的

答案:D

10.機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是

A、卡方檢驗(yàn)

B、信息增益

C、數(shù)據(jù)采樣

D、期望交叉熠

答案:C

11,下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是(_)

A、可以提高特征關(guān)聯(lián)性

B、可以減輕維數(shù)災(zāi)難問(wèn)題

C、可以降低學(xué)習(xí)任務(wù)的難度

D、特征選擇和降維具有相似的動(dòng)機(jī)

答案:A

解析:見(jiàn)算法解析

12.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降

算法,以下關(guān)于其有優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:

A、全局梯度算法可以找到損失函數(shù)的最小值

B、批量梯度算法可以解決局部最小值問(wèn)題

C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值

D、全局梯度算法收斂過(guò)程比較耗時(shí)

答案:C

13.下面的問(wèn)題,屬于分類問(wèn)題的是;

A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅

B、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工下一季度的績(jī)效考核分?jǐn)?shù)

C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職

D、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工下一季度的銷售額

答案:C

14.關(guān)于精度與錯(cuò)誤率的說(shuō)法中錯(cuò)誤的是()。

A、精度與錯(cuò)誤率的和為1

B、精度與錯(cuò)誤率都可以反映模型的好壞

C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示

D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)

答案:D

解析:精度是不是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)

15.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到

該最優(yōu)解,()可以認(rèn)為是“智能程度相對(duì)比較高”的算法。

A、無(wú)界深度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:D

16.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()

A、y=tanh(x)

B\y=sin(x)

Gy=max(x,0)

D\y=2x

答案:D

17.Softmax算法中溫度趨近于0時(shí)Softmax將趨于(_)

A、僅探索

B、僅利用

C、全探索

D、全利用

答案:B

解析:見(jiàn)算法解析

18.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。

A、1

B、2

C、3

D、4

答案:A

解析:閔可夫斯基距離定義為:該距離最常用的P是2和1,前者是歐幾里得距

離),后者是曼哈頓距離。

19.下面的問(wèn)題,哪一個(gè)屬于分類問(wèn)題的是()

A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工下一季度的銷售額

B、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工下一季度的績(jī)效考核分?jǐn)?shù)

C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅

D、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)

員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職

答案:D

20.Relief屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

答案:D

解析:見(jiàn)算法解析

21.哪種聚類方法采用概率模型來(lái)表達(dá)聚類()

A、K-means

B、LVQ

GDBSCAN

D、高斯混合聚類

答案:D

22.faster-rcnn回歸分支采用()Ioss

A、L1

B、L2

C、SmoothLI

D\nan

答案:C

解析:見(jiàn)算法解析

23.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果

知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的

權(quán)重和偏移呢?

A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值

B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重

C、隨機(jī)賦值,聽(tīng)天由命

D、以上都不正確的

答案:B

24.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識(shí)別的時(shí)候,不需要對(duì)整個(gè)圖

像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。

A\一般

B、特殊

C、連續(xù)

D\重點(diǎn)

答案:B

解析:見(jiàn)算法解析

25.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()

A、HopfieId網(wǎng)

B、BP網(wǎng)絡(luò)

C、多層感知器

D、LVQ網(wǎng)絡(luò)

答案:A

解析:$BP網(wǎng)絡(luò)'多層感知器、LVQ網(wǎng)絡(luò)屬于前饋網(wǎng)絡(luò)

26.下列關(guān)于K-Means聚類說(shuō)法錯(cuò)誤的是()

A、聚類的簇個(gè)數(shù)會(huì)由模型自動(dòng)給出

B、可以使用多組隨機(jī)的初始中心點(diǎn)進(jìn)行計(jì)算

C、聚類前應(yīng)當(dāng)進(jìn)行維度分析

D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化

答案:A

解析:聚類的簇個(gè)數(shù)由人為確定。

27.LSTM是一種什么網(wǎng)絡(luò)?

A、卷積神經(jīng)網(wǎng)

B、前饋神經(jīng)網(wǎng)

C\循環(huán)神經(jīng)網(wǎng)

D\攣生網(wǎng)絡(luò)

答案:C

解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)

28.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?

A、卷積層

B、池化層

C、全連接層

D、以上都可以

答案:C

29.回歸分析中定義的()

A、解釋變量和被解釋變量都是隨機(jī)變量

B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量

C、解釋變量和被解釋變量都為非隨機(jī)變量

D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量

答案:B

30.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的丟失,

所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和()

A\平移

B、刪除

C、移動(dòng)

D、收斂

答案:A

解析:如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的丟失,

所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和平移

31.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是0。

A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集

B、有訓(xùn)練集和測(cè)試集兩部分

C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷

D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽

答案:C

32.Reiu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()

A、設(shè)為0

B、設(shè)為無(wú)窮大

C、不定義

D、設(shè)為任意值

答案:A

解析:Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中設(shè)為0

33.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入

進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?

A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出

B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出

C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出

D、上述都正確

答案:D

解析:每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。如圖所示的神經(jīng)

網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個(gè)神經(jīng)元都是多輸入多輸出。若將輸出層改為一個(gè)神

經(jīng)元,則隱藏層每個(gè)神經(jīng)元都是一個(gè)輸出;若將輸入層改為一個(gè)神經(jīng)元,則隱藏

層每個(gè)神經(jīng)元都是一個(gè)輸入。

34.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()

A、防止過(guò)擬合

B、減小誤差

C、增加網(wǎng)絡(luò)復(fù)雜度

答案:A

解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一

定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。

35.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:

A、完全拷貝

B、一點(diǎn)點(diǎn)關(guān)系都沒(méi)有

C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)

D、同一事物的兩個(gè)名稱

答案:C

解析:人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)

36.模型有效的基本條件是能夠()已知的樣本

A、結(jié)合

B、擬合

C、聯(lián)合

D、聚集

答案:B

解析:模型有效的基本條件是能夠擬合已知的樣本

37.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,

那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?

A、Softmax

B、ReLu

C、Sigmoid

D、Tanh

答案:A

38.在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是()

A、出現(xiàn)人臉遮擋

B、人臉角度變化大

C、需要檢測(cè)分辨率很小的人臉

D、需要檢測(cè)不同性別的人臉

答案:D

解析:在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是需要檢測(cè)不同性別的人臉

39.機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()

A、參數(shù)預(yù)估

B、機(jī)器翻譯

C、圖像識(shí)別

D、參數(shù)估計(jì)

答案:D

解析:機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是參數(shù)估計(jì)

40.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問(wèn)題,logis

tics回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練。如何提高訓(xùn)練速度?()

A、降低學(xué)習(xí)率,減少迭代次數(shù)

B、降低學(xué)習(xí)率,增加迭代次數(shù)

C、提高學(xué)習(xí)率,增加迭代次數(shù)

D、增加學(xué)習(xí)率,減少迭代次數(shù)

答案:D

41.0是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸出

A、卷積

B、約化

C、池化

D、批歸一化

答案:C

解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸

42.圖計(jì)算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),

首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上

A、結(jié)構(gòu)化

B、非結(jié)構(gòu)化

C\對(duì)稱化

D、規(guī)則化

答案:B

解析:圖計(jì)算中圖數(shù)據(jù)往往是非結(jié)構(gòu)化和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)

算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上

43.在CNN中,梯度下降法的作用是()。

A、線性變換

B、非線性變換

C、求函數(shù)最小值

D、加速訓(xùn)練

答案:C

解析:在CNN中,梯度下降法的作用是求函數(shù)最小值。

44.Y0L0v3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的0

A、C

B、C*H

C、H*W

D、nan

答案:c

解析:見(jiàn)算法解析

45.目標(biāo)檢測(cè)常用性能指標(biāo)的是()

A、信噪比

B、平方誤差

C、mAP

D、分辨率

答案:C

解析:mAP表示算法處理每張照片時(shí)間。

46.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如M

LP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函

數(shù)

A、1,2,4,5

B、2,3,4,5

C、都需要考慮

Dx1,3,4,5

答案:C

47.以下關(guān)于降維,表述錯(cuò)誤的是:()

A、降維過(guò)程中可以保留原始數(shù)據(jù)的所有信息。

B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。

C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。

D、核線性降維方法目標(biāo)是通過(guò)核函數(shù)和核方法來(lái)避免采樣空間投影到高維空間

再降維之后的低維結(jié)構(gòu)丟失。

答案:A

48.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別

標(biāo)簽是C,它的一個(gè)假定是()

A、各類別的先驗(yàn)概率P(C)是相等的

B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布

C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量

D、P(X|C)是高斯分布

答案:C

49.獨(dú)熱編碼的缺點(diǎn)是:①.過(guò)于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.

容易存儲(chǔ)

A、③④

B、①②

C、①③

D、②④

答案:B

解析:獨(dú)熱編碼的缺點(diǎn)是:①.過(guò)于稀疏②.詞與詞的相關(guān)性比較小

50.從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再

改變?yōu)橹?,這樣的作法稱為(_)

A、策略迭代

B、值迭代

C、策略改進(jìn)

D、最優(yōu)值函數(shù)

答案:A

解析:見(jiàn)算法解析

51.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?

A、召回率

B、混淆矩陣

C、均方誤差

D、準(zhǔn)確率

答案:C

52.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出之間

的差來(lái)調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()

A、有師學(xué)習(xí)

B、無(wú)師學(xué)習(xí)

C、強(qiáng)化學(xué)習(xí)

D、都不是

答案:A

53.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開(kāi)

B、LSTM無(wú)法解決梯度消失的問(wèn)題

C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)

D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫(xiě)為RNN

答案:B

54.()常做為CNN網(wǎng)絡(luò)的最后一層。

A、卷積層

B、池化層

C、全連接層

D、歸一化層

答案:c

解析:全連接層常做為CNN網(wǎng)絡(luò)的最后一層。

55.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。

A、圖像加噪

B、圖像采集

C、圖像壓縮

D、圖像分割

答案:D

解析:為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行圖像分割處

理。

56.以下關(guān)于算法的說(shuō)法中,不正確的是

A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督'半監(jiān)督和無(wú)監(jiān)督三種

B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法

C、決策樹(shù)算法屬于監(jiān)督學(xué)習(xí)類別

D、“Means是屬于無(wú)監(jiān)督學(xué)習(xí)算法

答案:B

57.VGG-19中卷積核的大小為

A、3x3

B、5x5

C、3x3,5x5

D、不確定

答案:A

解析:VGG-19中卷積核的大小為3x3

58.在卷積操作過(guò)程中計(jì)算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核

大小為3*3,卷積窗口移動(dòng)的步長(zhǎng)為1,則featuremaps的大小是()個(gè)元素?

A、78400

B、88804

G91204

D、99856

答案:B

解析:見(jiàn)算法解析

59.Inception模塊采用()的設(shè)計(jì)形式,每個(gè)支路使用。大小的卷積核。

A、多通路,不同

B、單通路,不同

C、多通路,相同

D、單通路,相同

答案:A

解析:Inception模塊采用多通路,不同的設(shè)計(jì)形式,每個(gè)支路使用多通路,不

同大小的卷積核。

60.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度

A、正則項(xiàng)

B、非線性

C、激活函數(shù)

D、特征變換

答案:A

解析:xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度

61.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?

A、CRF是生成式的,而HMM是判別式模型

B、CRF是判別式模型,HMM是生成式模型。

C、CRF和HMM都是生成式模型

D、CRF和HMM都是判別式模型。

答案:B

62.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好

的近似出來(lái),不再需要探索,則可讓E隨著嘗試次數(shù)增加而(—)

A、增大

B、置為無(wú)窮

C、置為0

D、減少

答案:D

解析:見(jiàn)算法解析

63.關(guān)于聚類說(shuō)法錯(cuò)誤的是()

A、在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類

B、聚類可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他

學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程

C、聚類分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的

D、組內(nèi)的相似性越大,組間差別越大,聚類就越好

答案:B

解析:聚類可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),可以作為其他

學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程

64.學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱為(_)。

A、錯(cuò)誤率

B、精度

C、誤差

D、查準(zhǔn)率

答案:C

解析:見(jiàn)算法解析

65.下列可以用于聚類問(wèn)題的機(jī)器學(xué)習(xí)算法有()

A、決策樹(shù)

B、k-means

C、隨機(jī)森林

D、邏輯回歸

答案:B

66.使用交叉驗(yàn)證最簡(jiǎn)單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?

A、cross_val_score

B、cross_vaI%

C、val_score

D、cross_score

答案:A

67.以下關(guān)于隨機(jī)森林算法的描述中錯(cuò)誤的是

A、可以處理高維度的屬性,并且不用做特征選擇

B、隨機(jī)森林的預(yù)測(cè)能力不受多重共線性影響

C、也擅長(zhǎng)處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問(wèn)題

D、能應(yīng)對(duì)正負(fù)樣本不平衡問(wèn)題

答案:C

68.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖

表示變量間的依賴關(guān)系,稱為(—);第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)

系,稱為無(wú)向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。

A、貝葉斯網(wǎng)

B、拉普拉斯網(wǎng)

C、帕斯卡網(wǎng)

D、塞繆爾網(wǎng)

答案:A

解析:見(jiàn)算法解析

69.對(duì)不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)

A、最大一般泛化

B、最小一般泛化

C、最大一般特化

D、最小一般特化

答案:B

解析:見(jiàn)算法解析

70.長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下

文而定,而不是固定的。

A、自增加

B、自循環(huán)

C、自遞歸

D、自減少

答案:B

解析:長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了自循環(huán)的巧妙構(gòu)思,該構(gòu)思中的權(quán)重

視上下文而定,而不是固定的。

71.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachin

e)o與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(duì)(一)問(wèn)題的學(xué)習(xí)方法?

A、分類

B、回歸

C、聚類

D、二分類

答案:D

解析:見(jiàn)算法解析

72.協(xié)同訓(xùn)練(co-training)是針對(duì)(__)數(shù)據(jù)設(shè)計(jì)?

A、多角度

B、多視圖

C、多環(huán)境

D、多版本

答案:B

解析:見(jiàn)算法解析

73.哪個(gè)不是常用的聚類算法()。

A、K-Means

B、DBSCAN

GGMMs

DvSoftmax

答案:D

解析:Softmax不是常用的聚類算法。

74.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越(),也即

越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。

A、具體和形象化

B、抽象和概念化

C、具體和概念化

D、抽象和具體化

答案:B

解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越抽象和概

念化,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。

75.以才哪種組合在CNN不常見(jiàn)

Avconv+reIu

B、conv+reIu+pooI

C、conv+reIu+pooI+fc

D、conv+k-means

答案:D

解析:conv+k-means組合在CNN不常見(jiàn)

76.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是

A、輸入端-輸出端

B、輸入端-中間端

C、輸出端-中間端

D、中間端-中間端

答案:A

77.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間

A、不斷遞歸而衰退

B、不斷遞歸而增強(qiáng)

C、先增強(qiáng)后減弱

D、先減弱后增強(qiáng)

答案:A

78.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?

A、GBDT算法比隨機(jī)森林容易欠擬合

B、隨機(jī)森林是并行計(jì)算的,而GBDT不能

C、GBDT算法比隨機(jī)森林容易過(guò)擬合

DxGBDT與隨機(jī)森林都是建立在CART樹(shù)的基礎(chǔ)之上的

答案:C

79.LVW屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

答案:A

解析:見(jiàn)算法解析

80.LSTM單元中引入了哪些門(mén)來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?

A、輸入門(mén)、遺忘門(mén)

B、任意門(mén)、輸入門(mén)

C、輸出門(mén)、任意門(mén)

D、遺忘門(mén)、任意門(mén)

答案:A

解析:LSTM單元中引入了哪些門(mén)來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?

81.下列神經(jīng)網(wǎng)絡(luò)特點(diǎn)描述錯(cuò)誤的是(_)

A、適應(yīng)性

B、由簡(jiǎn)單單元組成

C、廣泛并行互連的網(wǎng)絡(luò)

D、線性特性

答案:D

解析:見(jiàn)算法解析

82.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype

=np.int64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入

numpy庫(kù))importnumpyasnp

A、6

B、8

C、10

D、12

答案:D

解析:見(jiàn)算法解析

83.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法()

A、TF-IDF

B、TextRank

C、SSA

D、LDA

答案:C

解析:SSA(SaIpSwarmAIgorithm)是一種元啟發(fā)式算法

84.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)。為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這個(gè)模型,下

列哪種做法是正確的?

A、增加樹(shù)的深度

B、增加學(xué)習(xí)率

C、減小樹(shù)的深度

D、減少樹(shù)的數(shù)量

答案:c

85.支持向量機(jī)(SVM)中的代價(jià)參數(shù)C表示什么?()

A、交叉驗(yàn)證的次數(shù)

B、用到的核函數(shù)

C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡

D、以上都不對(duì)

答案:C

86.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使

用的什么法則進(jìn)行逐層求導(dǎo)的?

A、鏈?zhǔn)椒▌t

B、累加法則

C、對(duì)等法則

D、歸一法則

答案:A

87.以下說(shuō)法正確的是()。

A、聚類是非監(jiān)督學(xué)習(xí)

B、分類是非監(jiān)督學(xué)習(xí)

C、聚類是監(jiān)督學(xué)習(xí)

D、以上都不對(duì)

答案:A

88.以下算法中可以用于圖像平滑的是0。

A、均值濾波;

B、對(duì)比度增強(qiáng)

C、二值化

D、動(dòng)態(tài)范圍壓縮

答案:A

解析:以下算法中可以用于圖像平滑的是均值濾波;。

89.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-te

rmmatrix)o以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNor

maIization)(2)潛在語(yǔ)義索引(LatentSemanticIndexing)(3)隱狄利克雷

分布(LatentDirichletAIlocation)

A、只有(1)

B、⑵、(3)

C、⑴、(3)

D、⑴、⑵、(3)

答案:D

90.下列哪項(xiàng)不屬于集成學(xué)習(xí)

A、隨機(jī)森林

B\Adaboost

C、kNN

D、XGBoost

答案:C

解析:集成方法分類為:Bagging(并行訓(xùn)練):隨機(jī)森林,Boosting(串行訓(xùn)練):

Adaboost,GBDT:XgBoost,Stacking,BIending

91.隨著句子的長(zhǎng)度越來(lái)越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過(guò)程

將愈加困難,為了解決這類問(wèn)題,下面哪項(xiàng)是我們可以采用的?

A、使用遞歸單元代替循環(huán)單元

B、使用注意力機(jī)制(attentionmechanism)

C\使用字符級(jí)別翻譯(characterIeveItransIation)

D、所有選項(xiàng)均不對(duì)

答案:B

92.符號(hào)集a、b、c、d,它們相互獨(dú)立,相應(yīng)概率為1/2、1/4、1/8、1/16,其

中包含信息量最小的符號(hào)是()

A、a

B、b

C、c

D、d

答案:A

93.數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱

為“集成學(xué)習(xí)”)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則

下列說(shuō)法正確的是?()

A、基本模型之間相關(guān)性高。

B、基本模型之間相關(guān)性低。

C、集成方法均使用加權(quán)平均代替投票方法。

D、基本模型都來(lái)自于同一算法。

答案:B

94.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。

A、0(m)

B、0(m2)

G0(Iogm)

D、0(m*logm)

答案:B

95.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測(cè)算法包括Logistic回歸模型、()、決策樹(shù)'

神經(jīng)網(wǎng)絡(luò)等

A、線性回歸

B、時(shí)間序列

C、灰色模型

D、貝葉斯網(wǎng)絡(luò)

答案:D

96.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來(lái)解決問(wèn)題?

A、蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)

B、化學(xué)反應(yīng)的預(yù)測(cè)

C、外來(lái)粒子的檢測(cè)

D、所有這些

答案:D

97.梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)變

為無(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題?

A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUs

B、梯度裁剪

C、Dropout

D、所有方法都不行

答案:B

98.EM算法是()

A、有監(jiān)督

B、無(wú)監(jiān)督

C、半監(jiān)督

D、都不是

答案:B

99.啟發(fā)式搜索是尋求問(wèn)題()解的一種方法

A、最優(yōu)

B、一般

C、滿意

D、最壞

答案:C

100.馬爾可夫預(yù)測(cè)模型是將時(shí)間序列看作一個(gè)過(guò)程,通過(guò)對(duì)事物不同狀態(tài)的()

與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢(shì),預(yù)測(cè)事物的未來(lái)。

A、初始概率

B、結(jié)果概率

C、形成概率

答案:A

101.常見(jiàn)的圖像預(yù)處理方法不包括(一)。

A、圖像降噪

B、圖像增強(qiáng)

C、圖像尺寸歸一化

D、圖像標(biāo)注

答案:D

解析:常見(jiàn)的圖像預(yù)處理方法不包括圖像標(biāo)注。

102.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是

A、CNN

B、LSTM

C、GRU

D、RNN

答案:D

解析:RNN(RecurrentNeuraINetwork)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RN

N存在一些問(wèn)題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸

103.前饋神經(jīng)網(wǎng)絡(luò)通過(guò)誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()

機(jī)器學(xué)習(xí)手段

A、監(jiān)督學(xué)習(xí)

B、無(wú)監(jiān)督學(xué)習(xí)

C、半監(jiān)督學(xué)習(xí)

D、無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合

答案:A

104.在強(qiáng)化學(xué)習(xí)的過(guò)程中,學(xué)習(xí)率a越大,表示采用新的嘗試得到的結(jié)果比例越

(),保持舊的結(jié)果的比例越0。

A、大

B、小

C、大

D、大

E、小

答案:A

105.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者

的說(shuō)法正確的是:

A、L1正則化可以做特征選擇

B、L1和L2正則化均可做特征選擇

C、L2正則化可以做特征選擇

D、L1和L2正則化均不可做特征選擇

答案:A

106.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過(guò)程,須有一定的機(jī)制來(lái)緩解過(guò)擬合的風(fēng)

險(xiǎn),最常見(jiàn)的做法是(_)

A、序列化

B、剪枝

C、去重

D、重組

答案:B

解析:見(jiàn)算法解析

107.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?

A、Boosting

B、Stacking

C、Bagging

D、Marking

答案:D

108.使用決策樹(shù)分類時(shí),如果輸入的某個(gè)特征的值是連續(xù)的,通常使用二分法對(duì)

連續(xù)屬性離散化,即根據(jù)是否大于/小于某個(gè)閾值進(jìn)行劃分。如果采用多路劃分,

每個(gè)出現(xiàn)的值都劃分為一個(gè)分支,這種方式的最大問(wèn)題是

A、計(jì)算量太大

B、驗(yàn)證集和測(cè)試集表現(xiàn)很差

C、驗(yàn)證集表現(xiàn)良好,測(cè)試集表現(xiàn)很差

D、驗(yàn)證集表現(xiàn)很差,測(cè)試集表現(xiàn)很好

答案:C

109.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比

如輸入是“predicts”(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪

種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、全連接神經(jīng)網(wǎng)絡(luò)

C、受限波爾茲曼機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:A

110.關(guān)于梯度下降算法描述正確的是:

A、梯度下降算法就是不斷的更新w和b的值

B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值

C、梯度下降算法就是不斷尋找損失函數(shù)的最大值

D、梯度下降算法就是不斷更新學(xué)習(xí)率

答案:A

解析:梯度下降算法就是不斷的更新w和b的值

111.MatplotIib是一個(gè)主要用于繪制()維圖形的Python庫(kù),用途:繪圖、可

視化。

A、—

B、二

C、三

D、四

答案:B

解析:見(jiàn)算法解析

112.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個(gè),使用GA

P的優(yōu)點(diǎn)是()

A、提供更好的分類

B、減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入

C、加速模型收斂

D、增加網(wǎng)絡(luò)深度

答案:B

解析:GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一^使用

GAP的優(yōu)點(diǎn)是減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入

113.不屬于深度學(xué)習(xí)模型的選項(xiàng)是?

A、樸素貝葉斯

B、深度殘差網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)CNN

D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

答案:A

解析:樸素貝葉斯算法是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類算法不屬于

深度學(xué)習(xí)模型。

114.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()

A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率

B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率

C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率

D、1、2都對(duì)

答案:A

115.CascadeRCNN中使用了()個(gè)BBOXHead完成目標(biāo)檢測(cè)

A、1

B、2

C、3

D、4

答案:c

解析:見(jiàn)算法解析

116.下列關(guān)于長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是。。

A、LSTM是簡(jiǎn)化版的RNN

B、LSTM是雙向的RNN

GLSTM是多層的RNN

DvLSTM是RNN的擴(kuò)展,通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴問(wèn)題

答案:D

解析:LSTM是RNN的擴(kuò)展,通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴問(wèn)題

117.邏輯回歸的損失函數(shù)是下列哪一種?()

A、平方損失函數(shù)

B、對(duì)數(shù)損失函數(shù)

GHingeLossOT損失函數(shù)

D、絕對(duì)值損失函數(shù)

答案:B

118.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K

的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為

A、噪聲

B、核心簇

C、邊界簇

D、以上都不對(duì)

答案:A

119.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫(xiě)是:

A、DNN

B、CNN

C、RNN

D\Tanh

答案:B

解析:卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫(xiě)是CNN

120.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說(shuō)法中正確的是

A、在實(shí)際場(chǎng)景下,應(yīng)盡量使用ADAM,避免使用SGD

B、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法

C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通

常會(huì)取得更好效果

D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過(guò)擬合

答案:C

解析:相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)

通常會(huì)取得更好效果

121.下列屬于特征降維的方法有

A、主成分分析PCA

B、數(shù)據(jù)采樣

G正則化

D、最小二乘法

答案:A

122.下列選項(xiàng)中,不屬于深度學(xué)習(xí)模型的是?

A、線性回歸

B、深度殘差網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)CNN

D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

答案:A

解析:線性回歸是傳統(tǒng)統(tǒng)計(jì)學(xué)系呢絨

123.關(guān)于GoogLeNet描述正確的有:

A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個(gè)很淺的網(wǎng)絡(luò)

B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開(kāi)了思路

C\GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一^"b版本

DxGoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計(jì)結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)

構(gòu)

答案:B

解析:GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開(kāi)了思路

124.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

A、隨機(jī)梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、以上都不正確

答案:B

解析:修正線性單元是非線性的激活函數(shù)

125.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型

A、馬可夫決策

B、貝葉斯

C、HMM

D、最大后驗(yàn)概率

答案:A

解析:見(jiàn)算法解析

126.在£-greedy策略當(dāng)中,E的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),

采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。

A、大

B、小

C、大

D、大

E、小

答案:A

127.()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)

定性。反應(yīng)預(yù)測(cè)的波動(dòng)情況。

A、標(biāo)準(zhǔn)差

B、方差

C、偏差

D、平方差

答案:B

解析:方差反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的

穩(wěn)定性。反應(yīng)預(yù)測(cè)的波動(dòng)情況。

128.K-Means算法無(wú)法聚以下哪種形狀的樣本

A、圓形分布

B、螺旋分布

C、帶狀分布

D、凸多邊形分布

答案:B

129.()是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。

A、軌跡跟蹤

B、決策樹(shù)

C、數(shù)據(jù)挖掘

D、K近鄰算法

答案:B

解析:軌跡跟蹤又稱為前輪反饋控制法(FrontwheeIfeedback),核心在于基于

前輪中心的路徑跟蹤偏差量對(duì)方向盤(pán)轉(zhuǎn)向控制量進(jìn)行計(jì)算。決策樹(shù)算法是一種逼

近離散函數(shù)值的方法,它是一種典型的分類方法,首先對(duì)數(shù)據(jù)進(jìn)行處理,利用歸

納算法生成可讀的規(guī)則和決策樹(shù),然后使用決策對(duì)新數(shù)據(jù)進(jìn)行分析。數(shù)據(jù)挖掘是

指從大量的數(shù)據(jù)中通過(guò)算法搜索隱藏于其中信息的過(guò)程。K近鄰算法,即是給定

一個(gè)訓(xùn)練數(shù)據(jù)集,對(duì)新的輸入實(shí)例,在訓(xùn)練數(shù)據(jù)集中找到與該實(shí)例最鄰近的K

個(gè)實(shí)例,這K個(gè)實(shí)例的多數(shù)屬于某個(gè)類,就把該輸入實(shí)例分類到這個(gè)類中。符合

題意的為B項(xiàng)決策樹(shù)。答案選B

130.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:()

A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。

B、最著名的算法之一是基于決策樹(shù)基分類器的隨機(jī)森林。

C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。

D、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。

答案:A

131.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過(guò)程中,以下哪個(gè)選項(xiàng)不屬于

決策樹(shù)構(gòu)建過(guò)程當(dāng)中的步驟?

A、剪枝

B、特征選取

C、數(shù)據(jù)清理

D、決策樹(shù)生成

答案:C

132.通過(guò)以下哪些指標(biāo)我們可以在層次聚類中尋找兩個(gè)集群之間的差異?()

A、單鏈接

B、全鏈接

C、均鏈接

D、以上都行

答案:D

133.下述()不是人工智能中常用的知識(shí)格式化表示方法。

A、框架表示法

B、產(chǎn)生式表示法

C\語(yǔ)乂網(wǎng)絡(luò)表K法

D、形象描寫(xiě)表示法

答案:D

134.比較成熟的分類預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線性模型、。、

神經(jīng)網(wǎng)絡(luò)

A、決策樹(shù)

B、arima模型

C、holt-winter模型

D、k-means模型

答案:A

135.在pytorch中,設(shè)模型變量名為modeI,則對(duì)modeI.evaI()的描述正確的是

A、modeI.eval()可以在模型訓(xùn)練階段使用

B、modeI.eval0只能在模型測(cè)試階段使用

C、model,eval()在模型驗(yàn)證,模型測(cè)試階段都可以使用

D、model,eval()在模型訓(xùn)練'模型驗(yàn)證、模型測(cè)試階段都可以使用

答案:C

解析:在pytorch中,model.eval在模型驗(yàn)證、模型測(cè)試階段都可以使用

136.()控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸入進(jìn)行

更新。

A、隱狀態(tài)向量

B、狀態(tài)向量

C、顯狀態(tài)向量

D、以上都不對(duì)

答案:B

解析:狀態(tài)向量控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸

入進(jìn)行更新。

137.早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是()。

A、全局特征丟掉了圖像細(xì)節(jié)

B、提取不到主要特征

C、存儲(chǔ)效率低下

D、太多的錯(cuò)誤匹配

答案:A

解析:早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是全局特征丟掉了圖像細(xì)節(jié)。

138.FPN中根據(jù)ROI的()來(lái)分配所屬層級(jí)?

A、分類分?jǐn)?shù)

B、最大邊長(zhǎng)度

C、面積

D、nan

答案:C

解析:見(jiàn)算法解析

139.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。

AvBoosting

B、Bagging

C、Stacking

DvDropping

答案:B

解析:隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實(shí)現(xiàn)。

140.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣

相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別

為m*n,n*p,p*q,且m〈n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

答案:A

141.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過(guò)程中,

通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)參數(shù)不是通過(guò)誤差后向傳

播來(lái)優(yōu)化的

A、卷積濾波矩陣中的參數(shù)

B、全連接層的鏈接權(quán)重

C、激活函數(shù)中的參數(shù)

D、模型的隱藏層數(shù)目

答案:D

142.下列不屬于樹(shù)模型的是

A、GBDT梯度提升樹(shù)

B、XGBoost

C、RF隨機(jī)森林

D、LR線性回歸

答案:D

143.fasterRCNN用于生成候選框proposaI的模塊名稱()

A、RPN

B、CNN

C\ResNet

D、RoIpooIing

答案:A

解析:fasterRCNN用于生成候選框proposal的模塊是RPN

144.LSTM用于文本分類的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是()

A、全連接

B、詞嵌入層

C\卷積層

D、以上選項(xiàng)均不正確

答案:C

解析:LSTM中沒(méi)有卷積層

145.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于

1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?

A、ReLu

B\Softmax

C、Sigmoid

D、Tanh

答案:B

146.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪

項(xiàng)技術(shù)?

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

D、都可以

答案:D

147.ROIPooling在那個(gè)模型中被第一次提出()

A、fast-rcnn

B、faster-rcnn

C、mask-rcnn

D、rcnn

答案:A

解析:見(jiàn)算法解析

148.以下關(guān)于特征工程的說(shuō)法不正確的是

A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過(guò)程

B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個(gè)上限

C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提

取'特征選擇三個(gè)部分。

D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特征子集。

答案:D

149.關(guān)于遞歸函數(shù)基例的說(shuō)明,以下選項(xiàng)中錯(cuò)誤的是

A、遞歸函數(shù)必須有基例

B、遞歸函數(shù)的基例不再進(jìn)行遞歸

C、每個(gè)遞歸函數(shù)都只能有一個(gè)基例

D、遞歸函數(shù)的基例決定遞歸的深度

答案:C

150.線性回歸方法是假定條件屬性和決策屬性之間存在線性關(guān)系,然后通過(guò)訓(xùn)練

數(shù)據(jù)擬合出一個(gè)()方程,并使用該方程去預(yù)測(cè)未知的新實(shí)例。

A、一元一次

B、線性

C、二元一次

D、多元

答案:B

151.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是

你有一個(gè)類似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來(lái)利用這個(gè)

預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?

A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層

B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型

C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)

D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用

答案:C

152.下列關(guān)于XGboost算法描述中錯(cuò)誤的是

A、由于其特殊原因,無(wú)法分布式化

B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度

C、可以處理帶有缺失值的樣本

D、允許使用列抽樣來(lái)減少過(guò)擬合

答案:A

153.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之

前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?

A、增加參數(shù)數(shù)量

B、減少參數(shù)數(shù)量

C、在開(kāi)始時(shí)將學(xué)習(xí)率降低10倍

D、改變幾個(gè)時(shí)期的學(xué)習(xí)率

答案:D

154.在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為()。

A、reIu

B、batch

C、step

D、padding

答案:B

解析:在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為batch。

155.代碼array=np.arange(10,31,5)中的5代表()?

A、元素的個(gè)數(shù)

B、步長(zhǎng)

C、第一個(gè)元素

D、最后一個(gè)元素

答案:B

解析:見(jiàn)算法解析

156.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特

征,創(chuàng)作音樂(lè)作品。

A、XLNet

B、GoogIeNet

C、MuseNet

D、AlexNet

答案:c

解析:MuseNet采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音

色的特征,創(chuàng)作音樂(lè)作品。

157.DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語(yǔ)沖突;2.采用詞袋模型,

損失了上下文語(yǔ)序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)doc

排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來(lái)判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難

以收斂;4.效果不可控。

A、1.2.3

B、1.3.4

C、2.3.4

D、1.2.3.4

答案:D

解析:DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語(yǔ)沖突;2.采用詞袋模

型,損失了上下文語(yǔ)序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)d

℃排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來(lái)判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模

型難以收斂;4.效果不可控。

158.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語(yǔ)的多種含義共存。下列

哪一種方法可能是解決此問(wèn)題的最好選擇?

A、隨機(jī)森林分類器

B、卷積神經(jīng)網(wǎng)絡(luò)

C、梯度爆炸

D、上述所有方法

答案:B

159.下列哪個(gè)不是激活函數(shù)()。

A、sigmod

B、reIu

C、tanh

D、hidden

答案:D

解析:hidden不是激活函數(shù)。

160.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM

中增加了()導(dǎo)致單元內(nèi)的處理過(guò)程不同。

A、輸入門(mén)

B、記憶門(mén)

C、忘記門(mén)

D\輸出門(mén)

答案:C

解析:長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LS

TM中增加了忘記門(mén)導(dǎo)致單元內(nèi)的處理過(guò)程不同。

161.批規(guī)范化(BatchNormaIization)的好處都有啥?

A、讓每一層的輸入的范圍都大致固定

B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不是

答案:A

162.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:A

解析:廣度優(yōu)先搜索會(huì)根據(jù)離起點(diǎn)的距離,按照從近到遠(yuǎn)的順序?qū)Ω鞴?jié)點(diǎn)進(jìn)行搜

索。而深度優(yōu)先搜索會(huì)沿著一條路徑不斷往下搜索直到不能再繼續(xù)為止,然后再

折返,開(kāi)始搜索下一條路徑。廣度優(yōu)先搜索可以找出節(jié)點(diǎn)的最短路徑,即可以解

決最短路徑問(wèn)題。有界深度優(yōu)先搜索為了解決深度有限搜索誤入無(wú)窮分支,定出

一個(gè)深度界限,在找尋達(dá)到這一深度界限而且還沒(méi)有找到目標(biāo)時(shí),即返回重找。

啟發(fā)式搜索是利用問(wèn)題擁有的啟發(fā)信息來(lái)引導(dǎo)搜索,達(dá)到減少搜索范圍、降低問(wèn)

題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受的解(通常并不一定是

最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索必然可以得到最優(yōu)解,答案選A

163.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)

行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)

A、輸入數(shù)據(jù)大小

B、神經(jīng)元和神經(jīng)元之間連接有無(wú)

C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重

D、同一層神經(jīng)元之間的連接權(quán)重

答案:C

164.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。

A、權(quán)重

B、偏置

C、激活函數(shù)

D、學(xué)習(xí)率

答案:D

解析:學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。

165.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。

A、一^

B、兩個(gè)

C、多個(gè)

D\無(wú)

答案:A

解析:神經(jīng)元之間的每個(gè)連接都有一個(gè)權(quán)重。

166.下列哪項(xiàng)不是SVM的優(yōu)勢(shì)

A、可以和核函數(shù)結(jié)合

B、通過(guò)調(diào)參可以往往可以得到很好的分類效果

C、訓(xùn)練速度快

D、泛化能力好

答案:C

解析:SVM的訓(xùn)練速度不快

167.問(wèn)答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:

A、問(wèn)答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話、在線搜索和其他地方提取信息,

以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個(gè)文檔,而是更喜歡簡(jiǎn)短而

簡(jiǎn)潔的答案。

B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對(duì)文

本文檔的搜索,尚且無(wú)法從圖片集合中提取信息。

C、大多數(shù)NLP問(wèn)題都可以被視為一個(gè)問(wèn)題回答問(wèn)題。范例很簡(jiǎn)單:我們發(fā)出查

詢指令,機(jī)器提供響應(yīng)。通過(guò)閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種

各樣的問(wèn)題。

D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問(wèn)題進(jìn)行了專

門(mén)開(kāi)發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問(wèn)題的訓(xùn)練集,它可以形成情節(jié)記憶,

并使用它們來(lái)產(chǎn)生相關(guān)答案。

答案:B

解析:刪除

168.Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?

A、COBWSoftmax

B、SoftmaxyCBOW

C、CBOW、Skip-gramD

D、Skip-gramCOBWC

答案:c

解析:Word2Vec提出了兩個(gè)算法訓(xùn)練詞向量

169.Iou表示的是0

A、兩個(gè)框之間的重疊程度

B、兩個(gè)框的總面積

C、兩個(gè)框的相對(duì)大小

D、一個(gè)框面積與周長(zhǎng)比值

答案:A

解析:見(jiàn)算法解析

170.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享

A、卷積神經(jīng)網(wǎng)絡(luò)&

B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&

C、&全連接神經(jīng)網(wǎng)絡(luò)&

D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)

答案:D

解析:見(jiàn)算法解析

171.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯(cuò)誤的為(一)

A、貝葉斯的學(xué)習(xí)過(guò)程為對(duì)訓(xùn)練樣本計(jì)數(shù);

B、估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率;

C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;

D、評(píng)分搜索為求解的常用辦法;

答案:C

解析:見(jiàn)算法解析

172.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?

A、樣本輸入順序

B、模式相似性測(cè)度

C、聚類準(zhǔn)則

D、初始類中心的選取

答案:C

173.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以

更好地解決這個(gè)問(wèn)題?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、感知機(jī)

C、多層感知機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:D

174.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將向量投影到

低維空間。

A、線性變換

B、非線性變換

C、拉布拉斯變換

D、z變換

答案:A

解析:主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)線性變換將向量

投影到低維空間。

175.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),

每個(gè)主分量的權(quán)數(shù)為0。

A、每個(gè)主分量的方差

B、每個(gè)主分量的標(biāo)準(zhǔn)差

C、每個(gè)主分量的方差貢獻(xiàn)率

D、每個(gè)主分量的貢獻(xiàn)率

答案:C

解析:在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),

每個(gè)主分量的權(quán)數(shù)為每個(gè)主分量的方差貢獻(xiàn)率。

176.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是

A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting

B、Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是Bootstrap

C、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類器,然后把這些分類器進(jìn)行

組合

D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)

答案:A

177.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸

入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?

A、ReLU

B、tanh

C、SIGMOID

D、以上都不是

答案:B

178.語(yǔ)音是一種典型的()數(shù)據(jù)。

A、無(wú)結(jié)構(gòu)無(wú)序列

B、方結(jié)構(gòu)序列

C、無(wú)結(jié)構(gòu)序列

D、有結(jié)構(gòu)無(wú)序列

答案:C

解析:語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。

179.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長(zhǎng)

序列。

A、SLTM

B、SLMT

C\LSMT

D、LSTM

答案:D

解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建

模長(zhǎng)序列。

180.關(guān)于線性回歸的描述,以下正確的有()

A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布

B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布

C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小

D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)

答案:B

解析:線性回歸的基本假設(shè)是隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布

181.機(jī)器學(xué)習(xí)算法的一般流程是()。

Av1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)

使用算法

B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)

使用算法

C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測(cè)試算法,5)訓(xùn)練算法,6)

使用算法

D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測(cè)試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)據(jù),6)

使用算法

答案:A

解析:機(jī)器學(xué)習(xí)算法的一般流程⑴收集數(shù)據(jù):可以使用任何方法。(2)準(zhǔn)備數(shù)據(jù):

距離計(jì)算所需要的數(shù)值,最好是結(jié)構(gòu)化的數(shù)據(jù)格式。(3)分析數(shù)據(jù):可以使用任

何方法。(4)訓(xùn)練算法:此步驟不適用于k-近鄰算法。(5)測(cè)試算法:計(jì)算錯(cuò)誤

率。(6)使用算法:首先需要輸入樣本數(shù)據(jù)和結(jié)構(gòu)化的輸出結(jié)果,然后運(yùn)行k-近

鄰算法判定輸入數(shù)據(jù)分別屬于哪個(gè)分類,最后應(yīng)用對(duì)計(jì)算出的分類執(zhí)行后續(xù)的處

理。

182.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionaIneuraInetwork,CNN),是一種專門(mén)用來(lái)處理

具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。

A、網(wǎng)格結(jié)構(gòu)

B、數(shù)組結(jié)構(gòu)

C、序列結(jié)構(gòu)

D、表格結(jié)構(gòu)

答案:A

解析:卷積神經(jīng)網(wǎng)絡(luò)(convoIu-tionaIneuraInetwork,CNN),是一種專門(mén)用來(lái)處

理具有類似0的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。

183.語(yǔ)言模型的作用是:

A、查看一句話成為一句“人話”的概率

B、查看一句話是英語(yǔ)的概率

C、查看一句話是漢語(yǔ)的概率

D、查看一句話是否是完整的

答案:A

解析:語(yǔ)言模型的作用是查看一句話成為一句“人話”的概率

184.關(guān)于線性回歸的描述,以下說(shuō)法正確的有()

A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布

B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布

C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小

D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)

答案:B

解析:線性回歸基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布

185..混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程

中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?

A、混沌度沒(méi)什么影響

B、混沌度越低越好

C、混沌度越高越好

D、混沌度對(duì)于結(jié)果的影響不一定

答案:B

186.環(huán)境在接受到個(gè)體的行動(dòng)之后,會(huì)反饋給個(gè)體環(huán)境目前的狀態(tài)(state)以

及由于上一個(gè)行動(dòng)而產(chǎn)生的()。

A、action

B、reward

Cvstate

Dvagent

答案:B

解析:見(jiàn)算法解析

187.ONE-HOT-ENCODING可用于什么特征處理

A、類別型特征

B、有序性特征

C、數(shù)值型特征

D、字符串型特征

答案:A

188.ResNet-50有多少個(gè)卷積層?()

A、48

B、49

C、50

D、51

答案:B

189.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AK0鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知識(shí)的

A、無(wú)悖性

B、可擴(kuò)充性

C、繼承性

D、連貫性

答案:C

解析:語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知識(shí)的繼承

190.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()

A、數(shù)字

B、字符

C、符號(hào)

D、英文

答案:A

解析:為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字

191.感知器在空間中可以展現(xiàn)為?

A、點(diǎn)

B、線

C、平面

D、超平面

答案:A

192.下面算法中哪個(gè)不是分類算法

A、決策樹(shù)

B、高斯混合模型GMM

C、隨機(jī)森林

D\Xgboost

答案:B

193.Skip-gram在實(shí)際操作中,使用一個(gè)()(一般情況下,長(zhǎng)度是奇數(shù)),從

左到右開(kāi)始掃描當(dāng)前句子。

A、過(guò)濾器

B、滑動(dòng)窗口

C、篩選器

D、掃描器

答案:B

解析:見(jiàn)算法解析

194.線性回歸在3維以上的維度中擬合面是?

A、曲面

B、平面

C、超平面

D、超曲面

答案:C

195.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率

的說(shuō)法,錯(cuò)誤的是()

A、學(xué)習(xí)率太小,更新速度慢

B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解

C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)

D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改

答案:C

解析:CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)

率的說(shuō)法,錯(cuò)誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)

196.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])

的輸出是()?

A、5

B、25

C\6

D、26

答案:B

解析:見(jiàn)算法解析

197.()的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。模型需要區(qū)分兩個(gè)輸入是來(lái)自

于同一圖片的不同視角,還是來(lái)自完全不同的兩張圖片。

A、對(duì)比學(xué)習(xí)

B、強(qiáng)化學(xué)習(xí)

C、遷移學(xué)習(xí)

D、深度學(xué)習(xí)

答案:A

解析:對(duì)比學(xué)習(xí)的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。模型需要區(qū)分兩個(gè)輸入

是來(lái)自于同一圖片的不同視角,還是來(lái)自完全不同的兩張圖片。

198.在神經(jīng)網(wǎng)絡(luò)中,我們是通過(guò)以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而

最小化損失函數(shù)的?

A、正向傳播算法

B、池化計(jì)算

C、卷積計(jì)算

D、反向傳播算法

答案:D

199.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?

A、GMM

B、Xgboost

c、聚類

D、關(guān)聯(lián)規(guī)則

答案:B

200.對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()

A、軟間隔

B、硬間隔

C、核函數(shù)

D、以上選項(xiàng)均不正確

答案:B

解析:對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是硬間隔

多選題

1.關(guān)于邏輯回歸正確的是()

A、風(fēng)險(xiǎn)控制是金融領(lǐng)域最核心的問(wèn)題,邏輯回歸是在風(fēng)險(xiǎn)評(píng)估中最經(jīng)典常用的

方法

B、邏輯回歸可以用到互聯(lián)網(wǎng)廣告點(diǎn)擊預(yù)測(cè)

C、邏輯回歸只能用于解決二分類問(wèn)題

D、以上都不對(duì)

答案:AB

2.一下哪幾種是常見(jiàn)的激活函數(shù)

A、sigmoid

B、reIu

C、tanh

D、skip

答案:ABC

解析:見(jiàn)算法解析

3.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。

A、VGGNet

B\ResNet

C、AlexNet

D\GoogIeNet

答案:ABCD

4.可以用隨機(jī)梯度下降法求解參數(shù)的模型分別有()

A、線性回歸

B、卷積神經(jīng)網(wǎng)絡(luò)

C、循環(huán)神經(jīng)網(wǎng)絡(luò)

D、LSTM

答案:ABCD

解析:見(jiàn)算法解析

5.假設(shè)我們要解決一個(gè)二類分類問(wèn)題,我們已經(jīng)建立好了模型,輸出是0或1,初

始時(shí)設(shè)閾值為0.5,超過(guò)0.5概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)

在用另一個(gè)大于0.5的閾值,那么現(xiàn)在關(guān)于模型說(shuō)法,正確的是

A、模型分類的召回率不變

B、模型分類的召回率會(huì)升高

C、模型分類準(zhǔn)確率會(huì)升高或不變

D、模型分類準(zhǔn)確率降低

答案:AC

解析:準(zhǔn)確率:即預(yù)測(cè)結(jié)果正確的百分比。精確率(查準(zhǔn)率):預(yù)測(cè)結(jié)果為正例

樣本中真實(shí)為正例的比例(查得準(zhǔn))。召回率(查全率):真實(shí)為正例的樣本中

預(yù)測(cè)結(jié)果為正例的比例(查的全,對(duì)正樣本的區(qū)分能力。F-score:在實(shí)踐中,

我們定義了新的指標(biāo)去“綜合”這兩個(gè)指標(biāo)。具體的定義如公式(3),從數(shù)學(xué)

上來(lái)看,它其實(shí)是查準(zhǔn)率與查全率的調(diào)和平均數(shù)。對(duì)于二元分類問(wèn)題,F(xiàn)-score

綜合考慮了預(yù)測(cè)結(jié)果的查準(zhǔn)率和查全率,是一個(gè)比較好的評(píng)估指標(biāo)。

6.Embedding編碼有哪些特點(diǎn)?

A、特征稠密

B、特征稀疏

C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)

D、泛化性更好,支持語(yǔ)義運(yùn)算sim

答案:ACD

解析:見(jiàn)算法解析

7.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不正確的()

A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的

B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程

C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的

D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了

答案:ACD

8.以下算法中可以用于圖像處理中去噪的是0。

A、中值濾波

B、均值濾波

C、最小值濾波

D、最大值濾波

答案:ABCD

解析:見(jiàn)算法解析

9.下列可用于隱馬爾可夫預(yù)測(cè)的算法是()。

A、維特比算法

B、Baum-Welch算法

C、前向-后向算法

D、擬牛頓法

答案:ABCD

解析:A是教材原文;B是EM算法,

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論