版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能算法知識(shí)考試題庫(kù)500題(供參考)
一、單選題
1.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積
核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則
輸出的featuremap矩陣的結(jié)構(gòu)是()。
A、27*27*3
B、28*28*3
C、27*27*6
D、28*28*6
答案:D
解析:循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,
卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featurema
P,則輸出的featuremap矩陣的結(jié)構(gòu)是28*28*6。
2.fromskIearnimportIinear_modeIreg=Iinear_modeI.Lasso,其中Lasso是用
來(lái)擬合什么樣的線性模型的?
A、稀疏數(shù)據(jù)
B、稀疏系數(shù)
C'稀疏標(biāo)簽
答案:B
3.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,哪一個(gè)必然可以得到該最優(yōu)解
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:A
解析:廣度優(yōu)先搜索搜索的范圍最廣
4.在強(qiáng)化學(xué)習(xí)過(guò)程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種結(jié)果;()表示
采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前認(rèn)為最優(yōu)的動(dòng)作的值。
A、探索
B、開(kāi)發(fā)
C、開(kāi)發(fā)
D、探索
E、探索
答案:A
5.對(duì)于一個(gè)分類任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成
0,下面哪個(gè)敘述是正確的?
A、其他選項(xiàng)都不對(duì)
B、沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練
C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西
D、神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變
答案:C
6.下列哪些不是“子集搜索”中的搜索方式(_)
A、單向搜索
B、雙向搜索
C、前向搜索
D、后向搜索
答案:A
解析:見(jiàn)算法解析
7.LARS屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
答案:C
解析:見(jiàn)算法解析
8.生成式方法是直接基于(_)的方法?
A、生成式學(xué)習(xí)
B、生成式場(chǎng)景
C、生成式數(shù)據(jù)
D、生成式模型
答案:D
解析:見(jiàn)算法解析
9,下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect
對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重
A、1是對(duì)的,2是錯(cuò)的
B、都是對(duì)的
C、1是錯(cuò)的,2是對(duì)的
D、都是錯(cuò)的
答案:D
10.機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是
A、卡方檢驗(yàn)
B、信息增益
C、數(shù)據(jù)采樣
D、期望交叉熠
答案:C
11,下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是(_)
A、可以提高特征關(guān)聯(lián)性
B、可以減輕維數(shù)災(zāi)難問(wèn)題
C、可以降低學(xué)習(xí)任務(wù)的難度
D、特征選擇和降維具有相似的動(dòng)機(jī)
答案:A
解析:見(jiàn)算法解析
12.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降
算法,以下關(guān)于其有優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:
A、全局梯度算法可以找到損失函數(shù)的最小值
B、批量梯度算法可以解決局部最小值問(wèn)題
C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值
D、全局梯度算法收斂過(guò)程比較耗時(shí)
答案:C
13.下面的問(wèn)題,屬于分類問(wèn)題的是;
A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅
B、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工下一季度的績(jī)效考核分?jǐn)?shù)
C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職
D、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工下一季度的銷售額
答案:C
14.關(guān)于精度與錯(cuò)誤率的說(shuō)法中錯(cuò)誤的是()。
A、精度與錯(cuò)誤率的和為1
B、精度與錯(cuò)誤率都可以反映模型的好壞
C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示
D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)
答案:D
解析:精度是不是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)
15.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到
該最優(yōu)解,()可以認(rèn)為是“智能程度相對(duì)比較高”的算法。
A、無(wú)界深度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:D
16.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()
A、y=tanh(x)
B\y=sin(x)
Gy=max(x,0)
D\y=2x
答案:D
17.Softmax算法中溫度趨近于0時(shí)Softmax將趨于(_)
A、僅探索
B、僅利用
C、全探索
D、全利用
答案:B
解析:見(jiàn)算法解析
18.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。
A、1
B、2
C、3
D、4
答案:A
解析:閔可夫斯基距離定義為:該距離最常用的P是2和1,前者是歐幾里得距
離),后者是曼哈頓距離。
19.下面的問(wèn)題,哪一個(gè)屬于分類問(wèn)題的是()
A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工下一季度的銷售額
B、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工下一季度的績(jī)效考核分?jǐn)?shù)
C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅
D、根據(jù)員工的薪水、工作壓力,成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)
員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職
答案:D
20.Relief屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
答案:D
解析:見(jiàn)算法解析
21.哪種聚類方法采用概率模型來(lái)表達(dá)聚類()
A、K-means
B、LVQ
GDBSCAN
D、高斯混合聚類
答案:D
22.faster-rcnn回歸分支采用()Ioss
A、L1
B、L2
C、SmoothLI
D\nan
答案:C
解析:見(jiàn)算法解析
23.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果
知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的
權(quán)重和偏移呢?
A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值
B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重
C、隨機(jī)賦值,聽(tīng)天由命
D、以上都不正確的
答案:B
24.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識(shí)別的時(shí)候,不需要對(duì)整個(gè)圖
像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。
A\一般
B、特殊
C、連續(xù)
D\重點(diǎn)
答案:B
解析:見(jiàn)算法解析
25.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()
A、HopfieId網(wǎng)
B、BP網(wǎng)絡(luò)
C、多層感知器
D、LVQ網(wǎng)絡(luò)
答案:A
解析:$BP網(wǎng)絡(luò)'多層感知器、LVQ網(wǎng)絡(luò)屬于前饋網(wǎng)絡(luò)
26.下列關(guān)于K-Means聚類說(shuō)法錯(cuò)誤的是()
A、聚類的簇個(gè)數(shù)會(huì)由模型自動(dòng)給出
B、可以使用多組隨機(jī)的初始中心點(diǎn)進(jìn)行計(jì)算
C、聚類前應(yīng)當(dāng)進(jìn)行維度分析
D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化
答案:A
解析:聚類的簇個(gè)數(shù)由人為確定。
27.LSTM是一種什么網(wǎng)絡(luò)?
A、卷積神經(jīng)網(wǎng)
B、前饋神經(jīng)網(wǎng)
C\循環(huán)神經(jīng)網(wǎng)
D\攣生網(wǎng)絡(luò)
答案:C
解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)
28.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?
A、卷積層
B、池化層
C、全連接層
D、以上都可以
答案:C
29.回歸分析中定義的()
A、解釋變量和被解釋變量都是隨機(jī)變量
B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量
C、解釋變量和被解釋變量都為非隨機(jī)變量
D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量
答案:B
30.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的丟失,
所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和()
A\平移
B、刪除
C、移動(dòng)
D、收斂
答案:A
解析:如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的丟失,
所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和平移
31.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是0。
A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集
B、有訓(xùn)練集和測(cè)試集兩部分
C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷
D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽
答案:C
32.Reiu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()
A、設(shè)為0
B、設(shè)為無(wú)窮大
C、不定義
D、設(shè)為任意值
答案:A
解析:Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中設(shè)為0
33.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入
進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?
A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出
B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出
C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出
D、上述都正確
答案:D
解析:每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。如圖所示的神經(jīng)
網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個(gè)神經(jīng)元都是多輸入多輸出。若將輸出層改為一個(gè)神
經(jīng)元,則隱藏層每個(gè)神經(jīng)元都是一個(gè)輸出;若將輸入層改為一個(gè)神經(jīng)元,則隱藏
層每個(gè)神經(jīng)元都是一個(gè)輸入。
34.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()
A、防止過(guò)擬合
B、減小誤差
C、增加網(wǎng)絡(luò)復(fù)雜度
答案:A
解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一
定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。
35.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:
A、完全拷貝
B、一點(diǎn)點(diǎn)關(guān)系都沒(méi)有
C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)
D、同一事物的兩個(gè)名稱
答案:C
解析:人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)
36.模型有效的基本條件是能夠()已知的樣本
A、結(jié)合
B、擬合
C、聯(lián)合
D、聚集
答案:B
解析:模型有效的基本條件是能夠擬合已知的樣本
37.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,
那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?
A、Softmax
B、ReLu
C、Sigmoid
D、Tanh
答案:A
38.在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是()
A、出現(xiàn)人臉遮擋
B、人臉角度變化大
C、需要檢測(cè)分辨率很小的人臉
D、需要檢測(cè)不同性別的人臉
答案:D
解析:在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是需要檢測(cè)不同性別的人臉
39.機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()
A、參數(shù)預(yù)估
B、機(jī)器翻譯
C、圖像識(shí)別
D、參數(shù)估計(jì)
答案:D
解析:機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是參數(shù)估計(jì)
40.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問(wèn)題,logis
tics回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練。如何提高訓(xùn)練速度?()
A、降低學(xué)習(xí)率,減少迭代次數(shù)
B、降低學(xué)習(xí)率,增加迭代次數(shù)
C、提高學(xué)習(xí)率,增加迭代次數(shù)
D、增加學(xué)習(xí)率,減少迭代次數(shù)
答案:D
41.0是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸出
A、卷積
B、約化
C、池化
D、批歸一化
答案:C
解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸
出
42.圖計(jì)算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),
首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上
A、結(jié)構(gòu)化
B、非結(jié)構(gòu)化
C\對(duì)稱化
D、規(guī)則化
答案:B
解析:圖計(jì)算中圖數(shù)據(jù)往往是非結(jié)構(gòu)化和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)
算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上
43.在CNN中,梯度下降法的作用是()。
A、線性變換
B、非線性變換
C、求函數(shù)最小值
D、加速訓(xùn)練
答案:C
解析:在CNN中,梯度下降法的作用是求函數(shù)最小值。
44.Y0L0v3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的0
A、C
B、C*H
C、H*W
D、nan
答案:c
解析:見(jiàn)算法解析
45.目標(biāo)檢測(cè)常用性能指標(biāo)的是()
A、信噪比
B、平方誤差
C、mAP
D、分辨率
答案:C
解析:mAP表示算法處理每張照片時(shí)間。
46.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如M
LP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函
數(shù)
A、1,2,4,5
B、2,3,4,5
C、都需要考慮
Dx1,3,4,5
答案:C
47.以下關(guān)于降維,表述錯(cuò)誤的是:()
A、降維過(guò)程中可以保留原始數(shù)據(jù)的所有信息。
B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。
C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。
D、核線性降維方法目標(biāo)是通過(guò)核函數(shù)和核方法來(lái)避免采樣空間投影到高維空間
再降維之后的低維結(jié)構(gòu)丟失。
答案:A
48.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別
標(biāo)簽是C,它的一個(gè)假定是()
A、各類別的先驗(yàn)概率P(C)是相等的
B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布
C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量
D、P(X|C)是高斯分布
答案:C
49.獨(dú)熱編碼的缺點(diǎn)是:①.過(guò)于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.
容易存儲(chǔ)
A、③④
B、①②
C、①③
D、②④
答案:B
解析:獨(dú)熱編碼的缺點(diǎn)是:①.過(guò)于稀疏②.詞與詞的相關(guān)性比較小
50.從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再
改變?yōu)橹?,這樣的作法稱為(_)
A、策略迭代
B、值迭代
C、策略改進(jìn)
D、最優(yōu)值函數(shù)
答案:A
解析:見(jiàn)算法解析
51.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?
A、召回率
B、混淆矩陣
C、均方誤差
D、準(zhǔn)確率
答案:C
52.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出之間
的差來(lái)調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()
A、有師學(xué)習(xí)
B、無(wú)師學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、都不是
答案:A
53.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開(kāi)
B、LSTM無(wú)法解決梯度消失的問(wèn)題
C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)
D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫(xiě)為RNN
答案:B
54.()常做為CNN網(wǎng)絡(luò)的最后一層。
A、卷積層
B、池化層
C、全連接層
D、歸一化層
答案:c
解析:全連接層常做為CNN網(wǎng)絡(luò)的最后一層。
55.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。
A、圖像加噪
B、圖像采集
C、圖像壓縮
D、圖像分割
答案:D
解析:為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行圖像分割處
理。
56.以下關(guān)于算法的說(shuō)法中,不正確的是
A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督'半監(jiān)督和無(wú)監(jiān)督三種
B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法
C、決策樹(shù)算法屬于監(jiān)督學(xué)習(xí)類別
D、“Means是屬于無(wú)監(jiān)督學(xué)習(xí)算法
答案:B
57.VGG-19中卷積核的大小為
A、3x3
B、5x5
C、3x3,5x5
D、不確定
答案:A
解析:VGG-19中卷積核的大小為3x3
58.在卷積操作過(guò)程中計(jì)算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核
大小為3*3,卷積窗口移動(dòng)的步長(zhǎng)為1,則featuremaps的大小是()個(gè)元素?
A、78400
B、88804
G91204
D、99856
答案:B
解析:見(jiàn)算法解析
59.Inception模塊采用()的設(shè)計(jì)形式,每個(gè)支路使用。大小的卷積核。
A、多通路,不同
B、單通路,不同
C、多通路,相同
D、單通路,相同
答案:A
解析:Inception模塊采用多通路,不同的設(shè)計(jì)形式,每個(gè)支路使用多通路,不
同大小的卷積核。
60.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度
A、正則項(xiàng)
B、非線性
C、激活函數(shù)
D、特征變換
答案:A
解析:xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度
61.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?
A、CRF是生成式的,而HMM是判別式模型
B、CRF是判別式模型,HMM是生成式模型。
C、CRF和HMM都是生成式模型
D、CRF和HMM都是判別式模型。
答案:B
62.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好
的近似出來(lái),不再需要探索,則可讓E隨著嘗試次數(shù)增加而(—)
A、增大
B、置為無(wú)窮
C、置為0
D、減少
答案:D
解析:見(jiàn)算法解析
63.關(guān)于聚類說(shuō)法錯(cuò)誤的是()
A、在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類
B、聚類可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他
學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程
C、聚類分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的
D、組內(nèi)的相似性越大,組間差別越大,聚類就越好
答案:B
解析:聚類可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),可以作為其他
學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程
64.學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱為(_)。
A、錯(cuò)誤率
B、精度
C、誤差
D、查準(zhǔn)率
答案:C
解析:見(jiàn)算法解析
65.下列可以用于聚類問(wèn)題的機(jī)器學(xué)習(xí)算法有()
A、決策樹(shù)
B、k-means
C、隨機(jī)森林
D、邏輯回歸
答案:B
66.使用交叉驗(yàn)證最簡(jiǎn)單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?
A、cross_val_score
B、cross_vaI%
C、val_score
D、cross_score
答案:A
67.以下關(guān)于隨機(jī)森林算法的描述中錯(cuò)誤的是
A、可以處理高維度的屬性,并且不用做特征選擇
B、隨機(jī)森林的預(yù)測(cè)能力不受多重共線性影響
C、也擅長(zhǎng)處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問(wèn)題
D、能應(yīng)對(duì)正負(fù)樣本不平衡問(wèn)題
答案:C
68.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖
表示變量間的依賴關(guān)系,稱為(—);第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)
系,稱為無(wú)向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。
A、貝葉斯網(wǎng)
B、拉普拉斯網(wǎng)
C、帕斯卡網(wǎng)
D、塞繆爾網(wǎng)
答案:A
解析:見(jiàn)算法解析
69.對(duì)不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)
A、最大一般泛化
B、最小一般泛化
C、最大一般特化
D、最小一般特化
答案:B
解析:見(jiàn)算法解析
70.長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下
文而定,而不是固定的。
A、自增加
B、自循環(huán)
C、自遞歸
D、自減少
答案:B
解析:長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了自循環(huán)的巧妙構(gòu)思,該構(gòu)思中的權(quán)重
視上下文而定,而不是固定的。
71.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachin
e)o與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(duì)(一)問(wèn)題的學(xué)習(xí)方法?
A、分類
B、回歸
C、聚類
D、二分類
答案:D
解析:見(jiàn)算法解析
72.協(xié)同訓(xùn)練(co-training)是針對(duì)(__)數(shù)據(jù)設(shè)計(jì)?
A、多角度
B、多視圖
C、多環(huán)境
D、多版本
答案:B
解析:見(jiàn)算法解析
73.哪個(gè)不是常用的聚類算法()。
A、K-Means
B、DBSCAN
GGMMs
DvSoftmax
答案:D
解析:Softmax不是常用的聚類算法。
74.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越(),也即
越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。
A、具體和形象化
B、抽象和概念化
C、具體和概念化
D、抽象和具體化
答案:B
解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越抽象和概
念化,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。
75.以才哪種組合在CNN不常見(jiàn)
Avconv+reIu
B、conv+reIu+pooI
C、conv+reIu+pooI+fc
D、conv+k-means
答案:D
解析:conv+k-means組合在CNN不常見(jiàn)
76.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是
A、輸入端-輸出端
B、輸入端-中間端
C、輸出端-中間端
D、中間端-中間端
答案:A
77.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間
A、不斷遞歸而衰退
B、不斷遞歸而增強(qiáng)
C、先增強(qiáng)后減弱
D、先減弱后增強(qiáng)
答案:A
78.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?
A、GBDT算法比隨機(jī)森林容易欠擬合
B、隨機(jī)森林是并行計(jì)算的,而GBDT不能
C、GBDT算法比隨機(jī)森林容易過(guò)擬合
DxGBDT與隨機(jī)森林都是建立在CART樹(shù)的基礎(chǔ)之上的
答案:C
79.LVW屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
答案:A
解析:見(jiàn)算法解析
80.LSTM單元中引入了哪些門(mén)來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?
A、輸入門(mén)、遺忘門(mén)
B、任意門(mén)、輸入門(mén)
C、輸出門(mén)、任意門(mén)
D、遺忘門(mén)、任意門(mén)
答案:A
解析:LSTM單元中引入了哪些門(mén)來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?
81.下列神經(jīng)網(wǎng)絡(luò)特點(diǎn)描述錯(cuò)誤的是(_)
A、適應(yīng)性
B、由簡(jiǎn)單單元組成
C、廣泛并行互連的網(wǎng)絡(luò)
D、線性特性
答案:D
解析:見(jiàn)算法解析
82.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype
=np.int64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入
numpy庫(kù))importnumpyasnp
A、6
B、8
C、10
D、12
答案:D
解析:見(jiàn)算法解析
83.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法()
A、TF-IDF
B、TextRank
C、SSA
D、LDA
答案:C
解析:SSA(SaIpSwarmAIgorithm)是一種元啟發(fā)式算法
84.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)。為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這個(gè)模型,下
列哪種做法是正確的?
A、增加樹(shù)的深度
B、增加學(xué)習(xí)率
C、減小樹(shù)的深度
D、減少樹(shù)的數(shù)量
答案:c
85.支持向量機(jī)(SVM)中的代價(jià)參數(shù)C表示什么?()
A、交叉驗(yàn)證的次數(shù)
B、用到的核函數(shù)
C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡
D、以上都不對(duì)
答案:C
86.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使
用的什么法則進(jìn)行逐層求導(dǎo)的?
A、鏈?zhǔn)椒▌t
B、累加法則
C、對(duì)等法則
D、歸一法則
答案:A
87.以下說(shuō)法正確的是()。
A、聚類是非監(jiān)督學(xué)習(xí)
B、分類是非監(jiān)督學(xué)習(xí)
C、聚類是監(jiān)督學(xué)習(xí)
D、以上都不對(duì)
答案:A
88.以下算法中可以用于圖像平滑的是0。
A、均值濾波;
B、對(duì)比度增強(qiáng)
C、二值化
D、動(dòng)態(tài)范圍壓縮
答案:A
解析:以下算法中可以用于圖像平滑的是均值濾波;。
89.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-te
rmmatrix)o以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNor
maIization)(2)潛在語(yǔ)義索引(LatentSemanticIndexing)(3)隱狄利克雷
分布(LatentDirichletAIlocation)
A、只有(1)
B、⑵、(3)
C、⑴、(3)
D、⑴、⑵、(3)
答案:D
90.下列哪項(xiàng)不屬于集成學(xué)習(xí)
A、隨機(jī)森林
B\Adaboost
C、kNN
D、XGBoost
答案:C
解析:集成方法分類為:Bagging(并行訓(xùn)練):隨機(jī)森林,Boosting(串行訓(xùn)練):
Adaboost,GBDT:XgBoost,Stacking,BIending
91.隨著句子的長(zhǎng)度越來(lái)越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過(guò)程
將愈加困難,為了解決這類問(wèn)題,下面哪項(xiàng)是我們可以采用的?
A、使用遞歸單元代替循環(huán)單元
B、使用注意力機(jī)制(attentionmechanism)
C\使用字符級(jí)別翻譯(characterIeveItransIation)
D、所有選項(xiàng)均不對(duì)
答案:B
92.符號(hào)集a、b、c、d,它們相互獨(dú)立,相應(yīng)概率為1/2、1/4、1/8、1/16,其
中包含信息量最小的符號(hào)是()
A、a
B、b
C、c
D、d
答案:A
93.數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱
為“集成學(xué)習(xí)”)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則
下列說(shuō)法正確的是?()
A、基本模型之間相關(guān)性高。
B、基本模型之間相關(guān)性低。
C、集成方法均使用加權(quán)平均代替投票方法。
D、基本模型都來(lái)自于同一算法。
答案:B
94.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。
A、0(m)
B、0(m2)
G0(Iogm)
D、0(m*logm)
答案:B
95.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測(cè)算法包括Logistic回歸模型、()、決策樹(shù)'
神經(jīng)網(wǎng)絡(luò)等
A、線性回歸
B、時(shí)間序列
C、灰色模型
D、貝葉斯網(wǎng)絡(luò)
答案:D
96.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來(lái)解決問(wèn)題?
A、蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)
B、化學(xué)反應(yīng)的預(yù)測(cè)
C、外來(lái)粒子的檢測(cè)
D、所有這些
答案:D
97.梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)變
為無(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題?
A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUs
B、梯度裁剪
C、Dropout
D、所有方法都不行
答案:B
98.EM算法是()
A、有監(jiān)督
B、無(wú)監(jiān)督
C、半監(jiān)督
D、都不是
答案:B
99.啟發(fā)式搜索是尋求問(wèn)題()解的一種方法
A、最優(yōu)
B、一般
C、滿意
D、最壞
答案:C
100.馬爾可夫預(yù)測(cè)模型是將時(shí)間序列看作一個(gè)過(guò)程,通過(guò)對(duì)事物不同狀態(tài)的()
與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢(shì),預(yù)測(cè)事物的未來(lái)。
A、初始概率
B、結(jié)果概率
C、形成概率
答案:A
101.常見(jiàn)的圖像預(yù)處理方法不包括(一)。
A、圖像降噪
B、圖像增強(qiáng)
C、圖像尺寸歸一化
D、圖像標(biāo)注
答案:D
解析:常見(jiàn)的圖像預(yù)處理方法不包括圖像標(biāo)注。
102.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是
A、CNN
B、LSTM
C、GRU
D、RNN
答案:D
解析:RNN(RecurrentNeuraINetwork)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RN
N存在一些問(wèn)題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸
103.前饋神經(jīng)網(wǎng)絡(luò)通過(guò)誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()
機(jī)器學(xué)習(xí)手段
A、監(jiān)督學(xué)習(xí)
B、無(wú)監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合
答案:A
104.在強(qiáng)化學(xué)習(xí)的過(guò)程中,學(xué)習(xí)率a越大,表示采用新的嘗試得到的結(jié)果比例越
(),保持舊的結(jié)果的比例越0。
A、大
B、小
C、大
D、大
E、小
答案:A
105.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者
的說(shuō)法正確的是:
A、L1正則化可以做特征選擇
B、L1和L2正則化均可做特征選擇
C、L2正則化可以做特征選擇
D、L1和L2正則化均不可做特征選擇
答案:A
106.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過(guò)程,須有一定的機(jī)制來(lái)緩解過(guò)擬合的風(fēng)
險(xiǎn),最常見(jiàn)的做法是(_)
A、序列化
B、剪枝
C、去重
D、重組
答案:B
解析:見(jiàn)算法解析
107.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?
A、Boosting
B、Stacking
C、Bagging
D、Marking
答案:D
108.使用決策樹(shù)分類時(shí),如果輸入的某個(gè)特征的值是連續(xù)的,通常使用二分法對(duì)
連續(xù)屬性離散化,即根據(jù)是否大于/小于某個(gè)閾值進(jìn)行劃分。如果采用多路劃分,
每個(gè)出現(xiàn)的值都劃分為一個(gè)分支,這種方式的最大問(wèn)題是
A、計(jì)算量太大
B、驗(yàn)證集和測(cè)試集表現(xiàn)很差
C、驗(yàn)證集表現(xiàn)良好,測(cè)試集表現(xiàn)很差
D、驗(yàn)證集表現(xiàn)很差,測(cè)試集表現(xiàn)很好
答案:C
109.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比
如輸入是“predicts”(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪
種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、全連接神經(jīng)網(wǎng)絡(luò)
C、受限波爾茲曼機(jī)
D、卷積神經(jīng)網(wǎng)絡(luò)
答案:A
110.關(guān)于梯度下降算法描述正確的是:
A、梯度下降算法就是不斷的更新w和b的值
B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值
C、梯度下降算法就是不斷尋找損失函數(shù)的最大值
D、梯度下降算法就是不斷更新學(xué)習(xí)率
答案:A
解析:梯度下降算法就是不斷的更新w和b的值
111.MatplotIib是一個(gè)主要用于繪制()維圖形的Python庫(kù),用途:繪圖、可
視化。
A、—
B、二
C、三
D、四
答案:B
解析:見(jiàn)算法解析
112.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個(gè),使用GA
P的優(yōu)點(diǎn)是()
A、提供更好的分類
B、減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入
C、加速模型收斂
D、增加網(wǎng)絡(luò)深度
答案:B
解析:GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一^使用
GAP的優(yōu)點(diǎn)是減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入
113.不屬于深度學(xué)習(xí)模型的選項(xiàng)是?
A、樸素貝葉斯
B、深度殘差網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)CNN
D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN
答案:A
解析:樸素貝葉斯算法是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類算法不屬于
深度學(xué)習(xí)模型。
114.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()
A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率
B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率
C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率
D、1、2都對(duì)
答案:A
115.CascadeRCNN中使用了()個(gè)BBOXHead完成目標(biāo)檢測(cè)
A、1
B、2
C、3
D、4
答案:c
解析:見(jiàn)算法解析
116.下列關(guān)于長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是。。
A、LSTM是簡(jiǎn)化版的RNN
B、LSTM是雙向的RNN
GLSTM是多層的RNN
DvLSTM是RNN的擴(kuò)展,通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴問(wèn)題
答案:D
解析:LSTM是RNN的擴(kuò)展,通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴問(wèn)題
117.邏輯回歸的損失函數(shù)是下列哪一種?()
A、平方損失函數(shù)
B、對(duì)數(shù)損失函數(shù)
GHingeLossOT損失函數(shù)
D、絕對(duì)值損失函數(shù)
答案:B
118.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K
的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為
A、噪聲
B、核心簇
C、邊界簇
D、以上都不對(duì)
答案:A
119.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫(xiě)是:
A、DNN
B、CNN
C、RNN
D\Tanh
答案:B
解析:卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫(xiě)是CNN
120.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說(shuō)法中正確的是
A、在實(shí)際場(chǎng)景下,應(yīng)盡量使用ADAM,避免使用SGD
B、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法
C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通
常會(huì)取得更好效果
D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過(guò)擬合
答案:C
解析:相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)
通常會(huì)取得更好效果
121.下列屬于特征降維的方法有
A、主成分分析PCA
B、數(shù)據(jù)采樣
G正則化
D、最小二乘法
答案:A
122.下列選項(xiàng)中,不屬于深度學(xué)習(xí)模型的是?
A、線性回歸
B、深度殘差網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)CNN
D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN
答案:A
解析:線性回歸是傳統(tǒng)統(tǒng)計(jì)學(xué)系呢絨
123.關(guān)于GoogLeNet描述正確的有:
A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個(gè)很淺的網(wǎng)絡(luò)
B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開(kāi)了思路
C\GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一^"b版本
DxGoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計(jì)結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)
構(gòu)
答案:B
解析:GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開(kāi)了思路
124.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?
A、隨機(jī)梯度下降
B、修正線性單元(ReLU)
C、卷積函數(shù)
D、以上都不正確
答案:B
解析:修正線性單元是非線性的激活函數(shù)
125.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型
A、馬可夫決策
B、貝葉斯
C、HMM
D、最大后驗(yàn)概率
答案:A
解析:見(jiàn)算法解析
126.在£-greedy策略當(dāng)中,E的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),
采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。
A、大
B、小
C、大
D、大
E、小
答案:A
127.()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)
定性。反應(yīng)預(yù)測(cè)的波動(dòng)情況。
A、標(biāo)準(zhǔn)差
B、方差
C、偏差
D、平方差
答案:B
解析:方差反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的
穩(wěn)定性。反應(yīng)預(yù)測(cè)的波動(dòng)情況。
128.K-Means算法無(wú)法聚以下哪種形狀的樣本
A、圓形分布
B、螺旋分布
C、帶狀分布
D、凸多邊形分布
答案:B
129.()是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。
A、軌跡跟蹤
B、決策樹(shù)
C、數(shù)據(jù)挖掘
D、K近鄰算法
答案:B
解析:軌跡跟蹤又稱為前輪反饋控制法(FrontwheeIfeedback),核心在于基于
前輪中心的路徑跟蹤偏差量對(duì)方向盤(pán)轉(zhuǎn)向控制量進(jìn)行計(jì)算。決策樹(shù)算法是一種逼
近離散函數(shù)值的方法,它是一種典型的分類方法,首先對(duì)數(shù)據(jù)進(jìn)行處理,利用歸
納算法生成可讀的規(guī)則和決策樹(shù),然后使用決策對(duì)新數(shù)據(jù)進(jìn)行分析。數(shù)據(jù)挖掘是
指從大量的數(shù)據(jù)中通過(guò)算法搜索隱藏于其中信息的過(guò)程。K近鄰算法,即是給定
一個(gè)訓(xùn)練數(shù)據(jù)集,對(duì)新的輸入實(shí)例,在訓(xùn)練數(shù)據(jù)集中找到與該實(shí)例最鄰近的K
個(gè)實(shí)例,這K個(gè)實(shí)例的多數(shù)屬于某個(gè)類,就把該輸入實(shí)例分類到這個(gè)類中。符合
題意的為B項(xiàng)決策樹(shù)。答案選B
130.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:()
A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。
B、最著名的算法之一是基于決策樹(shù)基分類器的隨機(jī)森林。
C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。
D、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。
答案:A
131.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過(guò)程中,以下哪個(gè)選項(xiàng)不屬于
決策樹(shù)構(gòu)建過(guò)程當(dāng)中的步驟?
A、剪枝
B、特征選取
C、數(shù)據(jù)清理
D、決策樹(shù)生成
答案:C
132.通過(guò)以下哪些指標(biāo)我們可以在層次聚類中尋找兩個(gè)集群之間的差異?()
A、單鏈接
B、全鏈接
C、均鏈接
D、以上都行
答案:D
133.下述()不是人工智能中常用的知識(shí)格式化表示方法。
A、框架表示法
B、產(chǎn)生式表示法
C\語(yǔ)乂網(wǎng)絡(luò)表K法
D、形象描寫(xiě)表示法
答案:D
134.比較成熟的分類預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線性模型、。、
神經(jīng)網(wǎng)絡(luò)
A、決策樹(shù)
B、arima模型
C、holt-winter模型
D、k-means模型
答案:A
135.在pytorch中,設(shè)模型變量名為modeI,則對(duì)modeI.evaI()的描述正確的是
A、modeI.eval()可以在模型訓(xùn)練階段使用
B、modeI.eval0只能在模型測(cè)試階段使用
C、model,eval()在模型驗(yàn)證,模型測(cè)試階段都可以使用
D、model,eval()在模型訓(xùn)練'模型驗(yàn)證、模型測(cè)試階段都可以使用
答案:C
解析:在pytorch中,model.eval在模型驗(yàn)證、模型測(cè)試階段都可以使用
136.()控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸入進(jìn)行
更新。
A、隱狀態(tài)向量
B、狀態(tài)向量
C、顯狀態(tài)向量
D、以上都不對(duì)
答案:B
解析:狀態(tài)向量控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸
入進(jìn)行更新。
137.早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是()。
A、全局特征丟掉了圖像細(xì)節(jié)
B、提取不到主要特征
C、存儲(chǔ)效率低下
D、太多的錯(cuò)誤匹配
答案:A
解析:早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是全局特征丟掉了圖像細(xì)節(jié)。
138.FPN中根據(jù)ROI的()來(lái)分配所屬層級(jí)?
A、分類分?jǐn)?shù)
B、最大邊長(zhǎng)度
C、面積
D、nan
答案:C
解析:見(jiàn)算法解析
139.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。
AvBoosting
B、Bagging
C、Stacking
DvDropping
答案:B
解析:隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實(shí)現(xiàn)。
140.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣
相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別
為m*n,n*p,p*q,且m〈n
A、(AB)C
B、AC(B)
C、A(BC)
D、所有效率都相同
答案:A
141.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過(guò)程中,
通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)參數(shù)不是通過(guò)誤差后向傳
播來(lái)優(yōu)化的
A、卷積濾波矩陣中的參數(shù)
B、全連接層的鏈接權(quán)重
C、激活函數(shù)中的參數(shù)
D、模型的隱藏層數(shù)目
答案:D
142.下列不屬于樹(shù)模型的是
A、GBDT梯度提升樹(shù)
B、XGBoost
C、RF隨機(jī)森林
D、LR線性回歸
答案:D
143.fasterRCNN用于生成候選框proposaI的模塊名稱()
A、RPN
B、CNN
C\ResNet
D、RoIpooIing
答案:A
解析:fasterRCNN用于生成候選框proposal的模塊是RPN
144.LSTM用于文本分類的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是()
A、全連接
B、詞嵌入層
C\卷積層
D、以上選項(xiàng)均不正確
答案:C
解析:LSTM中沒(méi)有卷積層
145.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于
1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?
A、ReLu
B\Softmax
C、Sigmoid
D、Tanh
答案:B
146.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪
項(xiàng)技術(shù)?
A、窮舉搜索
B、隨機(jī)搜索
C、Bayesian優(yōu)化
D、都可以
答案:D
147.ROIPooling在那個(gè)模型中被第一次提出()
A、fast-rcnn
B、faster-rcnn
C、mask-rcnn
D、rcnn
答案:A
解析:見(jiàn)算法解析
148.以下關(guān)于特征工程的說(shuō)法不正確的是
A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過(guò)程
B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個(gè)上限
C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提
取'特征選擇三個(gè)部分。
D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特征子集。
答案:D
149.關(guān)于遞歸函數(shù)基例的說(shuō)明,以下選項(xiàng)中錯(cuò)誤的是
A、遞歸函數(shù)必須有基例
B、遞歸函數(shù)的基例不再進(jìn)行遞歸
C、每個(gè)遞歸函數(shù)都只能有一個(gè)基例
D、遞歸函數(shù)的基例決定遞歸的深度
答案:C
150.線性回歸方法是假定條件屬性和決策屬性之間存在線性關(guān)系,然后通過(guò)訓(xùn)練
數(shù)據(jù)擬合出一個(gè)()方程,并使用該方程去預(yù)測(cè)未知的新實(shí)例。
A、一元一次
B、線性
C、二元一次
D、多元
答案:B
151.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是
你有一個(gè)類似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來(lái)利用這個(gè)
預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?
A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層
B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型
C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)
D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用
答案:C
152.下列關(guān)于XGboost算法描述中錯(cuò)誤的是
A、由于其特殊原因,無(wú)法分布式化
B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度
C、可以處理帶有缺失值的樣本
D、允許使用列抽樣來(lái)減少過(guò)擬合
答案:A
153.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之
前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?
A、增加參數(shù)數(shù)量
B、減少參數(shù)數(shù)量
C、在開(kāi)始時(shí)將學(xué)習(xí)率降低10倍
D、改變幾個(gè)時(shí)期的學(xué)習(xí)率
答案:D
154.在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為()。
A、reIu
B、batch
C、step
D、padding
答案:B
解析:在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為batch。
155.代碼array=np.arange(10,31,5)中的5代表()?
A、元素的個(gè)數(shù)
B、步長(zhǎng)
C、第一個(gè)元素
D、最后一個(gè)元素
答案:B
解析:見(jiàn)算法解析
156.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特
征,創(chuàng)作音樂(lè)作品。
A、XLNet
B、GoogIeNet
C、MuseNet
D、AlexNet
答案:c
解析:MuseNet采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音
色的特征,創(chuàng)作音樂(lè)作品。
157.DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語(yǔ)沖突;2.采用詞袋模型,
損失了上下文語(yǔ)序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)doc
排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來(lái)判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難
以收斂;4.效果不可控。
A、1.2.3
B、1.3.4
C、2.3.4
D、1.2.3.4
答案:D
解析:DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語(yǔ)沖突;2.采用詞袋模
型,損失了上下文語(yǔ)序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)d
℃排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來(lái)判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模
型難以收斂;4.效果不可控。
158.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語(yǔ)的多種含義共存。下列
哪一種方法可能是解決此問(wèn)題的最好選擇?
A、隨機(jī)森林分類器
B、卷積神經(jīng)網(wǎng)絡(luò)
C、梯度爆炸
D、上述所有方法
答案:B
159.下列哪個(gè)不是激活函數(shù)()。
A、sigmod
B、reIu
C、tanh
D、hidden
答案:D
解析:hidden不是激活函數(shù)。
160.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM
中增加了()導(dǎo)致單元內(nèi)的處理過(guò)程不同。
A、輸入門(mén)
B、記憶門(mén)
C、忘記門(mén)
D\輸出門(mén)
答案:C
解析:長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LS
TM中增加了忘記門(mén)導(dǎo)致單元內(nèi)的處理過(guò)程不同。
161.批規(guī)范化(BatchNormaIization)的好處都有啥?
A、讓每一層的輸入的范圍都大致固定
B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差
C、它是一種非常有效的反向傳播(BP)方法
D、這些均不是
答案:A
162.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:A
解析:廣度優(yōu)先搜索會(huì)根據(jù)離起點(diǎn)的距離,按照從近到遠(yuǎn)的順序?qū)Ω鞴?jié)點(diǎn)進(jìn)行搜
索。而深度優(yōu)先搜索會(huì)沿著一條路徑不斷往下搜索直到不能再繼續(xù)為止,然后再
折返,開(kāi)始搜索下一條路徑。廣度優(yōu)先搜索可以找出節(jié)點(diǎn)的最短路徑,即可以解
決最短路徑問(wèn)題。有界深度優(yōu)先搜索為了解決深度有限搜索誤入無(wú)窮分支,定出
一個(gè)深度界限,在找尋達(dá)到這一深度界限而且還沒(méi)有找到目標(biāo)時(shí),即返回重找。
啟發(fā)式搜索是利用問(wèn)題擁有的啟發(fā)信息來(lái)引導(dǎo)搜索,達(dá)到減少搜索范圍、降低問(wèn)
題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受的解(通常并不一定是
最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索必然可以得到最優(yōu)解,答案選A
163.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)
行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)
A、輸入數(shù)據(jù)大小
B、神經(jīng)元和神經(jīng)元之間連接有無(wú)
C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重
D、同一層神經(jīng)元之間的連接權(quán)重
答案:C
164.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。
A、權(quán)重
B、偏置
C、激活函數(shù)
D、學(xué)習(xí)率
答案:D
解析:學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。
165.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。
A、一^
B、兩個(gè)
C、多個(gè)
D\無(wú)
答案:A
解析:神經(jīng)元之間的每個(gè)連接都有一個(gè)權(quán)重。
166.下列哪項(xiàng)不是SVM的優(yōu)勢(shì)
A、可以和核函數(shù)結(jié)合
B、通過(guò)調(diào)參可以往往可以得到很好的分類效果
C、訓(xùn)練速度快
D、泛化能力好
答案:C
解析:SVM的訓(xùn)練速度不快
167.問(wèn)答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:
A、問(wèn)答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話、在線搜索和其他地方提取信息,
以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個(gè)文檔,而是更喜歡簡(jiǎn)短而
簡(jiǎn)潔的答案。
B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對(duì)文
本文檔的搜索,尚且無(wú)法從圖片集合中提取信息。
C、大多數(shù)NLP問(wèn)題都可以被視為一個(gè)問(wèn)題回答問(wèn)題。范例很簡(jiǎn)單:我們發(fā)出查
詢指令,機(jī)器提供響應(yīng)。通過(guò)閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種
各樣的問(wèn)題。
D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問(wèn)題進(jìn)行了專
門(mén)開(kāi)發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問(wèn)題的訓(xùn)練集,它可以形成情節(jié)記憶,
并使用它們來(lái)產(chǎn)生相關(guān)答案。
答案:B
解析:刪除
168.Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?
A、COBWSoftmax
B、SoftmaxyCBOW
C、CBOW、Skip-gramD
D、Skip-gramCOBWC
答案:c
解析:Word2Vec提出了兩個(gè)算法訓(xùn)練詞向量
169.Iou表示的是0
A、兩個(gè)框之間的重疊程度
B、兩個(gè)框的總面積
C、兩個(gè)框的相對(duì)大小
D、一個(gè)框面積與周長(zhǎng)比值
答案:A
解析:見(jiàn)算法解析
170.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享
A、卷積神經(jīng)網(wǎng)絡(luò)&
B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&
C、&全連接神經(jīng)網(wǎng)絡(luò)&
D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)
答案:D
解析:見(jiàn)算法解析
171.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯(cuò)誤的為(一)
A、貝葉斯的學(xué)習(xí)過(guò)程為對(duì)訓(xùn)練樣本計(jì)數(shù);
B、估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率;
C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;
D、評(píng)分搜索為求解的常用辦法;
答案:C
解析:見(jiàn)算法解析
172.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?
A、樣本輸入順序
B、模式相似性測(cè)度
C、聚類準(zhǔn)則
D、初始類中心的選取
答案:C
173.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以
更好地解決這個(gè)問(wèn)題?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、感知機(jī)
C、多層感知機(jī)
D、卷積神經(jīng)網(wǎng)絡(luò)
答案:D
174.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將向量投影到
低維空間。
A、線性變換
B、非線性變換
C、拉布拉斯變換
D、z變換
答案:A
解析:主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)線性變換將向量
投影到低維空間。
175.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),
每個(gè)主分量的權(quán)數(shù)為0。
A、每個(gè)主分量的方差
B、每個(gè)主分量的標(biāo)準(zhǔn)差
C、每個(gè)主分量的方差貢獻(xiàn)率
D、每個(gè)主分量的貢獻(xiàn)率
答案:C
解析:在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),
每個(gè)主分量的權(quán)數(shù)為每個(gè)主分量的方差貢獻(xiàn)率。
176.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是
A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting
B、Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是Bootstrap
C、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類器,然后把這些分類器進(jìn)行
組合
D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)
答案:A
177.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸
入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?
A、ReLU
B、tanh
C、SIGMOID
D、以上都不是
答案:B
178.語(yǔ)音是一種典型的()數(shù)據(jù)。
A、無(wú)結(jié)構(gòu)無(wú)序列
B、方結(jié)構(gòu)序列
C、無(wú)結(jié)構(gòu)序列
D、有結(jié)構(gòu)無(wú)序列
答案:C
解析:語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。
179.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長(zhǎng)
序列。
A、SLTM
B、SLMT
C\LSMT
D、LSTM
答案:D
解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建
模長(zhǎng)序列。
180.關(guān)于線性回歸的描述,以下正確的有()
A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布
B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布
C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小
D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)
答案:B
解析:線性回歸的基本假設(shè)是隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布
181.機(jī)器學(xué)習(xí)算法的一般流程是()。
Av1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)
使用算法
B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)
使用算法
C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測(cè)試算法,5)訓(xùn)練算法,6)
使用算法
D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測(cè)試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)據(jù),6)
使用算法
答案:A
解析:機(jī)器學(xué)習(xí)算法的一般流程⑴收集數(shù)據(jù):可以使用任何方法。(2)準(zhǔn)備數(shù)據(jù):
距離計(jì)算所需要的數(shù)值,最好是結(jié)構(gòu)化的數(shù)據(jù)格式。(3)分析數(shù)據(jù):可以使用任
何方法。(4)訓(xùn)練算法:此步驟不適用于k-近鄰算法。(5)測(cè)試算法:計(jì)算錯(cuò)誤
率。(6)使用算法:首先需要輸入樣本數(shù)據(jù)和結(jié)構(gòu)化的輸出結(jié)果,然后運(yùn)行k-近
鄰算法判定輸入數(shù)據(jù)分別屬于哪個(gè)分類,最后應(yīng)用對(duì)計(jì)算出的分類執(zhí)行后續(xù)的處
理。
182.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionaIneuraInetwork,CNN),是一種專門(mén)用來(lái)處理
具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。
A、網(wǎng)格結(jié)構(gòu)
B、數(shù)組結(jié)構(gòu)
C、序列結(jié)構(gòu)
D、表格結(jié)構(gòu)
答案:A
解析:卷積神經(jīng)網(wǎng)絡(luò)(convoIu-tionaIneuraInetwork,CNN),是一種專門(mén)用來(lái)處
理具有類似0的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。
183.語(yǔ)言模型的作用是:
A、查看一句話成為一句“人話”的概率
B、查看一句話是英語(yǔ)的概率
C、查看一句話是漢語(yǔ)的概率
D、查看一句話是否是完整的
答案:A
解析:語(yǔ)言模型的作用是查看一句話成為一句“人話”的概率
184.關(guān)于線性回歸的描述,以下說(shuō)法正確的有()
A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布
B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布
C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小
D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)
答案:B
解析:線性回歸基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布
185..混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程
中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?
A、混沌度沒(méi)什么影響
B、混沌度越低越好
C、混沌度越高越好
D、混沌度對(duì)于結(jié)果的影響不一定
答案:B
186.環(huán)境在接受到個(gè)體的行動(dòng)之后,會(huì)反饋給個(gè)體環(huán)境目前的狀態(tài)(state)以
及由于上一個(gè)行動(dòng)而產(chǎn)生的()。
A、action
B、reward
Cvstate
Dvagent
答案:B
解析:見(jiàn)算法解析
187.ONE-HOT-ENCODING可用于什么特征處理
A、類別型特征
B、有序性特征
C、數(shù)值型特征
D、字符串型特征
答案:A
188.ResNet-50有多少個(gè)卷積層?()
A、48
B、49
C、50
D、51
答案:B
189.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AK0鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知識(shí)的
A、無(wú)悖性
B、可擴(kuò)充性
C、繼承性
D、連貫性
答案:C
解析:語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知識(shí)的繼承
性
190.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()
A、數(shù)字
B、字符
C、符號(hào)
D、英文
答案:A
解析:為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字
191.感知器在空間中可以展現(xiàn)為?
A、點(diǎn)
B、線
C、平面
D、超平面
答案:A
192.下面算法中哪個(gè)不是分類算法
A、決策樹(shù)
B、高斯混合模型GMM
C、隨機(jī)森林
D\Xgboost
答案:B
193.Skip-gram在實(shí)際操作中,使用一個(gè)()(一般情況下,長(zhǎng)度是奇數(shù)),從
左到右開(kāi)始掃描當(dāng)前句子。
A、過(guò)濾器
B、滑動(dòng)窗口
C、篩選器
D、掃描器
答案:B
解析:見(jiàn)算法解析
194.線性回歸在3維以上的維度中擬合面是?
A、曲面
B、平面
C、超平面
D、超曲面
答案:C
195.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率
的說(shuō)法,錯(cuò)誤的是()
A、學(xué)習(xí)率太小,更新速度慢
B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解
C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)
D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改
答案:C
解析:CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)
率的說(shuō)法,錯(cuò)誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)
196.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])
的輸出是()?
A、5
B、25
C\6
D、26
答案:B
解析:見(jiàn)算法解析
197.()的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。模型需要區(qū)分兩個(gè)輸入是來(lái)自
于同一圖片的不同視角,還是來(lái)自完全不同的兩張圖片。
A、對(duì)比學(xué)習(xí)
B、強(qiáng)化學(xué)習(xí)
C、遷移學(xué)習(xí)
D、深度學(xué)習(xí)
答案:A
解析:對(duì)比學(xué)習(xí)的核心訓(xùn)練信號(hào)是圖片的“可區(qū)分性”。模型需要區(qū)分兩個(gè)輸入
是來(lái)自于同一圖片的不同視角,還是來(lái)自完全不同的兩張圖片。
198.在神經(jīng)網(wǎng)絡(luò)中,我們是通過(guò)以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而
最小化損失函數(shù)的?
A、正向傳播算法
B、池化計(jì)算
C、卷積計(jì)算
D、反向傳播算法
答案:D
199.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?
A、GMM
B、Xgboost
c、聚類
D、關(guān)聯(lián)規(guī)則
答案:B
200.對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()
A、軟間隔
B、硬間隔
C、核函數(shù)
D、以上選項(xiàng)均不正確
答案:B
解析:對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是硬間隔
多選題
1.關(guān)于邏輯回歸正確的是()
A、風(fēng)險(xiǎn)控制是金融領(lǐng)域最核心的問(wèn)題,邏輯回歸是在風(fēng)險(xiǎn)評(píng)估中最經(jīng)典常用的
方法
B、邏輯回歸可以用到互聯(lián)網(wǎng)廣告點(diǎn)擊預(yù)測(cè)
C、邏輯回歸只能用于解決二分類問(wèn)題
D、以上都不對(duì)
答案:AB
2.一下哪幾種是常見(jiàn)的激活函數(shù)
A、sigmoid
B、reIu
C、tanh
D、skip
答案:ABC
解析:見(jiàn)算法解析
3.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。
A、VGGNet
B\ResNet
C、AlexNet
D\GoogIeNet
答案:ABCD
4.可以用隨機(jī)梯度下降法求解參數(shù)的模型分別有()
A、線性回歸
B、卷積神經(jīng)網(wǎng)絡(luò)
C、循環(huán)神經(jīng)網(wǎng)絡(luò)
D、LSTM
答案:ABCD
解析:見(jiàn)算法解析
5.假設(shè)我們要解決一個(gè)二類分類問(wèn)題,我們已經(jīng)建立好了模型,輸出是0或1,初
始時(shí)設(shè)閾值為0.5,超過(guò)0.5概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)
在用另一個(gè)大于0.5的閾值,那么現(xiàn)在關(guān)于模型說(shuō)法,正確的是
A、模型分類的召回率不變
B、模型分類的召回率會(huì)升高
C、模型分類準(zhǔn)確率會(huì)升高或不變
D、模型分類準(zhǔn)確率降低
答案:AC
解析:準(zhǔn)確率:即預(yù)測(cè)結(jié)果正確的百分比。精確率(查準(zhǔn)率):預(yù)測(cè)結(jié)果為正例
樣本中真實(shí)為正例的比例(查得準(zhǔn))。召回率(查全率):真實(shí)為正例的樣本中
預(yù)測(cè)結(jié)果為正例的比例(查的全,對(duì)正樣本的區(qū)分能力。F-score:在實(shí)踐中,
我們定義了新的指標(biāo)去“綜合”這兩個(gè)指標(biāo)。具體的定義如公式(3),從數(shù)學(xué)
上來(lái)看,它其實(shí)是查準(zhǔn)率與查全率的調(diào)和平均數(shù)。對(duì)于二元分類問(wèn)題,F(xiàn)-score
綜合考慮了預(yù)測(cè)結(jié)果的查準(zhǔn)率和查全率,是一個(gè)比較好的評(píng)估指標(biāo)。
6.Embedding編碼有哪些特點(diǎn)?
A、特征稠密
B、特征稀疏
C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)
D、泛化性更好,支持語(yǔ)義運(yùn)算sim
答案:ACD
解析:見(jiàn)算法解析
7.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不正確的()
A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的
B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程
C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的
D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了
答案:ACD
8.以下算法中可以用于圖像處理中去噪的是0。
A、中值濾波
B、均值濾波
C、最小值濾波
D、最大值濾波
答案:ABCD
解析:見(jiàn)算法解析
9.下列可用于隱馬爾可夫預(yù)測(cè)的算法是()。
A、維特比算法
B、Baum-Welch算法
C、前向-后向算法
D、擬牛頓法
答案:ABCD
解析:A是教材原文;B是EM算法,
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025中國(guó)農(nóng)業(yè)科學(xué)院蔬菜花卉所招聘編外財(cái)務(wù)人員1人模擬筆試試題及答案解析
- 2025北京培黎職業(yè)學(xué)院招聘非事業(yè)編制工作人員14人備考考試題庫(kù)及答案解析
- 2025年政治大題排版真題及答案
- 2025年上饒市廣信區(qū)人民法院公開(kāi)招聘勞務(wù)派遣工作人員14人備考題庫(kù)及一套參考答案詳解
- 航天科工微電子系統(tǒng)研究院有限公司2026年校園招聘5人備考題庫(kù)及一套完整答案詳解
- 2025年韶關(guān)市始興縣公安局公開(kāi)招聘警務(wù)輔助人員9人備考題庫(kù)完整答案詳解
- 2025年江西省機(jī)關(guān)事務(wù)管理局公開(kāi)選調(diào)事業(yè)單位工作人員15人備考題庫(kù)及一套完整答案詳解
- 中國(guó)科學(xué)院武漢病毒研究所第四季度集中招聘20人備考題庫(kù)及參考答案詳解一套
- 國(guó)家知識(shí)產(chǎn)權(quán)局專利局專利審查協(xié)作廣東中心2026年度專利審查員公開(kāi)招聘?jìng)淇碱}庫(kù)及一套答案詳解
- 2025至2030中國(guó)工業(yè)包裝箱行業(yè)市場(chǎng)深度研究與戰(zhàn)略咨詢分析報(bào)告
- T/CEPPEA 5028-2023陸上風(fēng)力發(fā)電機(jī)組預(yù)應(yīng)力預(yù)制混凝土塔筒施工與質(zhì)量驗(yàn)收規(guī)范
- DB3308173-2025化工企業(yè)消防與工藝應(yīng)急處置隊(duì)建設(shè)規(guī)范
- 2025股權(quán)質(zhì)押借款合同范本
- 晚會(huì)聘請(qǐng)導(dǎo)演協(xié)議書(shū)
- 電遷改監(jiān)理實(shí)施細(xì)則
- 促脈證中醫(yī)護(hù)理方案
- 排污許可合同模板
- 社區(qū)營(yíng)養(yǎng)健康管理
- 《天皰瘡相關(guān)知識(shí)》課件
- 口服抗栓藥物相關(guān)消化道損傷防治專家共識(shí)(2021)解讀
- 敬老服務(wù)前臺(tái)工作總結(jié)
評(píng)論
0/150
提交評(píng)論