(新版)人工智能算法知識(shí)考試題(附答案)_第1頁
(新版)人工智能算法知識(shí)考試題(附答案)_第2頁
(新版)人工智能算法知識(shí)考試題(附答案)_第3頁
(新版)人工智能算法知識(shí)考試題(附答案)_第4頁
(新版)人工智能算法知識(shí)考試題(附答案)_第5頁
已閱讀5頁,還剩61頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

(新版)人工智能算法知識(shí)考試題(附答案)單選題1.支持向量機(jī)(SVM)中的代價(jià)參數(shù)C表示什么?()A、交叉驗(yàn)證的次數(shù)B、用到的核函數(shù)C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡D、以上都不對(duì)參考答案:C2.長短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下文而定,而不是固定的。A、自增加B、自循環(huán)C、自遞歸D、自減少參考答案:B3.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的參考答案:B4.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮D、1,3,4,5參考答案:C5.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出之間的差來調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()A、有師學(xué)習(xí)B、無師學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、都不是參考答案:A6.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測B、化學(xué)反應(yīng)的預(yù)測C、外來粒子的檢測D、所有這些參考答案:D7.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測算法包括Logistic回歸模型、()、決策樹、神經(jīng)網(wǎng)絡(luò)等A、線性回歸B、時(shí)間序列C、灰色模型D、貝葉斯網(wǎng)絡(luò)參考答案:D8.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計(jì)算C、卷積計(jì)算D、反向傳播算法參考答案:D9.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對(duì)等法則D、歸一法則參考答案:A10.在人臉檢測算法中,不屬于該算法難點(diǎn)的是()A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測分辨率很小的人臉D、需要檢測不同性別的人臉參考答案:D11.在強(qiáng)化學(xué)習(xí)過程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種結(jié)果;()表示采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前認(rèn)為最優(yōu)的動(dòng)作的值。A、探索B、開發(fā)C、開發(fā)D、探索E、探索參考答案:A12.在強(qiáng)化學(xué)習(xí)的過程中,學(xué)習(xí)率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大B、小C、大D、大E、小參考答案:A13.在卷積操作過程中計(jì)算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核大小為3*3,卷積窗口移動(dòng)的步長為1,則featuremaps的大小是()個(gè)元素?A、78400B、88804C、91204D、99856參考答案:B14.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以參考答案:C15.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是A、CNNB、LSTMC、GRUD、RNN參考答案:D16.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、大B、小C、大D、大E、小參考答案:A17.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好的近似出來,不再需要探索,則可讓?duì)烹S著嘗試次數(shù)增加而(___)A、增大B、置為無窮C、置為0D、減少參考答案:D18.在CNN中,梯度下降法的作用是()。A、線性變換B、非線性變換C、求函數(shù)最小值D、加速訓(xùn)練參考答案:C19.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization)(2)潛在語義索引(LatentSemanticIndexing)(3)隱狄利克雷分布(LatentDirichletAllocation)A、只有(1)B、(2)、(3)C、(1)、(3)D、(1)、(2)、(3)參考答案:D20.語義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識(shí)的A、無悖性B、可擴(kuò)充性C、繼承性D、連貫性參考答案:C21.以下算法中可以用于圖像平滑的是()。A、均值濾波;B、對(duì)比度增強(qiáng)C、二值化D、動(dòng)態(tài)范圍壓縮參考答案:A22.以下說法正確的是()。A、聚類是非監(jiān)督學(xué)習(xí)B、分類是非監(jiān)督學(xué)習(xí)C、聚類是監(jiān)督學(xué)習(xí)D、以上都不對(duì)參考答案:A23.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率參考答案:C24.以下關(guān)于隨機(jī)森林算法的描述中錯(cuò)誤的是A、可以處理高維度的屬性,并且不用做特征選擇B、隨機(jī)森林的預(yù)測能力不受多重共線性影響C、也擅長處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題D、能應(yīng)對(duì)正負(fù)樣本不平衡問題參考答案:C25.以下關(guān)于算法的說法中,不正確的是A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無監(jiān)督三種B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法C、決策樹算法屬于監(jiān)督學(xué)習(xí)類別D、K-Means是屬于無監(jiān)督學(xué)習(xí)算法參考答案:B26.以下關(guān)于降維,表述錯(cuò)誤的是:()A、降維過程中可以保留原始數(shù)據(jù)的所有信息。B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。D、核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失。參考答案:A27.以才哪種組合在CNN不常見A、conv+reluB、conv+relu+poolC、conv+relu+pool+fcD、conv+k-means參考答案:D28.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6參考答案:D29.學(xué)習(xí)器的實(shí)際預(yù)測輸出與樣本的真實(shí)輸出之間的差異稱為(___)。A、錯(cuò)誤率B、精度C、誤差D、查準(zhǔn)率參考答案:C30.協(xié)同訓(xùn)練(co-training)是針對(duì)(___)數(shù)據(jù)設(shè)計(jì)?A、多角度B、多視圖C、多環(huán)境D、多版本參考答案:B31.下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對(duì)的,2是錯(cuò)的B、都是對(duì)的C、1是錯(cuò)的,2是對(duì)的D、都是錯(cuò)的參考答案:D32.下面的問題,屬于分類問題的是;A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會(huì)在接下來的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額參考答案:C33.下面的問題,哪一個(gè)屬于分類問題的是()A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時(shí)間內(nèi)的工資漲幅D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會(huì)在接下來的一段時(shí)間內(nèi)離職參考答案:D34.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法()A、TF-IDFB、TextRankC、SSAD、LDA參考答案:C35.下列屬于特征降維的方法有A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法參考答案:A36.下列神經(jīng)網(wǎng)絡(luò)特點(diǎn)描述錯(cuò)誤的是(___)A、適應(yīng)性B、由簡單單元組成C、廣泛并行互連的網(wǎng)絡(luò)D、線性特性參考答案:D37.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()A、Hopfield網(wǎng)B、BP網(wǎng)絡(luò)C、多層感知器D、LVQ網(wǎng)絡(luò)參考答案:A38.下列哪些不是"子集搜索"中的搜索方式(___)A、單向搜索B、雙向搜索C、前向搜索D、后向搜索參考答案:A39.下列哪項(xiàng)不屬于集成學(xué)習(xí)A、隨機(jī)森林B、AdaboostC、kNND、XGBoost參考答案:C40.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x參考答案:D41.下列可以用于聚類問題的機(jī)器學(xué)習(xí)算法有()A、決策樹B、k-meansC、隨機(jī)森林D、邏輯回歸參考答案:B42.下列關(guān)于特征選擇的說法錯(cuò)誤的是(___)A、可以提高特征關(guān)聯(lián)性B、可以減輕維數(shù)災(zāi)難問題C、可以降低學(xué)習(xí)任務(wù)的難度D、特征選擇和降維具有相似的動(dòng)機(jī)參考答案:A43.下列關(guān)于K-Means聚類說法錯(cuò)誤的是()A、聚類的簇個(gè)數(shù)會(huì)由模型自動(dòng)給出B、可以使用多組隨機(jī)的初始中心點(diǎn)進(jìn)行計(jì)算C、聚類前應(yīng)當(dāng)進(jìn)行維度分析D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化參考答案:A44.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端參考答案:A45.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、數(shù)字C、6D、26參考答案:B46.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割參考答案:D47.圖計(jì)算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上A、結(jié)構(gòu)化B、非結(jié)構(gòu)化C、對(duì)稱化D、規(guī)則化參考答案:B48.通過以下哪些指標(biāo)我們可以在層次聚類中尋找兩個(gè)集群之間的差異?()A、單鏈接B、全鏈接C、均鏈接D、以上都行參考答案:D49.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB、梯度裁剪C、DropoutD、所有方法都不行參考答案:B50.隨著句子的長度越來越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過程將愈加困難,為了解決這類問題,下面哪項(xiàng)是我們可以采用的?A、使用遞歸單元代替循環(huán)單元B、使用注意力機(jī)制(attentionmechanism)C、使用字符級(jí)別翻譯(characterleveltranslation)D、所有選項(xiàng)均不對(duì)參考答案:B51.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個(gè)選項(xiàng)不屬于決策樹構(gòu)建過程當(dāng)中的步驟?A、剪枝B、特征選取C、數(shù)據(jù)清理D、決策樹生成參考答案:C52.數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測,并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱為"集成學(xué)習(xí)")結(jié)合起來,以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說法正確的是?()A、基本模型之間相關(guān)性高。B、基本模型之間相關(guān)性低。C、集成方法均使用加權(quán)平均代替投票方法。D、基本模型都來自于同一算法。參考答案:B53.使用交叉驗(yàn)證最簡單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val_scoreB、cross_val%C、val_scoreD、cross_score參考答案:A54.生成式方法是直接基于(___)的方法?A、生成式學(xué)習(xí)B、生成式場景C、生成式數(shù)據(jù)D、生成式模型參考答案:D55.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()A、防止過擬合B、減小誤差C、增加網(wǎng)絡(luò)復(fù)雜度參考答案:A56.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、上述都正確參考答案:D57.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是A、在實(shí)際場景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合參考答案:C58.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法是正確的?A、增加樹的深度B、增加學(xué)習(xí)率C、減小樹的深度D、減少樹的數(shù)量參考答案:C59.如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一個(gè)必然可以得到該最優(yōu)解A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索參考答案:A60.如果問題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到該最優(yōu)解,()可以認(rèn)為是"智能程度相對(duì)比較高"的算法。A、無界深度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索參考答案:D61.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和()A、平移B、刪除C、移動(dòng)D、收斂參考答案:A62.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:A、完全拷貝B、一點(diǎn)點(diǎn)關(guān)系都沒有C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)D、同一事物的兩個(gè)名稱參考答案:C63.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時(shí)參考答案:C64.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗(yàn)概率參考答案:A65.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()機(jī)器學(xué)習(xí)手段A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合參考答案:A66.啟發(fā)式搜索是尋求問題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞參考答案:C67.哪種聚類方法采用概率模型來表達(dá)聚類()A、K-meansB、LVQC、DBSCAND、高斯混合聚類參考答案:D68.哪個(gè)不是常用的聚類算法()。A、K-MeansB、DBSCANC、GMMsD、Softmax參考答案:D69.目標(biāo)檢測常用性能指標(biāo)的是()A、信噪比B、平方誤差C、mAPD、分辨率參考答案:C70.模型有效的基本條件是能夠()已知的樣本A、結(jié)合B、擬合C、聯(lián)合D、聚集參考答案:B71.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。A、1B、2C、3D、4參考答案:A72.馬爾可夫預(yù)測模型是將時(shí)間序列看作一個(gè)過程,通過對(duì)事物不同狀態(tài)的()與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢,預(yù)測事物的未來。A、初始概率B、結(jié)果概率C、形成概率參考答案:A73.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識(shí)別的時(shí)候,不需要對(duì)整個(gè)圖像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。A、一般B、特殊C、連續(xù)D、重點(diǎn)參考答案:B74.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:A、DNNB、CNNC、RNND、Tanh參考答案:B75.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問題,logistics回歸需要很長時(shí)間才能訓(xùn)練。如何提高訓(xùn)練速度?()A、降低學(xué)習(xí)率,減少迭代次數(shù)B、降低學(xué)習(xí)率,增加迭代次數(shù)C、提高學(xué)習(xí)率,增加迭代次數(shù)D、增加學(xué)習(xí)率,減少迭代次數(shù)參考答案:D76.機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()A、參數(shù)預(yù)估B、機(jī)器翻譯C、圖像識(shí)別D、參數(shù)估計(jì)參考答案:D77.機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是A、卡方檢驗(yàn)B、信息增益C、數(shù)據(jù)采樣D、期望交叉熵參考答案:C78.回歸分析中定義的()A、解釋變量和被解釋變量都是隨機(jī)變量B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量C、解釋變量和被解釋變量都為非隨機(jī)變量D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量參考答案:B79.環(huán)境在接受到個(gè)體的行動(dòng)之后,會(huì)反饋給個(gè)體環(huán)境目前的狀態(tài)(state)以及由于上一個(gè)行動(dòng)而產(chǎn)生的()。A、actionB、rewardC、stateD、agent參考答案:B80.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過程,須有一定的機(jī)制來緩解過擬合的風(fēng)險(xiǎn),最常見的做法是(___)A、序列化B、剪枝C、去重D、重組參考答案:B81.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開B、LSTM無法解決梯度消失的問題C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN參考答案:B82.關(guān)于線性回歸的描述,以下說法正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)參考答案:B83.關(guān)于聚類說法錯(cuò)誤的是()A、在無監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類B、聚類可作為一個(gè)單獨(dú)過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過程C、聚類分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類就越好參考答案:B84.關(guān)于精度與錯(cuò)誤率的說法中錯(cuò)誤的是()。A、精度與錯(cuò)誤率的和為1B、精度與錯(cuò)誤率都可以反映模型的好壞C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)參考答案:D85.關(guān)于MNIST,下列說法錯(cuò)誤的是()。A、是著名的手寫體數(shù)字識(shí)別數(shù)據(jù)集B、有訓(xùn)練集和測試集兩部分C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷D、測試集大約包含10000個(gè)樣本和標(biāo)簽參考答案:C86.關(guān)于bagging下列說法錯(cuò)誤的是:()A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。B、最著名的算法之一是基于決策樹基分類器的隨機(jī)森林。C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。D、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。參考答案:A87.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為(___);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。A、貝葉斯網(wǎng)B、拉普拉斯網(wǎng)C、帕斯卡網(wǎng)D、塞繆爾網(wǎng)參考答案:A88.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越(),也即越來越能表現(xiàn)語義或者意圖。A、具體和形象化B、抽象和概念化C、具體和概念化D、抽象和具體化參考答案:B89.符號(hào)集a、b、c、d,它們相互獨(dú)立,相應(yīng)概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號(hào)是()A、aB、bC、cD、d參考答案:A90.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個(gè)敘述是正確的?A、其他選項(xiàng)都不對(duì)B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變參考答案:C91.對(duì)不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(___)A、最大一般泛化B、最小一般泛化C、最大一般特化D、最小一般特化參考答案:B92.獨(dú)熱編碼的缺點(diǎn)是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲(chǔ)A、③④B、①②C、①③D、②④參考答案:B93.從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹?,這樣的作法稱為(___)A、策略迭代B、值迭代C、策略改進(jìn)D、最優(yōu)值函數(shù)參考答案:A94.常見的圖像預(yù)處理方法不包括(____)。A、圖像降噪B、圖像增強(qiáng)C、圖像尺寸歸一化D、圖像標(biāo)注參考答案:D95.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、不斷遞歸而衰退B、不斷遞歸而增強(qiáng)C、先增強(qiáng)后減弱D、先減弱后增強(qiáng)參考答案:A96.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachine)。與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(duì)(___)問題的學(xué)習(xí)方法?A、分類B、回歸C、聚類D、二分類參考答案:D97.YOLOv3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的()A、CB、C*HC、H*WD、nan參考答案:C98.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度A、正則項(xiàng)B、非線性C、激活函數(shù)D、特征變換參考答案:A99.VGG-19中卷積核的大小為A、3x3B、5x5C、3x3,5x5D、不確定參考答案:A100.Softmax算法中溫度趨近于0時(shí)Softmax將趨于(___)A、僅探索B、僅利用C、全探索D、全利用參考答案:B101.ResNet-50有多少個(gè)卷積層?()A、48B、49C、50D、51參考答案:B102.Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()A、設(shè)為0B、設(shè)為無窮大C、不定義D、設(shè)為任意值參考答案:A103.Relief屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式參考答案:D104.ONE-HOT-ENCODING可用于什么特征處理A、類別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征參考答案:A105.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是()A、各類別的先驗(yàn)概率P(C)是相等的B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D、P(X|C)是高斯分布參考答案:C106.LVW屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式參考答案:A107.LSTM是一種什么網(wǎng)絡(luò)?A、卷積神經(jīng)網(wǎng)B、前饋神經(jīng)網(wǎng)C、循環(huán)神經(jīng)網(wǎng)D、孿生網(wǎng)絡(luò)參考答案:C108.LSTM單元中引入了哪些門來更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門參考答案:A109.LARS屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式參考答案:C110.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇參考答案:A111.K-Means算法無法聚以下哪種形狀的樣本A、圓形分布B、螺旋分布C、帶狀分布D、凸多邊形分布參考答案:B112.Inception模塊采用()的設(shè)計(jì)形式,每個(gè)支路使用()大小的卷積核。A、多通路,不同B、單通路,不同C、多通路,相同D、單通路,相同參考答案:A113.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計(jì)算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過擬合D、GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的參考答案:C114.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標(biāo)簽參考答案:B115.faster-rcnn回歸分支采用()lossA、L1B、L2C、SmoothL1D、nan參考答案:C116.EM算法是()A、有監(jiān)督B、無監(jiān)督C、半監(jiān)督D、都不是參考答案:B117.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logm)D、O(m*logm)參考答案:B118.CRF(條件隨機(jī)場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。參考答案:B119..混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程中的評(píng)估技術(shù),關(guān)于混沌度,哪種說法是正確的?A、混沌度沒什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對(duì)于結(jié)果的影響不一定參考答案:B120.()是一種基于樹結(jié)構(gòu)進(jìn)行決策的算法。A、軌跡跟蹤B、決策樹C、數(shù)據(jù)挖掘D、K近鄰算法參考答案:B121.()是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來代替網(wǎng)絡(luò)在該位置的輸出A、卷積B、約化C、池化D、批歸一化參考答案:C122.()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動(dòng)情況。A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差參考答案:B123.()的核心訓(xùn)練信號(hào)是圖片的"可區(qū)分性"。模型需要區(qū)分兩個(gè)輸入是來自于同一圖片的不同視角,還是來自完全不同的兩張圖片。A、對(duì)比學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、遷移學(xué)習(xí)D、深度學(xué)習(xí)參考答案:A124.()常做為CNN網(wǎng)絡(luò)的最后一層。A、卷積層B、池化層C、全連接層D、歸一化層參考答案:C多選題1.支持向量機(jī)的求解通常是借助于凸優(yōu)化技術(shù),針對(duì)線性核SVM來說,主要的求解提升效率方法為(____)。A、割平面法B、隨機(jī)梯度下降C、坐標(biāo)下降法D、快速采樣法參考答案:ABC2.在自然語言處理任務(wù)中,首先需要考慮字、詞如何在計(jì)算機(jī)中表示。通常,有兩種表示方式:()表示和()表示A、on-hotB、one-hotC、分布式D、集中式參考答案:BC3.與淺層神經(jīng)網(wǎng)絡(luò)相比,深度學(xué)習(xí)的不同在于()和()。A、強(qiáng)調(diào)了模型結(jié)構(gòu)的深度B、明確了特征學(xué)習(xí)的重要性C、所需訓(xùn)練集數(shù)據(jù)較少D、數(shù)據(jù)集沒有局部相關(guān)性參考答案:AB4.以下算法中可以用于圖像處理中去噪的是()。A、中值濾波B、均值濾波C、最小值濾波D、最大值濾波參考答案:ABCD5.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TanhD、Sigmoid參考答案:CD6.以下哪些機(jī)器學(xué)習(xí)算法可以不對(duì)特征做歸一化處理()A、隨機(jī)森林B、邏輯回歸C、SVMD、GBDT參考答案:AD7.以下哪些不是常見的自然語言處理的網(wǎng)絡(luò)結(jié)構(gòu)。A、LeNetB、BertC、VGGD、ResNet參考答案:ACD8.需要循環(huán)迭代的算法有()。A、k-meansB、線性回歸C、svmD、邏輯回歸參考答案:ABD9.校驗(yàn)數(shù)據(jù)有效性A、讀入數(shù)據(jù)B、拆分樣本集合C、訓(xùn)練樣本集亂序D、生成批次數(shù)據(jù)參考答案:ABCD10.下面哪些是基于核的機(jī)器學(xué)習(xí)算法()A、最大期望算法B、徑向基核函數(shù)C、線性判別分析法D、支持向量機(jī)參考答案:BCD11.下面的Python開發(fā)包中,屬于深度學(xué)習(xí)框架的有()A、flaskB、TensorflowC、KerasD、Mxnet參考答案:BCD12.下列有監(jiān)督學(xué)習(xí)算法中可解決回歸問題的算法包括A、線性回歸B、邏輯回歸C、神經(jīng)網(wǎng)絡(luò)D、隨機(jī)森林參考答案:ACD13.下列那些方式可處理神經(jīng)網(wǎng)絡(luò)中的過擬合問題?A、L1/L2正則化B、dropoutC、dataargumentationD、earlystop參考答案:ABCD14.下列哪些開發(fā)包,已包含一些常用的機(jī)器學(xué)習(xí)算法?()A、sklearnB、xgboostC、lightgbmD、numpy參考答案:ABC15.下列可用于隱馬爾可夫預(yù)測的算法是()。A、維特比算法B、Baum-Welch算法C、前向-后向算法D、擬牛頓法參考答案:ABCD16.下列關(guān)于DSSM經(jīng)典模型的結(jié)構(gòu)的說法不正確的是()A、線性B、雙塔C、三塔D、非線性參考答案:ACD17.圖像分類是根據(jù)圖像的語義信息對(duì)不同類別圖像進(jìn)行區(qū)分,是計(jì)算機(jī)視覺的核心,是()、人臉識(shí)別等其他高層次視覺任務(wù)的基礎(chǔ)A、物體檢測B、圖像分割C、物體跟蹤D、行為分析參考答案:ABCD18.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?A、準(zhǔn)確性B、不確定性C、可信賴度D、雜亂性參考答案:AC19.數(shù)據(jù)挖掘的挖掘方法包括:()()A、聚類分析B、回歸分析C、神經(jīng)網(wǎng)絡(luò)D、決策樹算法參考答案:ABCD20.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。A、VGGNetB、ResNetC、AlexNetD、GoogleNet參考答案:ABCD21.深度學(xué)習(xí)中常用的損失函數(shù)有?A、L1損失函數(shù)B、均方誤差損失函數(shù)C、交叉熵誤差損失函數(shù)D、自下降損失函數(shù)參考答案:BC22.深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu)中,存在的主要問題難點(diǎn)有A、數(shù)據(jù)精度設(shè)置B、每層卷積核多少設(shè)置C、網(wǎng)絡(luò)層數(shù)選取D、激活函數(shù)選取參考答案:BCD23.那種機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注A、有監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、深度學(xué)習(xí)參考答案:BC24.哪些項(xiàng)屬于集成學(xué)習(xí)?A、KnnB、AdaboostC、隨機(jī)森林XGBoostD、XGBoost參考答案:BCD25.哪些技術(shù)是RCNN采用而FasterRCNN沒有用?()A、SVM分類B、使用SelectiveSearch輸出候選框C、使用MLP進(jìn)行分類與回歸預(yù)測D、使用ROIpooling參考答案:AB26.模型壓縮的主要方法有哪些?A、模型剪枝B、模型蒸餾C、模型參數(shù)量化D、nan參考答案:ABC27.領(lǐng)域型知識(shí)圖譜的構(gòu)建過程主要包含哪幾個(gè)部分A、知識(shí)融合B、本體構(gòu)建C、知識(shí)抽取D、知識(shí)存儲(chǔ)參考答案:ABCD28.可以用隨機(jī)梯度下降法求解參數(shù)的模型分別有()A、線性回歸B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、LSTM參考答案:ABCD29.考慮到RNN(或者LSTM,GRU等)類模型只能從()依次計(jì)算或者從()依次計(jì)算,帶來了一定的局限性A、前向后B、后向前C、左向右D、右向左參考答案:CD30.決策樹學(xué)習(xí)算法包括哪幾個(gè)部分?A、特征選擇B、樹的生成C、分類決策規(guī)則D、樹的剪枝參考答案:ABD31.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括()、()、()。A、輸入層B、卷積層C、隱含層D、輸出層參考答案:ACD32.卷積神經(jīng)網(wǎng)絡(luò)的核心思想是A、局部感知B、參數(shù)共享C、全連接參考答案:AB33.聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個(gè)通常是___________的子集,每個(gè)子集稱為一個(gè)"簇",每個(gè)簇對(duì)應(yīng)一定的概念(如無籽瓜、淺色瓜等),這些概念對(duì)聚類算法是___________的,聚類過程僅能自動(dòng)形成簇結(jié)構(gòu),簇對(duì)應(yīng)的概念含義由使用者來把握和命名。A、相交B、不相交C、事先已知D、事先未知參考答案:BD34.機(jī)器學(xué)習(xí)中評(píng)價(jià)指標(biāo)有哪些()A、AccuracyB、PrecisionC、RecallD、Iou參考答案:ABC35.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?A、GMMC、tanhD、skip參考答案:ABC36.漢語的演化史表明,量詞的真實(shí)功用可能與()沒有任何關(guān)系A(chǔ)、隱喻機(jī)制B、個(gè)體化機(jī)制C、單復(fù)數(shù)區(qū)分D、補(bǔ)足音素參考答案:BC37.關(guān)于支持向量機(jī),哪項(xiàng)說法正確?A、支持向量機(jī)可以用于處理二分類及多分類問題B、支持向量機(jī)只能用于線性可分的分類問題C、支持向量機(jī)可用于回歸問題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大參考答案:ACD38.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說法,哪些是不正確的()A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過程C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了參考答案:ACD39.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化成層以下描述正確的是?A、經(jīng)過池化的特征圖像變小了B、池化操作采用掃描窗口實(shí)現(xiàn)C、池化層可以起到降維的作用D、常用的池化方法有最大池化和平均池化參考答案:ABCD40.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了參考答案:ABCD41.關(guān)于對(duì)數(shù)幾率回歸,以下說法正確的是()A、對(duì)數(shù)幾率回歸是一種分類學(xué)習(xí)方法B、對(duì)數(shù)幾率回歸無需事先假設(shè)數(shù)據(jù)分布C、對(duì)數(shù)幾率回歸是可得到近似概率預(yù)測D、對(duì)數(shù)幾率回歸任意階可導(dǎo)的凸函數(shù)參考答案:ABCD42.分類問題的評(píng)估方法包括A、正確率B、精確率C、召回率D、均方誤差參考答案:ABC43.非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()A、隨機(jī)分布B、隨機(jī)傅里葉特征C、采樣D、低秩逼近參考答案:BCD44.當(dāng)發(fā)現(xiàn)機(jī)器學(xué)習(xí)模型過擬合時(shí),以下操作正確的是:()A、降低特征維度B、增加樣本數(shù)量C、添加正則項(xiàng)D、增加特征維度參考答案:ABC45.常用的機(jī)器學(xué)習(xí)算法,可使用哪些開發(fā)包()A、sklearnB、xgboostC、lightgbmD、numpy參考答案:ABC46.常見的MRC任務(wù)可以分為四種類型:()。A、完形填空B、多項(xiàng)選擇C、片段抽取D、自由回答參考答案:ABCD47.不確定性類型按性質(zhì)可分哪些?A、隨機(jī)性B、模糊性C、不完全性D、不一致性參考答案:ABCD48.Transformer由且僅由()和()組成。只要計(jì)算資源夠,可以通過堆疊多層Transformer來搭建復(fù)雜網(wǎng)絡(luò)。A、Self-AttenionB、FeedForwardNeuralNetworkC、FeedBackwardNeuralNetworkD、Self-Action參考答案:AB49.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)參考答案:ABCD50.Relu激活函數(shù)的缺點(diǎn)?A、由于負(fù)數(shù)部分恒為0,會(huì)導(dǎo)致一些神經(jīng)元無法激活B、輸出不是以0為中心C、解決了梯度消失、爆炸的問題D、計(jì)算方便,計(jì)算速度快,求導(dǎo)方便參考答案:ABCD51.RCNN三大不足是()A、SelectiveSearch質(zhì)量不好B、每個(gè)候選框都需要cnn計(jì)算特征計(jì)算量大C、svm沒有聯(lián)合訓(xùn)練,訓(xùn)練時(shí)間增長D、模型效果優(yōu)于faster-rcnn參考答案:ABC52.matplotlib中,subplots_adjust方法中的()和()參數(shù)分別控制圖片的寬度和高度百分比,以用作子圖間的間距。A、wspaceB、hspaceC、vspaceD、lspace參考答案:AB53.KNN是一種()。A、勤奮學(xué)習(xí)模型B、參數(shù)模型C、懶惰學(xué)習(xí)模型D、非參數(shù)模型參考答案:BC54.EM算法每次迭代包括哪些步驟?A、求期望B、求極大值C、求標(biāo)準(zhǔn)差D、求方差參考答案:AB55.Embedding編碼有哪些特點(diǎn)?A、特征稠密B、特征稀疏C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)D、泛化性更好,支持語義運(yùn)算sim參考答案:ACD56.DSSM模型總的來說可以分成三層結(jié)構(gòu),分別是()A、輸入層B、表示層C、匹配層D、輸出層參考答案:ABC57.DSSM經(jīng)典模型的優(yōu)點(diǎn)有()A、解決了字典爆炸問題,降低了計(jì)算復(fù)雜度B、省去了人工特征工程C、采用有監(jiān)督訓(xùn)練,精度較高D、效果不可控參考答案:ABC58.CNN常見的數(shù)據(jù)集有()A、PASCALVOCB、MNISTC、ImageNetD、CIFAR-10參考答案:ABCD59.BERT模型的主要?jiǎng)?chuàng)新點(diǎn)都在pre-train方法上,即用了()和()兩種方法分別捕捉詞語和句子級(jí)別的representation。A、MaskedLMB、MaskedMLC、NextSentencePredictionD、PreSentencePrediction參考答案:AC判斷題1.在神經(jīng)網(wǎng)絡(luò)里,將經(jīng)過反向傳播之后,梯度值衰減到接近于零的現(xiàn)象稱作梯度消失現(xiàn)象A、正確B、錯(cuò)誤參考答案:A2.在目標(biāo)檢測中,ROIpooling算法能產(chǎn)生候選框A、正確B、錯(cuò)誤參考答案:B3.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的模型是RNN。A、正確B、錯(cuò)誤參考答案:A4.語言模型的參數(shù)估計(jì)經(jīng)常使用MLE(最大似然估計(jì))。面臨的一個(gè)問題是沒有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語言模型的效果不好。為了解決這個(gè)問題,需要使用去噪。A、正確B、錯(cuò)誤參考答案:B5.一個(gè)卷積核對(duì)應(yīng)于檢測一種類型的特征A、正確B、錯(cuò)誤參考答案:A6.誤差逆?zhèn)鞑ニ惴ǎ˙P)僅可用于多層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法A、正確B、錯(cuò)誤參考答案:B7.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。A、正確B、錯(cuò)誤參考答案:B8.圖像分類是根據(jù)圖像的語義信息對(duì)不同類別圖像進(jìn)行區(qū)分,是計(jì)算機(jī)視覺的核心,是物體檢測、圖像分割、物體跟蹤、行為分析、人臉識(shí)別等其他高層次視覺任務(wù)的基礎(chǔ)A、正確B、錯(cuò)誤參考答案:A9.通過Breadth-FirstSearch算法一定能找到最優(yōu)解。()A、正確B、錯(cuò)誤參考答案:A10.隨機(jī)森林的收斂性與Bagging相似,隨機(jī)森林的起始性能往往相對(duì)較好,隨著個(gè)體學(xué)習(xí)器數(shù)目的增加,隨機(jī)森林通常會(huì)收斂到更低的泛化誤差。A、正確B、錯(cuò)誤參考答案:B11.示例學(xué)習(xí)又稱為實(shí)例學(xué)習(xí),它是通過環(huán)境中若干與某個(gè)概念有關(guān)的例子,經(jīng)歸納得出的一般性概念的一種學(xué)習(xí)方法。()A、正確B、錯(cuò)誤參考答案:A12.神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制受到人類視覺中注意力的啟發(fā),即人類視覺注意力能夠聚焦到圖像的特定區(qū)域,并在這個(gè)區(qū)域有非常低的分辨率,而在其它區(qū)域有較高的分辨率。A、正確B、錯(cuò)誤參考答案:B13.深層神經(jīng)網(wǎng)絡(luò),不添加激活函數(shù)效果也很好。A、正確B、錯(cuò)誤參考答案:B14.設(shè)有機(jī)器人走迷宮問題,其入口坐標(biāo)為(x0,y0),出口坐標(biāo)為(xt,yt),當(dāng)前機(jī)器人位置為(x,y),若定義,當(dāng)從入口到出口存在通路時(shí),用A算法求解該問題,定能找到從入口到出口的最佳路徑。()A、正確B、錯(cuò)誤參考答案:A15.如果增加多層感知機(jī)(MultilayerPerceptron)的隱層層數(shù),測試集的分類錯(cuò)會(huì)減小。A、正確B、錯(cuò)誤參考答案:B16.冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響A、正確B、錯(cuò)誤參考答案:A17.普通

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論