人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷11)_第1頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷11)_第2頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷11)_第3頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷11)_第4頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷11)_第5頁(yè)
已閱讀5頁(yè),還剩50頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共116題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.下列不屬于文本分詞算法種類的有()。A)基于詞典的分詞B)基于語(yǔ)料庫(kù)的分詞C)基于統(tǒng)計(jì)的分詞D)基于規(guī)則的分詞答案:B解析:[單選題]2.怎樣解決梯度爆炸A)對(duì)于RNN,可以通過(guò)梯度截?cái)?,避免梯度消失B)可以通過(guò)添加正則項(xiàng),避免梯度爆炸C)使用LSTM等自循環(huán)和門控制機(jī)制,避免梯度爆炸D)優(yōu)化激活函數(shù),譬如將sigmold改為relu,避免梯度消失答案:B解析:[單選題]3.下列選項(xiàng)中,關(guān)于激活函數(shù)的描述,說(shuō)法正確的是哪個(gè)?A)神經(jīng)網(wǎng)絡(luò)中最好的激活函數(shù)是sigmoidB)激活函數(shù)有正則化作用C)dropout是CNN中的激活函數(shù)D)神經(jīng)元輸出后需要給定一個(gè)激活函數(shù)答案:D解析:[單選題]4.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?A)A:變量代換B)B:離散化C)C:聚集D)D:估計(jì)遺漏值答案:D解析:[單選題]5.關(guān)于在訓(xùn)練模型,選擇超參數(shù)的過(guò)程中的隨機(jī)取值指的是?A)隨機(jī)選擇標(biāo)尺取值B)隨機(jī)取值就是有效范圍內(nèi)隨機(jī)均勻取值C)選擇合適的標(biāo)尺進(jìn)行取值D)隨機(jī)的進(jìn)行均勻的取值答案:C解析:[單選題]6.熵表示的是什么A)自變量和因變量之間的關(guān)系B)表示數(shù)據(jù)的多少C)表示數(shù)據(jù)中心包含信息量的大小D)不確定答案:C解析:[單選題]7.tf.reshape()的用途是?A)相乘B)相加C)維度轉(zhuǎn)化D)相減答案:C解析:[單選題]8.交叉熵函數(shù)是常用的損失函數(shù),它是通過(guò)度量?jī)蓚€(gè)什么分布的差異性A)概率B)矢量C)矩陣信息D)空間答案:A解析:[單選題]9.實(shí)際工程問(wèn)題中,需要根據(jù)業(yè)務(wù)和需求,構(gòu)建相應(yīng)的()?A)架構(gòu)B)數(shù)學(xué)模型C)流程圖D)數(shù)據(jù)集答案:B解析:[單選題]10.自然語(yǔ)言處理作為人工智能領(lǐng)域最重要的一個(gè)研究方向,其技術(shù)發(fā)展與人工智能的發(fā)展歷史一樣,主要有以下兩類方法,其中第一類是基于規(guī)則的方法,另一類是()A)基于統(tǒng)計(jì)的方法B)基于深度學(xué)習(xí)的方法C)基于字典的方法D)基于Chomsky語(yǔ)言學(xué)的方法答案:A解析:[單選題]11.通過(guò)樣本數(shù)目的累積,使總方差估計(jì)值達(dá)到所需的精度,該抽樣方式是()A)有放回的簡(jiǎn)單隨機(jī)抽樣B)無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C)分層抽樣D)漸進(jìn)抽樣答案:D解析:[單選題]12.下列不屬于AdaBoost算法的特點(diǎn)的是()A)每次迭代改變的是樣本的分布(Reweight),而不是重復(fù)采樣。B)樣本分布的改變?nèi)Q于樣本是否被正確分類:總是分類正確的樣本權(quán)值低,總是分類錯(cuò)誤的樣本權(quán)值高(通常是邊界附近的樣本)。C)最終的結(jié)果是弱分類器的加權(quán)組合,權(quán)值表示該弱分類器的性能。D)每次迭代重復(fù)采樣答案:D解析:[單選題]13.欠擬合是不好的現(xiàn)象,那么它有什么不好的影響A)在訓(xùn)練集上的效果很好,但是在測(cè)試集上的效果很差B)在訓(xùn)練集上的效果差,在測(cè)試集上的效果也差C)在訓(xùn)練集上的效果很好,在測(cè)試集上的效果也很好D)在訓(xùn)練集上的效果很差,但是在測(cè)試集上的效果很好答案:B解析:[單選題]14.KNN算法的分類原理是什么A)利用自變量和因變量之間的一次函數(shù)關(guān)系B)需要分類的樣本選擇特征空間上和自己最鄰近的K個(gè)樣本_x0001_把已經(jīng)分類或需要分類的樣本在定義的特征空間上表征需要分類的樣本的類別就是這K個(gè)樣本中最多的那個(gè)類別C)利用自變量和因變量之間的對(duì)數(shù)關(guān)系D)找出最好的分類超平面答案:B解析:[單選題]15.使用以下哪種方式編碼的詞向量包含語(yǔ)義信息A)one-hotB)bagofwordsC)word2vecD)TF-IDF答案:C解析:[單選題]16.sigmoid作為經(jīng)典的激活函數(shù),經(jīng)過(guò)sigmoid函數(shù)的輸出值會(huì)被壓縮到多大?A)[0,1]B)[0,2]C)[0,3]D)[-1,1]答案:A解析:[單選題]17.在使用tf時(shí),其中有很多的接口,例如multiply,這個(gè)接口實(shí)現(xiàn)的功能是?A)相與B)相乘C)相除D)相加答案:B解析:[單選題]18.命名實(shí)體識(shí)別中BI-LSTM的作用是什么A)從前向后,單向提取特征B)從后向前,單向提取特征C)從前向后,從后向前,雙向提取特征D)不確定答案:C解析:[單選題]19.在嶺回歸模型中,回歸系數(shù)的先驗(yàn)分布是()。A)拉普拉斯分布B)正態(tài)分布C)正態(tài)分布與拉普拉斯的混合分布D)指數(shù)分布答案:B解析:[單選題]20.GB18030采用()字節(jié)變長(zhǎng)編碼方式。A)一二三B)一二四C)一三四D)二三四答案:B解析:[單選題]21.()主要是進(jìn)行分詞以及詞性標(biāo)注,為語(yǔ)言模型構(gòu)建和發(fā)音字典創(chuàng)建做準(zhǔn)備。A)詞語(yǔ)標(biāo)注B)文本標(biāo)注C)語(yǔ)音標(biāo)注D)音素標(biāo)注答案:B解析:[單選題]22.對(duì)于選擇超參數(shù),選擇了不同的取值,不可以_____?A)選擇對(duì)訓(xùn)練集目標(biāo)而言的最優(yōu)解B)對(duì)于開(kāi)發(fā)集而言的最優(yōu)解C)超參搜索過(guò)程中最想優(yōu)化的東西D)簡(jiǎn)化參數(shù)調(diào)試答案:D解析:[單選題]23.現(xiàn)在常用的文本生成是什么樣的模型A)只依賴于編碼的模型如:bertB)不確定C)基于編解碼的端到端的模型seq2seqD)只依賴于解碼的模型答案:C解析:[單選題]24.如果文法中的每一條產(chǎn)生式α→β都滿足|α|<=|β|,即規(guī)則左部的符號(hào)個(gè)數(shù)少于或等于規(guī)則右部的符號(hào)個(gè)數(shù)(例如,xYz→xyz),這種文法就稱為A)0型文法B)1型文法C)2型文法D)左線性文法答案:B解析:[單選題]25.用哪種數(shù)據(jù)挖掘方法可以分析出客戶對(duì)產(chǎn)品的情感傾向()A)關(guān)聯(lián)規(guī)則挖掘B)Web文本挖掘C)分類模式挖掘D)序列模式挖掘答案:B解析:[單選題]26.智能問(wèn)答方法依托的關(guān)鍵基礎(chǔ)及技術(shù)中哪一項(xiàng)是知識(shí)問(wèn)答系統(tǒng)的大腦()A)知識(shí)圖譜B)NLPC)深度學(xué)習(xí)D)信息檢索答案:A解析:[單選題]27.循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的作用描述正確的是A)增大文本數(shù)量B)簡(jiǎn)化文本C)特征提取D)文本分類答案:C解析:[單選題]28.用于尋找出某個(gè)能夠達(dá)到給定目標(biāo)的動(dòng)作序列或步驟的專家系統(tǒng)是()A)設(shè)計(jì)專家系統(tǒng)B)診斷專家系統(tǒng)C)預(yù)測(cè)專家系統(tǒng)D)規(guī)劃專家系統(tǒng)答案:D解析:[單選題]29.在圖像的人臉識(shí)別中,深度學(xué)習(xí)有哪些應(yīng)用,使用到的是哪個(gè)網(wǎng)絡(luò)結(jié)構(gòu)A)LeNET5B)(CNN:AlexNet)C)VGGD)ResNet答案:B解析:[單選題]30.關(guān)于五元組模型隱馬爾科夫說(shuō)法不正確的是__?A)當(dāng)前時(shí)刻的狀態(tài)只受上一時(shí)刻的影響B(tài))當(dāng)前時(shí)刻的隱藏狀態(tài)只與當(dāng)前時(shí)刻的觀測(cè)狀態(tài)有關(guān)C)當(dāng)前時(shí)刻的隱藏狀態(tài)與上一時(shí)刻時(shí)刻的觀測(cè)狀態(tài)有關(guān)D)X表示觀測(cè)序列,Y表示隱藏狀態(tài)答案:C解析:[單選題]31.計(jì)算圖模型是哪個(gè)框架中存在的A)pytorchB)tensorflowC)caffeD)paddle答案:B解析:[單選題]32.Transformer中的Q,K,V為什么用不同的權(quán)重矩陣生成A)無(wú)實(shí)際的意義B)減小表達(dá)能力C)降低了泛華能力D)這樣可以在不同的空間上進(jìn)行投影,增加表達(dá)能力答案:D解析:[單選題]33.tf.to_float的作用是什么A)將張量轉(zhuǎn)換為float32類型.B)轉(zhuǎn)為64位浮點(diǎn)類型-float64C)轉(zhuǎn)為32位整型-int32D)轉(zhuǎn)為64位整型-int64答案:A解析:[單選題]34.交叉熵函數(shù)一般用作定義什么函數(shù)?A)損失函數(shù)B)激活函數(shù)C)relu函數(shù)D)sigmoid函數(shù)答案:A解析:[單選題]35.語(yǔ)料庫(kù)以語(yǔ)料庫(kù)結(jié)構(gòu)進(jìn)行劃分可分為()A)通用語(yǔ)料庫(kù)與專用語(yǔ)料庫(kù)B)平衡結(jié)構(gòu)語(yǔ)料庫(kù)與自然隨機(jī)結(jié)構(gòu)語(yǔ)料庫(kù)C)共時(shí)語(yǔ)料庫(kù)與歷時(shí)語(yǔ)料庫(kù)D)單媒體語(yǔ)料庫(kù)與多媒體語(yǔ)料庫(kù)答案:B解析:[單選題]36.對(duì)于數(shù)據(jù)的處理過(guò)程過(guò)采樣和欠采樣可以解決什么問(wèn)題的A)詞向量化處理B)提取特征C)樣本類別不平衡D)文本摘要處理答案:C解析:[單選題]37.神經(jīng)網(wǎng)絡(luò)的運(yùn)行流程是從輸入層-->()-->輸出層A)輸出層B)隱藏層C)輸出層D)激活函數(shù)層答案:B解析:[單選題]38.()是指從文本中抽取出特定的事件或事實(shí)信息。例如,從時(shí)事新聞報(bào)道中抽取出某一恐怖事件的基本信息,如時(shí)間、地點(diǎn)、事件制造者、受害人、襲擊目標(biāo)、傷亡人數(shù)等。A)文本分類B)文本聚類C)信息抽取D)信息過(guò)濾答案:C解析:[單選題]39.tf.Variable(tf.random_normal([20,10,3,16])),在該操作中,關(guān)于定義的卷積核的高度,下列選項(xiàng)中描述正確的是?A)10B)20C)16D)3答案:B解析:[單選題]40.以下四個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)的縮寫是RNNA)卷積神經(jīng)網(wǎng)絡(luò)B)標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)自注意力機(jī)制答案:C解析:[單選題]41.超參數(shù)使我們模型道中必要的闡述,關(guān)于超參數(shù)范圍中說(shuō)法正確的是A)隨機(jī)取值可以提升搜索效率B)隨機(jī)取值就是隨機(jī)均勻取值C)范圍就是[0,1]D)隨機(jī)取值對(duì)搜索無(wú)影響答案:A解析:[單選題]42.下面那個(gè)算法可以做關(guān)鍵詞的提取A)FastTextB)LSTMC)TF-IDFD)TextRNN答案:C解析:[單選題]43.在TF-IDF計(jì)算中和哪些因素相關(guān)A)不確定B)詞意C)詞序D)詞權(quán)重答案:D解析:[單選題]44.哪個(gè)不屬于數(shù)據(jù)的處理階段A)預(yù)處理B)特征提取C)分類算法D)文本表示答案:C解析:[單選題]45.以下哪個(gè)是產(chǎn)生式模型的算法?A)HMMB)SVMC)CRFD)MEMM答案:A解析:[單選題]46.關(guān)于CBOW與Skip-Gram算法,以下說(shuō)法不正確是?A)CBOW和Skip-Gram都是可以訓(xùn)練向量的方法,但是skip-Gram要比CBOW更快一些B)CBOW是根據(jù)某個(gè)詞前面的n個(gè)或者前后n個(gè)連續(xù)的詞,來(lái)計(jì)算某個(gè)詞出現(xiàn)概率C)無(wú)論是CBOW模型還是skip-gram模型,都是可以Huffman樹(shù)作為基礎(chǔ)的D)Skip-Gram就是根據(jù)某個(gè)詞然后分別計(jì)算它前后幾個(gè)詞的各個(gè)概率答案:A解析:[單選題]47.無(wú)指導(dǎo)學(xué)習(xí)是指()A)沒(méi)有語(yǔ)料庫(kù)直接學(xué)習(xí)B)使用未標(biāo)注的語(yǔ)料庫(kù)直接學(xué)習(xí)C)沒(méi)有專業(yè)技能專家指導(dǎo)直接學(xué)習(xí)D)沒(méi)有學(xué)習(xí)理論直接學(xué)習(xí)答案:B解析:[單選題]48.造成RNN梯度消失與下面哪個(gè)因素有關(guān)A)激活函數(shù)求導(dǎo)B)學(xué)習(xí)率C)批處理數(shù)D)網(wǎng)絡(luò)層數(shù)答案:A解析:[單選題]49.EM算法的得到廣泛的應(yīng)用,具體它是一個(gè)什么優(yōu)化算法A)梯度下降優(yōu)化算法B)非梯度優(yōu)化算法C)動(dòng)態(tài)優(yōu)化算法D)不確定答案:B解析:[單選題]50.在抽樣方法中,當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是:A)有放回的簡(jiǎn)單隨機(jī)抽樣B)無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C)分層抽樣D)漸進(jìn)抽樣答案:D解析:[單選題]51.經(jīng)典的回歸算法,線性回歸中,使用到的目標(biāo)函數(shù)是下列哪個(gè)?A)信息增益B)信息熵C)交叉熵D)均方誤差答案:D解析:[單選題]52.以下哪些算法是分類算法A)DBSCANB)C4.5C)K-MeanD)EM答案:B解析:[單選題]53.不是聊天機(jī)器人模型優(yōu)化方法的是()。A)損失函數(shù)B)優(yōu)化器C)自適應(yīng)梯度法D)神經(jīng)網(wǎng)絡(luò)答案:C解析:[單選題]54.哪個(gè)激活函數(shù)用于類似文本分類的二分類任務(wù)A)tanhB)reluC)softmaxD)sigmoid答案:D解析:[單選題]55.LDA中的一個(gè)函數(shù)指的是以下哪個(gè)?A)Gibbs采樣B)pLSAC)beta分布D)gamma函數(shù)答案:D解析:[單選題]56.在尋找最優(yōu)結(jié)構(gòu)樹(shù)的過(guò)程中,經(jīng)常會(huì)使用到以下哪個(gè)算法A)邏輯回歸B)線性回歸C)聚類D)貪心算法答案:D解析:[單選題]57.前項(xiàng)算法中,除了需要有聯(lián)合權(quán)重w,還需要有一個(gè)什么函數(shù),才能正常的進(jìn)行計(jì)算A)激活函數(shù)B)正弦函數(shù)C)余弦函數(shù)D)都可以答案:A解析:[單選題]58.下列不是機(jī)器學(xué)習(xí)中典型的分類是()A)貝葉斯分類器B)支持向量機(jī)C)最大熵模型D)分類機(jī)器答案:D解析:[單選題]59.已知一個(gè)單層神經(jīng)網(wǎng)絡(luò)的二進(jìn)制輸入x1,x2∈{0,1}和輸出hΘ(x),當(dāng)權(quán)重不同時(shí),可以表示不同的邏輯運(yùn)算,則以下表達(dá)式為邏輯與的是A)h(x)=g(-5+15x1+15x2)B)h(x)=g(-10+15x1+15x2)C)h(x)=g(-30+20x1)D)h(x)=g(-20+10x1+15x2)答案:D解析:[單選題]60.使用withtf.Session()assess創(chuàng)建的會(huì)話時(shí),在關(guān)閉的同時(shí)會(huì)()釋放資源A)自動(dòng)B)無(wú)法C)不能D)手動(dòng)答案:A解析:[單選題]61.要求關(guān)鍵詞提取算法應(yīng)具有的性質(zhì)不包括()A)可讀性B)高速性C)簡(jiǎn)潔性D)健壯性答案:C解析:[單選題]62.不屬于中文的實(shí)體邊界識(shí)別變得更加有挑戰(zhàn)性原因的是)。A)中文詞數(shù)量繁多B)中文詞靈活多變C)中文詞的嵌套情況復(fù)雜D)中文詞存在簡(jiǎn)化表達(dá)現(xiàn)象答案:A解析:[單選題]63.relu激活函數(shù)取負(fù)數(shù)時(shí),激活后的數(shù)值為:A)-1B)0C)1D)x答案:B解析:[單選題]64.()是不可缺少的,沒(méi)有(),就形成不了完整的句子A)來(lái)源格B)目標(biāo)格C)受事格D)結(jié)構(gòu)格答案:C解析:[單選題]65.以下四個(gè)選項(xiàng)當(dāng)中哪個(gè)方法被用于句子中詞意模糊A)對(duì)比模糊詞匯與近義詞在詞典上的定義B)同指(Co-reference)解決方案,使用先前句子中包含的正確詞意解決模糊單詞的含義。C)使用句子的依存解析理解含義D)不確定答案:A解析:[單選題]66.下列選項(xiàng)中,處理梯度消失問(wèn)題效果最好的函數(shù)是哪個(gè)?A)sigmoidB)tanhC)reluD)Leakyrelu答案:D解析:[單選題]67.如果一個(gè)[a,b]的區(qū)間,從中隨機(jī)出一個(gè)值x,那么下列說(shuō)法中不正確的是?A)取最小值的對(duì)數(shù)得到a的值B)取最小值的對(duì)數(shù)得到b的值C)取最大值的對(duì)數(shù)得到b的值D)取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B解析:[單選題]68.以下選項(xiàng)中關(guān)于擬合的問(wèn)題,說(shuō)法描述正確的是?A)過(guò)擬合的現(xiàn)象是訓(xùn)練集準(zhǔn)確率低,而測(cè)試集準(zhǔn)確率高B)欠擬合的現(xiàn)象是訓(xùn)練集和測(cè)試集準(zhǔn)確率相近C)盡量不要出現(xiàn)適度擬合,會(huì)造成新數(shù)據(jù)準(zhǔn)確率低D)欠擬合是指驗(yàn)證集和測(cè)試集的準(zhǔn)確率都無(wú)法保證正常業(yè)務(wù)使用答案:D解析:[單選題]69.什么樣的神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個(gè)圖形識(shí)別的問(wèn)題時(shí)D)以上都不正確答案:A解析:[單選題]70.以下的四個(gè)選項(xiàng)當(dāng)中,哪個(gè)選項(xiàng)的算法指的是有監(jiān)督的學(xué)習(xí)方式A)聚類B)降維C)回歸算法D)PCA答案:C解析:[單選題]71.下列不屬于神經(jīng)細(xì)胞結(jié)構(gòu)的是()A)樹(shù)突B)突觸C)細(xì)胞體D)大腦答案:D解析:[單選題]72.下列不屬于抽象模型的是()A)概率統(tǒng)計(jì)模型B)比例模型C)符號(hào)模型D)流程圖答案:B解析:[單選題]73.如果訓(xùn)練完成的模型存在過(guò)擬合現(xiàn)象會(huì)造成什么影響A)在訓(xùn)練集上的效果很好,但是在測(cè)試集上的效果很差B)在訓(xùn)練集上的效果差,在測(cè)試集上的效果也差C)在訓(xùn)練集上的效果很好,在測(cè)試集上的效果也很好D)在訓(xùn)練集上的效果很差,但是在測(cè)試集上的效果很好答案:A解析:[單選題]74.自動(dòng)駕駛是基于哪種技術(shù)提出的A)BP算法B)神經(jīng)網(wǎng)絡(luò)C)前向算法D)NFC答案:A解析:[單選題]75.樸素貝葉斯分類器的特征不包括()A)孤立的噪聲點(diǎn)對(duì)該分類器的影響不大B)數(shù)據(jù)的缺失值影響不大C)要求數(shù)據(jù)的屬性是相互獨(dú)立的D)條件獨(dú)立的假設(shè)可能不成立答案:C解析:[單選題]76.Transformer使用了__機(jī)制,使它的特征提取效果很好A)word2vecB)ELMOC)AttentionD)one-hot答案:C解析:[單選題]77.不屬于常用的正則表達(dá)式函數(shù)的是()。A)matchB)searchC)findallD)matplotlib函數(shù)答案:D解析:[單選題]78.關(guān)于貝葉斯判別規(guī)則,下列選項(xiàng)中描述正確的是?A)就是判斷自變量和因變量之間的關(guān)系B)把特征向量X落入某類集群wi的條件概率平P(wi/X)當(dāng)成分類判別函數(shù),把X落入某集群的條件概率最大的類為X的分類這種判別規(guī)則叫貝葉斯判別規(guī)則C)不確定D)就是通過(guò)選擇最優(yōu)的超平面去進(jìn)行最好的分類超平面答案:B解析:[單選題]79.tanh激活函數(shù)相比sigmoid是有優(yōu)勢(shì)的,體現(xiàn)在哪些方面A)解決了sigmoid輸出為非0中心的問(wèn)題B)tanh不易飽和C)tanh解決了sigmoid的指數(shù)運(yùn)算D)tanh不會(huì)造成梯度消失答案:A解析:[單選題]80.使用網(wǎng)格搜索尋找超參數(shù)的話,有什么缺點(diǎn)A)準(zhǔn)確率高B)查找的快C)計(jì)算資源少D)十分的耗時(shí)答案:D解析:[單選題]81.AUC值是什么?A)AUC值被定義為ROC曲線下的面積B)AUC值就是ROC曲線上方的面積C)AUC是一個(gè)隨機(jī)定義的值D)不確定答案:A解析:[單選題]82.以下哪個(gè)可以作為NNLM模型輸入層的輸入A)one-hot的表示B)中文漢字C)英文字母D)字符串答案:A解析:[單選題]83.馬爾可夫過(guò)程模型屬于A)假設(shè)一個(gè)事件的概率僅依賴于過(guò)去某一狀態(tài)B)假設(shè)一個(gè)事件的概率僅依賴于過(guò)去所有狀態(tài)C)假設(shè)一個(gè)事件的概率僅依賴于現(xiàn)有狀態(tài)D)其余選項(xiàng)皆錯(cuò)答案:C解析:[單選題]84.下列不屬于經(jīng)典語(yǔ)料庫(kù)的是A)BrownB)NoteBankC)FranmeNetD)PennTressBank答案:B解析:[單選題]85.問(wèn)答系統(tǒng)流程由問(wèn)題理解、(),答案生成3個(gè)部分組成。A)詞性標(biāo)注B)關(guān)鍵詞提取C)問(wèn)題分類D)知識(shí)檢索答案:D解析:[單選題]86.下列不是漢語(yǔ)自動(dòng)分詞的主要困難的是()A)分詞規(guī)范B)語(yǔ)句順序C)歧義切分D)未登錄詞的識(shí)別答案:B解析:[單選題]87.移進(jìn)-歸約算法中操作有()(1)移進(jìn)(2)歸約(3)接收(4)拒絕A)(1)(2)B)(1)(2)(3)C)(3)(4)D)(1)(2)(3)(4)答案:D解析:[單選題]88.使用隨機(jī)森林做分類,會(huì)影響分類效果的因素有哪些?A)森林中任意兩棵樹(shù)的相關(guān)性:相關(guān)性越大,錯(cuò)誤率越大;B)森林中任意兩棵樹(shù)的相關(guān)性:相關(guān)性越小,錯(cuò)誤率越大;C)森林中任意兩棵樹(shù)的相關(guān)性:相關(guān)性越大,錯(cuò)誤率越??;D)不確定答案:A解析:[單選題]89.命題是指具有()的陳述句A)真假B)真假意義C)對(duì)錯(cuò)意義D)對(duì)錯(cuò)答案:B解析:[單選題]90.下列不是語(yǔ)料庫(kù)的類型的是A)通用語(yǔ)料庫(kù)B)生詞語(yǔ)料庫(kù)C)歷史語(yǔ)料庫(kù)D)單詞語(yǔ)料庫(kù)答案:C解析:[單選題]91.以下哪個(gè)函數(shù)常用于解決二分類問(wèn)題A)tanhB)sigmoidC)softmaxD)relu答案:B解析:[單選題]92.什么是決策樹(shù),如何去理解決策樹(shù)?A)一種樹(shù)形結(jié)構(gòu),其中每個(gè)內(nèi)部節(jié)點(diǎn)表示一個(gè)屬性上的測(cè)試,每個(gè)分支代表一個(gè)測(cè)試輸出,每個(gè)葉節(jié)點(diǎn)代表一種類別B)兩個(gè)變量之間的關(guān)系是二次函數(shù)的關(guān)系,圖像是條拋物線C)兩個(gè)變量之間的關(guān)系是一次函數(shù)關(guān)系的關(guān)系D)兩個(gè)變量之間的關(guān)系是指數(shù)函數(shù)的關(guān)系答案:A解析:[單選題]93.關(guān)于數(shù)據(jù)信息的處理方式,以下描述錯(cuò)誤的是:A)粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;B)數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;C)數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;D)粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢質(zhì)量.答案:C解析:[單選題]94.使用馬爾科夫鏈的算法有:A)HMMB)SVMC)CRFD)MEMM答案:A解析:[單選題]95.以下哪個(gè)不屬于長(zhǎng)短期記憶網(wǎng)絡(luò)A)輸入門B)輸出門C)更新門D)遺忘門答案:C解析:[單選題]96.GPT和ELMO相比之下他都有哪些優(yōu)點(diǎn)A)使用了LSTMB)使用了TransformerC)處理長(zhǎng)序列的時(shí)候會(huì)丟失一些信息D)準(zhǔn)確率不如ELMO答案:B解析:[單選題]97.下列算法中,訓(xùn)練數(shù)據(jù)集是無(wú)label的數(shù)據(jù),是雜亂無(wú)章的,經(jīng)過(guò)變換后變得有序,先無(wú)序,后有序是哪個(gè)算算法A)SVMB)邏輯回歸C)線性回歸D)聚類答案:D解析:[單選題]98.哪些是產(chǎn)生式模型A)HMMB)SVMC)CRFD)MEMM答案:A解析:[單選題]99.以下哪項(xiàng)是主要用于自然語(yǔ)言處理的網(wǎng)絡(luò)結(jié)構(gòu)A)AlexNetB)ResNetC)BertD)LeNet答案:C解析:[單選題]100.RF(隨機(jī)森林)與GBDT之間的區(qū)別A)都是由多棵樹(shù)組成,最終的結(jié)果都是由多棵樹(shù)一起決定。B)組成隨機(jī)森林的樹(shù)可以串行生成,而GBDT是并行生成C)隨機(jī)森林的結(jié)果是多數(shù)表決表決的,而GBDT則是多棵樹(shù)累加之和D)隨機(jī)森林對(duì)異常值敏感,而GBDT對(duì)異常值不敏感答案:C解析:[單選題]101.下列選項(xiàng)中哪個(gè)可以很好的解決梯度爆炸的問(wèn)題?A)梯度剪切,正則B)增加擬合數(shù)據(jù)C)增加訓(xùn)練數(shù)據(jù)維度D)增加隱藏層答案:A解析:[單選題]102.下列關(guān)于LSTM說(shuō)法不正確的是()。A)通過(guò)改進(jìn)使RNN具備避免梯度消失的特性B)LSTM只能夠刻畫出輸入數(shù)據(jù)中的短距離的相關(guān)信息,不能夠捕捉到具有較長(zhǎng)時(shí)間間隔的依賴關(guān)系C)LSTM神經(jīng)網(wǎng)絡(luò)模型使用門結(jié)構(gòu)實(shí)現(xiàn)了對(duì)序列數(shù)據(jù)中的遺忘與記憶D)使用大量的文本序列數(shù)據(jù)對(duì)LSTM模型訓(xùn)練后,可以捕捉到文本間的依賴關(guān)系,訓(xùn)練好的模型就可以根據(jù)指定的文本生成后序的內(nèi)容答案:B解析:[單選題]103.TF-IDF的計(jì)算方式是什么A)先計(jì)算詞頻TF,再計(jì)算逆文檔頻率IDFB)先計(jì)算詞頻IDF,再計(jì)算逆文檔頻率TFC)先計(jì)算逆文檔頻率TF,再計(jì)算詞頻IDFD)不確定答案:A解析:[單選題]104.谷歌開(kāi)源出來(lái)的bert預(yù)訓(xùn)練模型中可以接受的最大句子長(zhǎng)度是__?A)128B)512C)768D)64答案:A解析:[單選題]105.計(jì)算TensorFlow以硬件平臺(tái)通常分為哪些版本A)CPU,GPU,TPUB)CPU,GPUC)CPUD)TPU答案:A解析:[單選題]106.不是邏輯回歸與樸素貝葉斯的區(qū)別是A)邏輯回歸是生成模型B)樸素貝葉斯是判別模型C)樸素貝葉斯需要獨(dú)立假設(shè)D)邏輯回歸不需要特征之間的線性答案:D解析:[單選題]107.以下選項(xiàng)中關(guān)于擬牛頓法,描述正確的是?A)實(shí)現(xiàn)簡(jiǎn)單,當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局解。一般情況下,其解不保證是全局最優(yōu)解,梯度下降法的速度也未必是最快的B)是一種在實(shí)數(shù)域和復(fù)數(shù)域上近似求解方程的方法C)改善每次需要求解復(fù)雜的Hessian矩陣的逆矩陣的缺陷,它使用正定矩陣來(lái)近似Hessian矩陣的逆,從而簡(jiǎn)化了運(yùn)算的復(fù)雜度D)不確定答案:C解析:[單選題]108.深度學(xué)習(xí)中最常使用的框架就是TensorFlow,該框架中的matmul方法的作用是什么A)相與B)乘積C)相除D)相加答案:B解析:[單選題]109.以下說(shuō)法當(dāng)中,LDA是可以做什么的A)對(duì)圖像進(jìn)行文本B)對(duì)圖像進(jìn)行特征提取C)對(duì)文檔的主題進(jìn)行分類或聚類D)以上都正確答案:C解析:[單選題]110.樸素貝葉斯作為常用的方法,它是以()為基礎(chǔ)的分類方法。A)概率論B)線性代數(shù)C)微積分D)都不是答案:A解析:[單選題]111.下列關(guān)于不確定性知識(shí)描述錯(cuò)誤的是()A)不確定性知識(shí)是不可以精確表示的B)專家知識(shí)通常屬于不確定性知識(shí)C)不確定性知識(shí)是經(jīng)過(guò)處理過(guò)的知識(shí)D)不確定性知識(shí)的事實(shí)與結(jié)論的關(guān)系不是簡(jiǎn)單的?是?或?不是?答案:C解析:[單選題]112.以下關(guān)于LightGBM框架的優(yōu)點(diǎn)說(shuō)法正確的是?A)更慢的訓(xùn)練速度B)更低的內(nèi)存消耗C)更差的準(zhǔn)確率D)不支持分布式答案:B解析:[單選題]113.MSE(MeanSquareError)均方誤差可以用到以下哪個(gè)算法當(dāng)中A)邏輯回歸B)GBDTC)聚類D)KNN答案:B解析:[單選題]114.tf.mul()函數(shù)對(duì)Tensor的作用是什么A)相減B)相除C)相乘D)相加答案:C解析:[單選題]115.下面哪個(gè)對(duì)batch歸一化的解釋不正確?A)使參數(shù)搜索問(wèn)題變得容易B)使神經(jīng)網(wǎng)絡(luò)對(duì)超參數(shù)的選擇更加穩(wěn)定C)超參數(shù)的范圍更加龐大D)僅作用于輸入層答案:D解析:[單選題]116.以下哪個(gè)可以將文本轉(zhuǎn)化成TokensA)CountVectorizerB)TF-IDFC)詞袋模型(BagofWords)D)NERs答案:A解析:CountVectorizer可幫助完成上述操作,而其他方法則不適用。第2部分:多項(xiàng)選擇題,共57題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]117.以下關(guān)于KNN的四個(gè)選項(xiàng)中,說(shuō)法正確的是()。A)無(wú)需參數(shù)估計(jì),無(wú)需訓(xùn)練B)適合用于稀有事件的分類問(wèn)題C)對(duì)變量之間的共線性比較敏感D)可解釋性差答案:ABD解析:[多選題]118.深度學(xué)習(xí)在自然語(yǔ)言中的應(yīng)用有哪些A)機(jī)器創(chuàng)作B)個(gè)性化推薦C)文本分類D)情感分析答案:ABCD解析:[多選題]119.經(jīng)典的概率模型有()。A)不確定B)古典概型C)幾何概型D)以上都正確答案:BC解析:[多選題]120.以下哪些是卷積神經(jīng)網(wǎng)絡(luò)的內(nèi)容A)卷積B)池化C)循環(huán)神經(jīng)結(jié)構(gòu)D)以上都不對(duì)答案:AB解析:[多選題]121.傳統(tǒng)分類方法有哪些A)FastTextB)特征工程C)分類器D)TextRNN答案:BC解析:[多選題]122.GBDT中如果按照高維的ID特征做分裂時(shí)都有什么缺點(diǎn)A)計(jì)算量大B)子樹(shù)的泛化能力弱C)容易過(guò)擬合D)以上都正確答案:ABCD解析:[多選題]123.以下關(guān)于LightGBM對(duì)XGBoost的優(yōu)化說(shuō)法正確的是A)基于Histogram的決策樹(shù)算法B)帶深度限制的Leaf-wise的葉子生長(zhǎng)策略C)直方圖做差加速直接D)支持類別特征(CategoricalFeature)答案:ABCD解析:[多選題]124.人工智能最終是想要機(jī)器具有什么樣的效果A)感知B)理解C)決策D)證明答案:ABC解析:[多選題]125.過(guò)擬合的形成原因可能是什么A)數(shù)據(jù)量少B)數(shù)據(jù)樣本中的噪聲太大C)迭代次數(shù)過(guò)多,擬合了噪聲D)參數(shù)太多答案:ABCD解析:[多選題]126.采用EM算法求解的模型有哪些A)混合高斯B)協(xié)同過(guò)濾C)k-meansD)以上都正確答案:ABCD解析:[多選題]127.Adaboost的權(quán)重有:A)A:樣本權(quán)重B)B:代價(jià)函數(shù)C)C:梯度下降D)D:弱分類器權(quán)重答案:AD解析:[多選題]128.哪些屬于Sequence數(shù)據(jù)A)語(yǔ)音識(shí)別B)情感分類C)機(jī)器翻譯D)DNA序列分析答案:ABCD解析:[多選題]129.關(guān)于TensorFlow中的語(yǔ)句,tf.variables_initializer以下描述正確的是A)初始化一個(gè)變量B)初始化多個(gè)變量C)初始化全部變量D)初始化常量答案:ABC解析:[多選題]130.情感分析常用方法有()A)基于情感詞典的方法B)基于文本分類的方法C)基于LDA模型的方法D)基于語(yǔ)料庫(kù)的方法答案:ABC解析:[多選題]131.下列常用的激活函數(shù),sigmoid,relu,tanh三個(gè)激活函數(shù)對(duì)比,下列說(shuō)法正確的是A)都可以做非線性的變換B)都可以做線性的變換C)變換后Y的取值范圍不相同D)變換后Y的取值范圍相同答案:AC解析:[多選題]132.LDA當(dāng)中的Topic個(gè)數(shù)怎么確定A)基于經(jīng)驗(yàn)主觀判斷、不斷調(diào)試、操作性強(qiáng)、最為常用。B)基于困惑度C)使用Log-邊際似然函數(shù)的方法,這種方法也挺常用的。D)基于主題之間的相似度:計(jì)算主題向量之間的余弦距離,KL距離等。答案:ABCD解析:[多選題]133.自然語(yǔ)言處理的應(yīng)用領(lǐng)域包括()A)信息檢索B)信息提取C)問(wèn)答系統(tǒng)D)自動(dòng)文摘答案:ABCD解析:[多選題]134.在k-NN中,由于維數(shù)的存在,很可能過(guò)度擬合。你將考慮使用以下哪個(gè)選項(xiàng)來(lái)解決此問(wèn)題?A)降維B)特征選擇C)不確定D)以上都正確答案:AB解析:[多選題]135.下面四個(gè)算法中,其中有哪些算法可以處理MNIST數(shù)據(jù)中的分類?A)KNNB)邏輯回歸C)k-meanD)PCA答案:AB解析:[多選題]136.文本分類的步驟包括()。A)數(shù)據(jù)集準(zhǔn)備B)特征抽取C)模型訓(xùn)練D)分類結(jié)果評(píng)價(jià)答案:ABCD解析:[多選題]137.決策樹(shù)有什么特點(diǎn),以及優(yōu)點(diǎn)A)計(jì)算復(fù)雜度低B)輸出結(jié)果易于理解C)對(duì)中間缺失值不過(guò)敏D)可以處理不相關(guān)的特征答案:ABCD解析:[多選題]138.GPT與ELMO的區(qū)別是什么A)特征提取不是用的RNN,而是TransformerB)GPT適用的LSTMC)采用的是單向的語(yǔ)言模型D)ELMO使用了Transformer答案:AC解析:[多選題]139.在聚類算法中,當(dāng)數(shù)據(jù)缺失時(shí)怎么處理A)把缺失值用一個(gè)數(shù)值,例如0表示B)均值,中值,分位數(shù)、眾數(shù),隨機(jī)數(shù),上下數(shù)據(jù)填充,插值法;C)用算法擬合進(jìn)行填充;D)以上都正確答案:ABCD解析:[多選題]140.誤差反向傳播算法中的兩個(gè)步驟指什么?A)信息傳播B)激活函數(shù)C)激勵(lì)傳播D)權(quán)重更新答案:CD解析:[多選題]141.LightGBM在Leaf-wise之上增加了一個(gè)最大深度的限制,是為了什么A)高效率B)低效率C)防止過(guò)擬合D)防止欠擬合答案:AC解析:[多選題]142.基于規(guī)則的分詞方法,通常會(huì)遇到未登錄詞問(wèn)題,未登錄詞也稱為生詞,未登錄詞可以分為以下()A)日常生活出現(xiàn)的普通新詞匯B)專有名詞C)研究領(lǐng)域的專業(yè)名詞D)其他專用名詞答案:ABCD解析:[多選題]143.LightGBM的優(yōu)化方向有哪些A)帶深度限制的Leaf-wise的葉子生長(zhǎng)策略B)直方圖做差加速直接C)支持類別特征(CategoricalFeature)D)以上不都是答案:ABC解析:[多選題]144.深度學(xué)習(xí)應(yīng)用面非常的廣泛,在自然語(yǔ)言中它有哪些應(yīng)用A)推薦系統(tǒng)B)文本分類C)機(jī)器創(chuàng)作D)機(jī)器翻譯答案:ABCD解析:[多選題]145.語(yǔ)料庫(kù)的用途有()A)用于語(yǔ)言研究B)用于編纂工具參考書籍C)用于語(yǔ)言教學(xué)D)用于NLP答案:ABCD解析:[多選題]146.中文實(shí)體識(shí)別的挑戰(zhàn)性主要表現(xiàn)在以下()A)中文詞靈活多變B)中文詞的嵌套情況復(fù)雜C)中文詞存在簡(jiǎn)化表達(dá)現(xiàn)象D)以上都不對(duì)答案:ABC解析:四、填空題(5題)[多選題]147.GBDT的原理,下面描述正確的是?A)根據(jù)訓(xùn)練集訓(xùn)練一顆初始決策樹(shù);B)計(jì)算之前所有樹(shù)在此數(shù)據(jù)集上預(yù)測(cè)結(jié)果之和與真實(shí)結(jié)果的差值,又叫殘差;C)把殘差作為當(dāng)前樹(shù)作為擬合的目標(biāo)在訓(xùn)練集上訓(xùn)練;D)直到達(dá)到設(shè)置的閾值--如樹(shù)的個(gè)數(shù),早期停止策略答案:ABCD解析:[多選題]148.BOW模型有什么特點(diǎn)A)高緯度B)低緯度C)高稀疏性D)低稀疏性答案:AC解析:[多選題]149.集成學(xué)習(xí)中boosting算法有:A)A:RandomForestClassifierB)B:AdaboostC)C:XgboostD)D:RandomForestRegressor答案:BC解析:[多選題]150.樸素貝葉斯不是以()為基礎(chǔ)的分類方法。A)概率論B)天文學(xué)C)地理學(xué)D)物理學(xué)答案:BCD解析:[多選題]151.機(jī)器學(xué)習(xí)的方法有哪些?A)邏輯回歸B)遞歸神經(jīng)網(wǎng)絡(luò)C)樸素貝葉斯D)K-Means答案:ACD解析:[多選題]152.kmeans中的距離是怎么定義的,kmeans計(jì)算距離的權(quán)重怎么分配A)距離定義為∣∣xi?μj∣∣2||x_i-\mu_j||^2∣∣xi?μj∣∣2其中,xix_ixi是樣本點(diǎn),μj\mu_jμj是中心點(diǎn)。B)權(quán)重均勻,或者基于距離的C)不確定D)以上都正確答案:AB解析:[多選題]153.RNN常見(jiàn)的應(yīng)用領(lǐng)域有()A)文本生成B)語(yǔ)言模型C)機(jī)器翻譯D)語(yǔ)音識(shí)別答案:ABCD解析:[多選題]154.以下多個(gè)選項(xiàng)其中屬于AI描述其主要的三大主義或?qū)W派的是?A)機(jī)器學(xué)習(xí)B)連接主義C)行為主義D)符號(hào)主義答案:BCD解析:[多選題]155.在神經(jīng)網(wǎng)絡(luò)中,單個(gè)神經(jīng)元能解決什么問(wèn)題A)與B)或C)非D)異或答案:ABC解析:[多選題]156.激活函數(shù)是常用于做非線性的變換,常用的激活函數(shù)有哪些A)reluB)tanhC)Leaky-ReluD)softplus答案:ABCD解析:[多選題]157.CNN的池化層包括哪幾種A)卷積B)最大池化C)最小池化D)平均池化答案:BD解析:[多選題]158.專家系統(tǒng)知識(shí)表示的方法主要有哪些?A)邏輯表示法(謂詞表示法)B)框架C)產(chǎn)生式D)語(yǔ)義網(wǎng)絡(luò)答案:ABCD解析:[多選題]159.XGBoost和GBDT有很多異同點(diǎn),針對(duì)于他們的不同點(diǎn),下列說(shuō)法正確的是A)GBDT是機(jī)器學(xué)習(xí)算法,XGBoost是該算法的工程實(shí)現(xiàn)。B)在使用CART作為基分類器時(shí),XGBoost顯式地加入了正則項(xiàng)來(lái)控制模型的復(fù)雜度,有利于防止過(guò)擬合,從而提高模型的泛化能力。C)GBDT在模型訓(xùn)練時(shí)只使用了代價(jià)函數(shù)的一階導(dǎo)數(shù)信息,XGBoost對(duì)代價(jià)函數(shù)進(jìn)行二階泰勒展開(kāi),可以同時(shí)使用一階和二階導(dǎo)數(shù)。D)傳統(tǒng)的GBDT采用CART作為基分類器,XGBoost支持多種類型的基分類器,比如線性分類器。答案:ABCD解析:[多選題]160.常用的優(yōu)化器包括哪些A)AdamB)SGDC)momentumD)Ridge答案:ABC解析:[多選題]161.在訓(xùn)練模型的階段,如果說(shuō)發(fā)生了過(guò)擬合現(xiàn)象,以下四個(gè)選項(xiàng)中,可以通過(guò)哪些方式解決A)增加數(shù)據(jù)量B)減少數(shù)據(jù)量C)增加迭代次數(shù)D)減少迭代次數(shù)答案:AD解析:[多選題]162.生成式模型在統(tǒng)計(jì)學(xué)角度與判別式模型相比有什么優(yōu)點(diǎn)A)適用較多類別的識(shí)別B)能更充分利用先驗(yàn)知識(shí)C)分類邊界更靈活D)研究單類問(wèn)題靈活性強(qiáng)答案:BD解析:[多選題]163.可用于文本分類的機(jī)器學(xué)習(xí)方法有()A)支持向量機(jī)B)K最近鄰C)神經(jīng)網(wǎng)絡(luò)D)決策樹(shù)答案:ABCD解析:[多選題]164.NLP所涉及的領(lǐng)域A)信息抽取B)問(wèn)答系統(tǒng)C)數(shù)據(jù)預(yù)處理D)模型構(gòu)建答案:AB解析:[多選題]165.語(yǔ)料庫(kù)管理程序的基本要求包括()A)用戶界面友好B)程序完備性好C)數(shù)據(jù)安全D)可以檢索答案:ABCD解析:[多選題]166.選出邏輯回歸的優(yōu)點(diǎn)()A)實(shí)現(xiàn)簡(jiǎn)單B)準(zhǔn)確度很高C)分類時(shí)計(jì)算量小D)容易過(guò)擬合答案:AC解析:[多選題]167.使用了Transformer做特征提取的預(yù)訓(xùn)練模型有哪些A)BERTB)ALBERTC)GPTD)ELMO答案:ABC解析:[多選題]168.LSTM中有三個(gè)門去控制C,是哪三個(gè)門A)遺忘門B)輸入門C)輸出門D)以上都正確答案:ABCD解析:[多選題]169.自然語(yǔ)言的應(yīng)用場(chǎng)景有:A)語(yǔ)音識(shí)別B)自動(dòng)翻譯C)控制裝置D)人臉識(shí)別答案:ABC解析:[多選題]170.正常情況下,集成學(xué)習(xí)一般有哪些步驟A)不確定B)生產(chǎn)一組?個(gè)體學(xué)習(xí)器C)以上都正確D)用某種策略將他們結(jié)合起來(lái)答案:BD解析:[多選題]171.以下四個(gè)選項(xiàng)中,關(guān)于viterbi算法說(shuō)法正確的是A)挑選出最優(yōu)的路徑B)是前向算法變體C)時(shí)間復(fù)雜度比現(xiàn)象算法低很多D)找到最優(yōu)解答案:ABCD解析:[多選題]172.激活函數(shù)可以做非線性的變換,以下常用的激活函數(shù)是__?A)SigmoidB)ReluC)TanhD)LeakyRelu答案:ABCD解析:[多選題]173.以下選項(xiàng)當(dāng)中,哪些項(xiàng)構(gòu)成了XGBoost的目標(biāo)函數(shù)?A)損失函數(shù)B)正則項(xiàng)C)梯度下降D)以上都正確答案:AB解析:第3部分:判斷題,共66題,請(qǐng)判斷題目是否正確。[判斷題]174.BERT和ELMO使用的都是是單向的TransformerA)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]175.基于規(guī)則的分詞能夠較好地處理未登錄詞和歧義詞,不需要人為的搭建和維護(hù)詞典。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]176.Jieba框架是一個(gè)用于英文字符處理的工具包A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]177.各種不同的編碼標(biāo)準(zhǔn)互不兼容,一個(gè)編碼在不同的編碼標(biāo)準(zhǔn)內(nèi)可能代表不同的字符A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.HAL是一個(gè)具有高級(jí)語(yǔ)言處理能力,并且能夠理解漢語(yǔ)和說(shuō)漢語(yǔ)的智能計(jì)算機(jī)。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]179.精準(zhǔn)率就是真正正確的占所有預(yù)測(cè)為正的比例。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]180.PCA中文名稱主成分分析A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]181.決策樹(shù)學(xué)習(xí)的本質(zhì)是:從訓(xùn)練集中歸納出來(lái)一組分類規(guī)則A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.概率圖模型是用圖來(lái)表示變量概率依賴關(guān)系的理論,結(jié)合概率論與圖論的知識(shí),利用圖來(lái)表示與模型有關(guān)的變量的聯(lián)合概率分布A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]183.在LSTM中sigmoid的激活函數(shù)的作用是作為一個(gè)門A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.按照向量表征的最小單元,可將向量分為字符向量、詞向量和句子向量。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.BagofWord和One-Hot以及N-gram都會(huì)造成詞表的膨脹A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.基于詞自動(dòng)聚類的n-gram模型的參數(shù)空間最小。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]187.最大匹配法的優(yōu)點(diǎn)是程序簡(jiǎn)單易行,開(kāi)發(fā)周期短A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.BERT將編碼的向量式512維A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]189.Boosting,迭代,即通過(guò)迭代多棵樹(shù)來(lái)共同決策。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]190.bert是很好的語(yǔ)言模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.句法分析是自然語(yǔ)言理解的關(guān)鍵步驟A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.正則表達(dá)式本質(zhì)是一系列由特殊符號(hào)組成的字串,這個(gè)字串即正則表達(dá)式。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.通過(guò)Attention可以給賦予一個(gè)不同大小的權(quán)重值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.BP算法指的是計(jì)算神經(jīng)網(wǎng)絡(luò)參數(shù)通過(guò)梯度求導(dǎo)進(jìn)行更新的方法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.如果特征確實(shí)比較多,缺失比較多的話可以考慮刪除該特征。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.準(zhǔn)確率,召回率,精確率的計(jì)算相同A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]197.機(jī)器學(xué)習(xí)的K-Means算法可用于文本分類。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]198.語(yǔ)法層次的歧義主要表現(xiàn)在詞類歧義。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]199.在中文中,一個(gè)詞的詞性很多時(shí)候都不是固定的,一般表現(xiàn)為同音同形的詞在不同場(chǎng)景下,其表示的語(yǔ)法截然不同,這就為詞性標(biāo)注帶來(lái)了很大的困難。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.LightGBM雖然在很多方面上做了優(yōu)化,但是占用的內(nèi)存會(huì)比較大A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]201.XGBoost為了減少樹(shù)的復(fù)雜度,可以加入正則項(xiàng)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.NLTK的sorted函數(shù)不能對(duì)詞匯表中的詞按照英文字母進(jìn)行排序。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]203.最大匹配法是最簡(jiǎn)單的分詞方法,他部分使用詞典進(jìn)行分詞,如果詞典好,則分詞的效果好A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]204.文本離散表示會(huì)導(dǎo)致無(wú)法理解諸如?我為你鼓掌?和?你為我鼓掌?兩個(gè)語(yǔ)句之間的區(qū)別。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]205.采用sigmoid等函數(shù),算激活函數(shù)時(shí)(指數(shù)運(yùn)算),計(jì)算量大A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.TextRank算法的基本思想來(lái)自Google的PageRank算法。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.停用詞是指虛詞、代詞或者沒(méi)有特定含義的動(dòng)詞、名詞等,在做文本預(yù)處理的時(shí)候需要去停用詞。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.現(xiàn)在漢字輸入系統(tǒng)主流是采用以詞為單位的輸入方式,有的甚至是以句子為單位進(jìn)行輸入A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.Word2vec最常解決的問(wèn)題就是一詞多意問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]210.L2其實(shí)就是在目標(biāo)函數(shù)上加入了L2范數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.EM中的E步,利用當(dāng)前估計(jì)的參數(shù)值,求出在該參數(shù)下隱含變量的條件概率值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.tanh函數(shù)與sigmoid函數(shù)向下平移和伸縮一致A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.文本分詞的目的在于使用單詞來(lái)表示文本特征。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.損失函數(shù)(lossfunction)是用來(lái)估量你模型的預(yù)測(cè)值f(x)與真實(shí)值Y的不一致程度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]215.mini-batch:實(shí)踐中最好選擇不大不小的mini-batch,得到了大量向量化,效率高,收斂快。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.NLP是計(jì)算機(jī)科學(xué)領(lǐng)域以及人工智能領(lǐng)域的一個(gè)重要的研究方向,是一門融語(yǔ)言學(xué)、計(jì)算機(jī)科學(xué)、數(shù)學(xué)、統(tǒng)計(jì)學(xué)于一體的科學(xué)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.語(yǔ)料庫(kù)構(gòu)建原則包括代表性、結(jié)構(gòu)性、平衡性、規(guī)模性等A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]218.bert這個(gè)需要模型相比較GPT也沒(méi)有任何提升A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]219.LDA算法假設(shè)文檔中主題的先驗(yàn)分布和主題中詞的先驗(yàn)分布都服從狄利克雷分布.A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.Word2vec中使用了深度網(wǎng)絡(luò)進(jìn)行訓(xùn)練A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]221.未登錄詞問(wèn)題是分詞錯(cuò)誤的主要來(lái)源A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.正則表達(dá)式的?\d?用于匹配一個(gè)字母或者數(shù)字A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]223.拉索回歸和嶺回歸都屬于是線性回歸A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.扣留估計(jì)算法的思想是:把訓(xùn)練數(shù)據(jù)分成兩部分,一部分建立最初的模型,然后另一部分來(lái)精煉這個(gè)模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]225.隱馬爾科夫模型的優(yōu)點(diǎn)是該方法對(duì)過(guò)程的狀態(tài)預(yù)測(cè)效果良好,可考慮用于生產(chǎn)現(xiàn)場(chǎng)危險(xiǎn)狀態(tài)的預(yù)測(cè)。缺點(diǎn)是不適宜用于系統(tǒng)中長(zhǎng)期預(yù)測(cè)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.seq2seq是一種經(jīng)典的端到端的編解碼模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.增大正則化并不能防止過(guò)擬合的發(fā)生A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]228.決策樹(shù)通常有三個(gè)步驟:特征選擇,決策樹(shù)的生成,決策樹(shù)的修剪A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]229.NLTK提供了超過(guò)50多個(gè)素材庫(kù)和詞庫(kù)資源的易用接口,涵蓋了分詞、詞性標(biāo)注、命名實(shí)體識(shí)別、句法分析等各項(xiàng)NLP領(lǐng)域的功能。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]230.語(yǔ)句fromnltkimportword_tokenize是用于導(dǎo)入nltk中的英文詞性標(biāo)注模塊。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]231.多隱藏層的神經(jīng)網(wǎng)絡(luò)比單隱藏層的神經(jīng)網(wǎng)絡(luò)工程效果更差A(yù))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]232.反向傳播依據(jù)微積分中的鏈?zhǔn)椒▌t,沿著從輸出層到輸入層的順序,依次計(jì)算并存儲(chǔ)目標(biāo)函數(shù)有關(guān)神經(jīng)網(wǎng)絡(luò)各層的中間變量以及參數(shù)的梯度A)正確B)錯(cuò)誤答案:對(duì)解析:

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論