版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能核心算法模擬練習(xí)題含參考答案一、單選題(共44題,每題1分,共44分)1.使用交叉驗證最簡單的方法是在估計器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val%B、cross_val_scoreC、val_scoreD、cross_score正確答案:B2.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype=64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入numpy庫)importnumpyasnpA、8B、12C、10D、6正確答案:B3.半監(jiān)督支持向量機簡稱?A、SVMPB、S2VMC、S3VMD、SSVM正確答案:C4.最小二乘法就是試圖找到一條直線,使所有樣本到直線上的()之和最小。A、馬氏距離B、曼哈頓距離C、切比雪夫距離D、歐氏距離正確答案:D5.關(guān)于bagging下列說法錯誤的是:()A、各基分類器之間有較強依賴,不可以進行并行訓(xùn)練。B、為了讓基分類器之間互相獨立,需要將訓(xùn)練集分為若干子集。C、最著名的算法之一是基于決策樹基分類器的隨機森林。D、當(dāng)訓(xùn)練樣本數(shù)量較少時,子集之間可能有重疊。正確答案:A6.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?A、SigmoidB、ReLuC、SoftmaxD、Tanh正確答案:C7.下列哪個包不是用于處理圖像的?()A、gensimB、opencvC、skimageD、Scipy正確答案:A8.協(xié)同訓(xùn)練(co-training)是針對(___)數(shù)據(jù)設(shè)計?A、多版本B、多角度C、多視圖D、多環(huán)境正確答案:C9.強化學(xué)習(xí)在每個時刻環(huán)境和個體都會產(chǎn)生相應(yīng)的交互。個體可以采取一定的(),這樣的行動是施加在環(huán)境中的。A、actionB、stateC、rewardD、agent正確答案:A10.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測算法包括Logistic回歸模型、()、決策樹、神經(jīng)網(wǎng)絡(luò)等A、時間序列B、線性回歸C、灰色模型D、貝葉斯網(wǎng)絡(luò)正確答案:D11.數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進行預(yù)測,并將多個機器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則下列說法正確的是?()A、基本模型之間相關(guān)性高。B、基本模型之間相關(guān)性低。C、集成方法均使用加權(quán)平均代替投票方法。D、基本模型都來自于同一算法。正確答案:B12.每一棵決策樹擬合的是之前迭代得到的模型的()A、標(biāo)準(zhǔn)差B、均方差C、殘差D、方差正確答案:C13.下列哪些項目是在圖像識別任務(wù)中使用的數(shù)據(jù)擴增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機裁剪(Randomcropping)3隨機放縮(Randomscaling)4顏色抖動(Colorjittering)5隨機平移(Randomtranslation)6隨機剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項目正確答案:D14.對于給定的關(guān)于天氣信息的數(shù)據(jù)集,已知空氣的溫度、濕度、氣壓、是否降雨以及pm2.5指數(shù),需要建立一個回歸模型預(yù)測pm2.5指數(shù),這是一個()。A、半監(jiān)督學(xué)習(xí)B、強化學(xué)習(xí)C、有監(jiān)督的學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)正確答案:C15.關(guān)于SVM,以下描述錯誤的是()A、某個核函數(shù)使訓(xùn)練集在特征空間中線性可分,可能原因是欠擬合B、正則化可理解為一種“罰函數(shù)法C、“軟間隔”允許某些樣本不滿足約束D、如果原始空間是有限維,即屬性數(shù)有限,那么一定存在一個高維特征空間使樣本可分正確答案:A16.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①②③B、①②C、①③D、②③正確答案:A17.前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點具備計算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個方向傳遞正確答案:D18.下列哪一項不是常見的機器學(xué)習(xí)模型正則化方法。A、數(shù)據(jù)增強B、模型集成C、引入?yún)?shù)范數(shù)懲罰項D、數(shù)據(jù)優(yōu)化正確答案:D19.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)正確答案:A20.測試集應(yīng)盡可能與訓(xùn)練集(___)。A、包含B、互斥C、相容D、相等正確答案:B21.將訓(xùn)練集隨機等分為k份,選擇其中的1份為測試集,另外k-1份作為訓(xùn)練集進行訓(xùn)練,進而可以進行k次訓(xùn)練和測試,最后返回這k個測試結(jié)果的均值,這種評估模型的方法叫做(____)。A、k折交叉驗證B、留一交叉驗證C、自助法D、留出法正確答案:A22.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進行參數(shù)學(xué)習(xí),這是一種()機器學(xué)習(xí)手段A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合正確答案:A23.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)()A、LeNetB、GoogleNetC、Bi-LSTMD、BERT正確答案:C24.關(guān)于wordembedding下列敘述正確的是①.向量維數(shù)較低②.向量之間有更強的相關(guān)關(guān)系③.向量不再是稀疏的④.向量中的值更容易計算A、①③④B、①③④C、①②④D、①②③正確答案:D25.以下哪些算法是分類算法()A、DBSCANB、C4.5C、K-MeanD、EM正確答案:B26.()是用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值和真實值之間的誤差大小。A、優(yōu)化函數(shù)B、梯度下降C、損失函數(shù)D、反向傳播正確答案:C27.在pytorch中,設(shè)模型變量名為model,則對model.eval()的描述正確的是A、model.eval()可以在模型訓(xùn)練階段使用B、model.eval()在模型訓(xùn)練、模型驗證、模型測試階段都可以使用C、model.eval()只能在模型測試階段使用D、model.eval()在模型驗證、模型測試階段都可以使用正確答案:D28.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過(___)來利用監(jiān)督信息以獲得更好的聚類效果。A、聚類B、監(jiān)督聚類C、直推聚類D、半監(jiān)督聚類正確答案:D29.下列哪種機器學(xué)習(xí)算法不需要歸一化處理?()A、DecisionTreeB.SVMB、KmeansC、LogisticRegression正確答案:A30.將輸出標(biāo)記的對數(shù)作為線性模型逼近的目標(biāo)是(___)。A、對數(shù)幾率回歸B、極大似然法C、正則化D、對數(shù)線性回歸正確答案:D31.強化學(xué)習(xí)的目標(biāo)是找到()的策略A、最小損失函數(shù)B、全局最優(yōu)解C、局部最優(yōu)解D、最大化收益正確答案:D32.關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布C、多重共線性會使得參數(shù)估計值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機干擾項正確答案:B33.循環(huán)神經(jīng)網(wǎng)在工業(yè)上最常用的兩種實現(xiàn)是:①.LSTM②.GRU③.CNN④.DNNA、①③B、①②C、①③D、①④正確答案:B34.圖像數(shù)字化分為兩個步驟:一為取樣,二為()。A、量化B、數(shù)字化C、去噪聲D、清洗正確答案:A35.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()A、自然語言處理B、分類C、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)D、聚類正確答案:C36.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯誤的為(___)A、網(wǎng)絡(luò)結(jié)構(gòu)為已知;B、估計出每個結(jié)點的條件概率;C、評分搜索為求解的常用辦法;D、貝葉斯的學(xué)習(xí)過程為對訓(xùn)練樣本計數(shù);正確答案:A37.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、赫布網(wǎng)B、拉普拉斯網(wǎng)C、馬爾科夫網(wǎng)D、塞繆爾網(wǎng)正確答案:C38.關(guān)于Elman網(wǎng)絡(luò)描述錯誤的是(___)A、作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);B、一些神經(jīng)元的輸出反饋回來會作為輸入信號;C、用于處理靜態(tài)模型,即無法處理與時間有關(guān)的動態(tài)變化;D、可利用BP算法來進行參數(shù)優(yōu)化;正確答案:C39.在CNN網(wǎng)絡(luò)模型中,不常見的Pooling層操作是A、maxB、minC、meanD、sum正確答案:D40.LSTM是一種什么網(wǎng)絡(luò)?A、孿生網(wǎng)絡(luò)B、前饋神經(jīng)網(wǎng)C、卷積神經(jīng)網(wǎng)D、循環(huán)神經(jīng)網(wǎng)正確答案:D41.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運作的:在一次循環(huán)中我們先隨機選擇神經(jīng)層中的一些單元并將其臨時隱藏,然后再進行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?A、仿射層B、卷積層C、RNN層D、均不對正確答案:C42.下面的問題,哪一個屬于分類問題的是()A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會在接下來的一段時間內(nèi)離職B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時間內(nèi)的工資漲幅C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分?jǐn)?shù)正確答案:A43.對于圖像數(shù)據(jù),通常使用的模型是()A、word2vecB、循環(huán)神經(jīng)網(wǎng)絡(luò)C、bertD、卷積神經(jīng)網(wǎng)絡(luò)正確答案:D44.一張RGB彩色圖片存儲在計算機中通常不含以下哪一項:A、黃色通道B、藍色通道C、綠色通道D、紅色通道正確答案:A二、多選題(共24題,每題1分,共24分)1.下列哪些項是決策樹常用的屬性選擇指標(biāo)()A、信息增益B、Gini系數(shù)C、信息增益率D、距離平方和正確答案:ABC2.經(jīng)典邏輯推理有哪些?A、不確定與非單調(diào)推理B、歸結(jié)演繹推理C、自然演繹推理D、與、或形演繹推理正確答案:BCD3.帶有記憶處理的神經(jīng)元有()A、LSTMB、GRUC、CNND、ResNet正確答案:AB4.配置關(guān)鍵詞時,我們可以按照以下哪個方法來進行操作?A、使用核心的詞匯或詞組來配置B、僅配置數(shù)字;C、僅配置字母;D、針對任一問題來提取關(guān)鍵詞配置正確答案:AD5.faster-rcnn網(wǎng)絡(luò)每個位置生成哪幾種比例的anchor?A、1比1B、2比2C、1比2D、2比1正確答案:ACD6.隱馬爾可夫模型三個基本問題以及相應(yīng)的算法說法正確的是()A、評估—前向后向算法B、解碼—維特比算法C、學(xué)習(xí)—Baum-Welch算法D、學(xué)習(xí)—前向后向算法正確答案:ABC7.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、ReLUB、TanhC、SigmoidD、Sin正確答案:ABC8.文本語料庫的可能特征是什么?A、詞的向量標(biāo)注B、文本中詞計數(shù)C、詞性標(biāo)注(PartofSpeechTag)D、基本依存語法正確答案:ABCD9.下列模型屬于機器學(xué)習(xí)生成式模型的是()A、深度信念網(wǎng)絡(luò)B、隱馬爾科夫模型C、樸素貝葉斯D、線性回歸模型正確答案:ABC10.利用one-hot表示一個向量,使用一個詞表長的向量表示一個單詞,被表示單詞對應(yīng)的位置為(),其他單詞對應(yīng)的位置均為()A、0B、1C、-1D、2正確答案:AB11.模型選擇方法包括哪些?A、格點搜索B、交叉驗證C、針對預(yù)測誤差評估的度量函數(shù)正確答案:ABC12.下面關(guān)于機器學(xué)習(xí)的理解正確的是()A、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的區(qū)別在于是否要求樣本數(shù)據(jù)帶標(biāo)簽B、非監(jiān)督學(xué)習(xí)的樣本數(shù)據(jù)是要求帶標(biāo)簽的C、卷積神經(jīng)網(wǎng)絡(luò)一般用于圖像處理等局部特征相關(guān)的數(shù)據(jù)D、強化學(xué)習(xí)以輸入數(shù)據(jù)作為對模型的反饋正確答案:ACD13.Relu激活函數(shù)的優(yōu)點?A、解決了梯度消失、爆炸的問題B、輸出不是以0為中心C、計算方便,計算速度快,求導(dǎo)方便D、加速網(wǎng)絡(luò)訓(xùn)練正確答案:ACD14.人工智能算法中,決策樹分類算法包括A、C4.5B、ID3C、SGDD、CART正確答案:ABD15.關(guān)于線性回歸說法正確的是()A、日常生活中,收入預(yù)測可以作為線性回歸問題來解決B、線性回歸是簡單的方法"C、商品庫存預(yù)測,是一種典型的有監(jiān)督學(xué)習(xí)方法D、常用的回歸模型有線性回實用歸和非線性回歸正確答案:ABCD16.對于Word2vec的2個基礎(chǔ)算法,每次()更新只能優(yōu)化一個向量且softmax里的指數(shù)求和操作計算量太大,一般使用比較高效的()算法。A、梯度B、負(fù)采樣C、正采樣D、旋度正確答案:AB17.以下哪些機器學(xué)習(xí)算法可以不對特征做歸一化處理()A、隨機森林B、邏輯回歸C、SVMD、GBDT正確答案:AD18.VGG從()角度改進了之前的圖像分類網(wǎng)絡(luò)?GoogLeNet從()角度改進了之前的圖像分類網(wǎng)絡(luò)?ResNet從()角度改進了之前的圖像分類網(wǎng)絡(luò)?A、輕量化網(wǎng)絡(luò)模型B、增加網(wǎng)絡(luò)深度C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)寬度正確答案:BCD19.下列可以用于分類問題的機器學(xué)習(xí)算法有:A、邏輯回歸B、決策樹C、k近鄰D、隨機森林正確答案:ABCD20.DSSM模型總的來說可以分成三層結(jié)構(gòu),分別是()A、輸入層B、表示層C、匹配層D、輸出層正確答案:ABC21.線性回歸的基本假設(shè)包括哪個?A、隨機誤差項是一個期望值為0的隨機變量B、對于解釋變量的所有觀測值,隨機誤差項有相同的方差C、隨機誤差項彼此相關(guān)D、解釋變量是確定性變量不是隨機變量,與隨機誤差項之間相互獨立正確答案:ABD22.FasterRCNN模型相比于FastR-CNN模型,算法的改進主要體現(xiàn)在()A、提出候選框生成網(wǎng)絡(luò),取代了SelectiveSearchB、在RPN與最終輸出的兩個階段,將分類損失和框回歸損失進行聯(lián)合后對網(wǎng)絡(luò)進行優(yōu)化C、采用ROIpooling層,加速特征提取過程D、將CNN提取到的特征送入SVM進行分類正確答案:AB23.非線性核SVM研究重點是設(shè)計快速近似算法,包括()A、低秩逼近B、隨機分布C、隨機傅里葉特征D、采樣正確答案:ACD24.在隨機森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制正確答案:BC三、判斷題(共36題,每題1分,共36分)1.數(shù)據(jù)預(yù)處理方法主要有數(shù)據(jù)清洗、數(shù)據(jù)集成、數(shù)據(jù)變換、數(shù)據(jù)歸約A、正確B、錯誤正確答案:A2.PageRank是一個函數(shù),它對Web中的每個網(wǎng)頁賦予一個實數(shù)值。它的意圖在于網(wǎng)頁的PageRank越高,那么它就相關(guān)性越高A、正確B、錯誤正確答案:B3.NFL(NoFreeLunchTheorem)定理有一個重要前提:所有“問題”出現(xiàn)的機會相同、或所有問題同等重要。A、正確B、錯誤正確答案:A4.解路徑也可以用規(guī)則的序列表示,如果從問題的初始狀態(tài)依次應(yīng)用這些規(guī)則,得到的節(jié)點連同初始狀態(tài)剛好是一個解路徑的話.解路徑又可以稱為問題的解,或簡稱為解。A、正確B、錯誤正確答案:A5.聚類(clustering)是這樣的過程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測類標(biāo)記未知的對象類A、正確B、錯誤正確答案:B6.PSP網(wǎng)絡(luò)獲取上下文信息的關(guān)鍵在于增大感受野A、正確B、錯誤正確答案:A7.原始業(yè)務(wù)數(shù)據(jù)來自多個數(shù)據(jù)庫或數(shù)據(jù)倉庫,它們的結(jié)構(gòu)和規(guī)則可能是不同的,這將導(dǎo)致原始數(shù)據(jù)非常的雜亂、不可用,即使在同一個數(shù)據(jù)庫中,也可能存在重復(fù)的和不完整的數(shù)據(jù)信息,為了使這些數(shù)據(jù)能夠符合數(shù)據(jù)挖掘的要求,提高效率和得到清晰的結(jié)果,必須進行數(shù)據(jù)的預(yù)處理。A、正確B、錯誤正確答案:A8.對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對分類結(jié)果沒有影響。A、正確B、錯誤正確答案:A9.PCA可用于在較小維度上投影和可視化數(shù)據(jù)。A、正確B、錯誤正確答案:A10.SVM是在特征空間上找到最佳的分離超平面,使得訓(xùn)練集上的正負(fù)樣本間隔最大。是用來解決二分類問題,在引入核方法后也可以解決非線性問題。A、正確B、錯誤正確答案:A11.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。A、正確B、錯誤正確答案:A12.神經(jīng)網(wǎng)絡(luò)中的注意力機制受到人類視覺中注意力的啟發(fā),即人類視覺注意力能夠聚焦到圖像的特定區(qū)域,并在這個區(qū)域有非常低的分辨率,而在其它區(qū)域有較高的分辨率。A、正確B、錯誤正確答案:B13.圖像分類是根據(jù)圖像的語義信息對不同類別圖像進行區(qū)分,是計算機視覺的核心,是物體檢測、圖像分割、物體跟蹤、行為分析、人臉識別等其他高層次視覺任務(wù)的基礎(chǔ)A、正確B、錯誤正確答案:A14.當(dāng)訓(xùn)練數(shù)據(jù)近似線性可分時,通過硬間隔最大化,也學(xué)習(xí)一個線性的分類器,即線性支持向量機,又稱為硬間隔支持向量機。A、正確B、錯誤正確答案:B15.SOFTMAX函數(shù),是用來將全數(shù)域函數(shù)結(jié)果映射到概率空間。A、正確B、錯誤正確答案:A16.Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和,這就是為什么ReLU會被提出來,因為ReLU可以使得梯度在正向時輸出值與原始值一樣。這意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會飽和。A、正確B、錯誤正確答案:B17.EM算法用于訓(xùn)練樣本完整的情況下進行估計A、正確B、錯誤正確答案:B18.人工校驗是指打印數(shù)據(jù)輸出結(jié)果,觀察是否是預(yù)期的格式。實現(xiàn)數(shù)據(jù)處理和加載函數(shù)后,我們可以調(diào)用它讀取一次數(shù)據(jù),觀察數(shù)據(jù)的shape和類型是否與函數(shù)中設(shè)置的一致A、正確B、錯誤正確答案:A19.利用one-hot表示一個向量,使用一個詞表長的向量表示一個單詞,被表示單詞對應(yīng)的位置為0,其他單詞對應(yīng)的位置均為1A、正確B、錯誤正確答案:B20.LR的損失函數(shù)為hingeloss(或者說是邏輯損失都可以)、而SVM的損失函數(shù)為Log損失。A、正確B、錯誤正確答案:B21.N-gram模型中,N指的是忽略距離大于n的上文詞的影響,N越大時。模型包含的次序信息越豐富,同時計算量隨
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 增城區(qū)2024廣東廣州市生態(tài)環(huán)境局增城分局招聘編外人員1人筆試歷年參考題庫典型考點附帶答案詳解(3卷合一)
- 吉林省2024年吉林省省直事業(yè)單位公開招聘工作人員3號(119人)筆試歷年參考題庫典型考點附帶答案詳解(3卷合一)
- 內(nèi)鄉(xiāng)縣2024年河南南陽內(nèi)鄉(xiāng)縣招聘事業(yè)單位工作人員233名筆試歷年參考題庫典型考點附帶答案詳解(3卷合一)
- 2025年興業(yè)銀行珠海分行社會招聘備考題庫及完整答案詳解1套
- 2025年為山東鐵路檢察機關(guān)公開招聘聘用制書記員的備考題庫及一套完整答案詳解
- 2025-2026北京化工大學(xué)第一批次教師及研究生輔導(dǎo)員招聘31人備考考試試題及答案解析
- 2025西藏林芝市工布江達縣委社會工作部選(聘)社區(qū)工作者4人備考筆試題庫及答案解析
- 2025廣西壯族自治區(qū)中醫(yī)藥研究院招聘高層次人才5人模擬筆試試題及答案解析
- 2026年上海普陀區(qū)教育系統(tǒng)公開招聘391名教師模擬筆試試題及答案解析
- 2025年甘肅省平?jīng)鍪徐`臺縣人民法院招聘參考筆試題庫及答案解析
- 橫紋肌溶解癥的護理
- 施工升降機聯(lián)合驗收表
- 《活法》心得體會
- 贛南師范大學(xué)《中國地理》2022-2023學(xué)年第一學(xué)期期末試卷
- 興業(yè)銀行還款合同模板
- 基于機器學(xué)習(xí)的房性心動過速射頻消融預(yù)測模型
- GB/T 44239-2024增材制造用鋁合金粉
- 溫泉洗浴中心管理手冊樣本
- 工業(yè)固廢運輸處置投標(biāo)方案(技術(shù)標(biāo))
- 泰文租房合同
- 《機械制圖》期末考試題庫388題(含答案)
評論
0/150
提交評論