人工智能-核心算法復(fù)習(xí)題+參考答案_第1頁(yè)
人工智能-核心算法復(fù)習(xí)題+參考答案_第2頁(yè)
人工智能-核心算法復(fù)習(xí)題+參考答案_第3頁(yè)
人工智能-核心算法復(fù)習(xí)題+參考答案_第4頁(yè)
人工智能-核心算法復(fù)習(xí)題+參考答案_第5頁(yè)
已閱讀5頁(yè),還剩8頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能-核心算法復(fù)習(xí)題+參考答案1、()控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸入進(jìn)行更新。A、隱狀態(tài)向量B、狀態(tài)向量C、顯狀態(tài)向量D、以上都不對(duì)答案:B2、以下屬于生成式模型的是:()A、SVMB、隨機(jī)森林C、隱馬爾可夫模型HMMD、邏輯回歸答案:C3、對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D4、VGG-19中卷積核的大小為A、3x3B、5x5C、3x3,5x5D、不確定答案:A5、下列關(guān)于隨機(jī)變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A、離散型隨機(jī)變量沒(méi)有分布函數(shù)B、密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。C、分布函數(shù)描述隨機(jī)變量的取值規(guī)律D、分布律只能描述離散型隨機(jī)變量的取值規(guī)律答案:A6、感知機(jī)描述錯(cuò)誤的是:(___)A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B、輸入層接收外界輸入信號(hào)傳遞給輸出層;C、輸出層是M-P神經(jīng)元;D、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算;答案:A7、機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是A、卡方檢驗(yàn)B、信息增益C、數(shù)據(jù)采樣D、期望交叉熵答案:C8、在pytorch中,如果主機(jī)有1塊TitanX顯卡,以下哪個(gè)選項(xiàng)中的代碼都可以將變量名為var的tensor放在GPU上運(yùn)行A%、var=var.to"cuda:0"、var=var.to"cuda:1"B、var=var.to"cuda:1"C、var=var.cuda、var=var.to"cuda:0"D、var=var.cuda、var=var.to"cuda:1""答案:C9、Adaboost就是從()出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強(qiáng)分類器C、多個(gè)分類器D、單個(gè)分類器答案:A10、Skip-gram在實(shí)際操作中,使用一個(gè)()(一般情況下,長(zhǎng)度是奇數(shù)),從左到右開(kāi)始掃描當(dāng)前句子。A、過(guò)濾器B、滑動(dòng)窗口C、篩選器D、掃描器答案:B11、()是用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降答案:A12、下列關(guān)于冗余特征的說(shuō)法錯(cuò)誤的是(___)A、冗余特征是可以通過(guò)其他特征推演出來(lái)的特征B、冗余特征是無(wú)用的特征C、冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度D、去除冗余特征可以減輕學(xué)習(xí)過(guò)程的負(fù)擔(dān)答案:B13、批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D14、二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B、動(dòng)態(tài)規(guī)劃法C、貪心法D、回溯法答案:A15、欠擬合通常是由于(___)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過(guò)多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B16、給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是“predictio”(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A17、歸結(jié)原理的特點(diǎn)是(___)A、發(fā)明新的概念和關(guān)系B、發(fā)現(xiàn)更多的規(guī)則C、緩解過(guò)擬合的風(fēng)險(xiǎn)D、將復(fù)雜的邏輯規(guī)則與背景知識(shí)聯(lián)系起來(lái)化繁為簡(jiǎn)答案:D18、下列哪項(xiàng)不是SVM的優(yōu)勢(shì)A、可以和核函數(shù)結(jié)合B、通過(guò)調(diào)參可以往往可以得到很好的分類效果C、訓(xùn)練速度快D、泛化能力好答案:C19、在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出之間的差來(lái)調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()A、有師學(xué)習(xí)B、無(wú)師學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、都不是答案:A20、問(wèn)答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:A、問(wèn)答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話、在線搜索和其他地方提取信息,以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個(gè)文檔,而是更喜歡簡(jiǎn)短而簡(jiǎn)潔的答案。B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對(duì)文本文檔的搜索,尚且無(wú)法從圖片集合中提取信息。C、大多數(shù)NLP問(wèn)題都可以被視為一個(gè)問(wèn)題回答問(wèn)題。范例很簡(jiǎn)單:我們發(fā)出查詢指令,機(jī)器提供響應(yīng)。通過(guò)閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種各樣的問(wèn)題。D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問(wèn)題進(jìn)行了專門開(kāi)發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問(wèn)題的訓(xùn)練集,它可以形成情節(jié)記憶,并使用它們來(lái)產(chǎn)生相關(guān)答案。答案:B21、關(guān)于精度與錯(cuò)誤率的說(shuō)法中錯(cuò)誤的是()。A、精度與錯(cuò)誤率的和為1B、精度與錯(cuò)誤率都可以反映模型的好壞C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)答案:D22、關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說(shuō)法是A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少B、每一次Epoch都會(huì)對(duì)之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小C、模型參數(shù)量越多越好,沒(méi)有固定的對(duì)應(yīng)規(guī)則D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中答案:C23、下列哪個(gè)選項(xiàng)中的模型屬于集成學(xué)習(xí)()A、C4.5B、kNN分類C、AdaboostD、k-means答案:C24、Matplotlib是一個(gè)主要用于繪制()維圖形的Python庫(kù),用途:繪圖、可視化。A、一B、二C、三D、四答案:B25、BineryCrossEntropy可作為()問(wèn)題的損失函數(shù)。A、回歸B、二分類C、多分類D、目標(biāo)檢測(cè)答案:B26、下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?()A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項(xiàng)A和B答案:D27、下列哪項(xiàng)關(guān)于模型能力的描述是正確的(指模型能近似復(fù)雜函數(shù)的能力)A、隱層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確答案:A28、下列哪個(gè)模型屬于無(wú)監(jiān)督學(xué)習(xí)()A、KNN分類B、邏輯回歸C、DBSCAND、決策樹(shù)答案:C29、協(xié)同訓(xùn)練(co-training)是針對(duì)(___)數(shù)據(jù)設(shè)計(jì)?A、多角度B、多視圖C、多環(huán)境D、多版本答案:B30、傳統(tǒng)GBDT在優(yōu)化時(shí)只用到一階導(dǎo)數(shù)信息,xgboost則對(duì)代價(jià)函數(shù)進(jìn)行二階泰勒展開(kāi),同時(shí)用到了()A、一階導(dǎo)數(shù)B、二階導(dǎo)數(shù)C、三階導(dǎo)數(shù)D、四階導(dǎo)數(shù)答案:AB31、下列哪些屬于常用的分類算法()A、kNNB、SVMC、SVRD、DBSCAN答案:AB32、DSSM模型總的來(lái)說(shuō)可以分成三層結(jié)構(gòu),分別是()A、輸入層B、表示層C、匹配層D、輸出層答案:ABC33、關(guān)于搜索與求解,描述正確的是()A、搜索是為了達(dá)到某一目標(biāo)而多次進(jìn)行某種操作、運(yùn)算、推理或計(jì)算的過(guò)程B、所有的智能活動(dòng)過(guò)程,都可以看作或者抽象為一個(gè)基于搜索的問(wèn)題求解C、搜索是人在求解問(wèn)題時(shí)不知現(xiàn)成解法的情況下所采取的一種普遍方法D、搜索可以看作人類和其他生物所具有的一種元知識(shí)答案:ABCD34、專家系統(tǒng)知識(shí)表示的方法主要有哪些?A、邏輯表示法(謂詞表示法)B、框架C、產(chǎn)生式D、語(yǔ)義網(wǎng)絡(luò)答案:ABCD35、Skip-gram的算法實(shí)現(xiàn)包括()幾個(gè)部分?A、輸入層B、卷積層C、隱藏層D、輸出層答案:ACD36、卷積神經(jīng)網(wǎng)絡(luò)的核心思想是A、局部感知B、參數(shù)共享C、全連接答案:AB37、下列哪些開(kāi)發(fā)包,已包含一些常用的機(jī)器學(xué)習(xí)算法?()A、sklearnB、xgboostC、lightgbmD、numpy答案:ABC38、隱馬爾可夫模型三個(gè)基本問(wèn)題以及相應(yīng)的算法說(shuō)法正確的是()A、評(píng)估—前向后向算法B、解碼—維特比算法C、學(xué)習(xí)—Baum-Welch算法D、學(xué)習(xí)—前向后向算法答案:ABC39、通過(guò)計(jì)算這些向量之間的(),就可以計(jì)算出詞語(yǔ)之間的(),從而達(dá)到讓計(jì)算機(jī)像計(jì)算數(shù)值一樣去計(jì)算自然語(yǔ)言的目的。A、內(nèi)積B、先后關(guān)系C、距離D、關(guān)聯(lián)關(guān)系答案:CD40、DSSM經(jīng)典模型的優(yōu)點(diǎn)有()A、解決了字典爆炸問(wèn)題,降低了計(jì)算復(fù)雜度B、省去了人工特征工程C、采用有監(jiān)督訓(xùn)練,精度較高D、效果不可控答案:ABC41、在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問(wèn)題時(shí),我們可以用以下哪些方法進(jìn)行解訣?A、批量刪除B、隨機(jī)過(guò)采樣C、合成采樣D、隨機(jī)欠采樣答案:BCD42、常用的盲目搜索方法是什么?A、隨機(jī)碰撞式搜索B、精確碰撞式搜索C、不完全式搜索D、完全式搜索答案:AD43、哪些不能用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值與真實(shí)值之間的誤差大小A、優(yōu)化函數(shù)B、損失函數(shù)C、梯度下降D、反向傳播答案:ACD44、帶有記憶處理的神經(jīng)元有()A、LSTMB、GRUC、CNND、ResNet答案:AB45、強(qiáng)化學(xué)習(xí)中的兩種免模型學(xué)習(xí)是()、()。A、逆強(qiáng)化學(xué)習(xí)B、時(shí)序差分學(xué)習(xí)C、蒙特卡羅強(qiáng)化學(xué)習(xí)D、模仿學(xué)習(xí)答案:BC46、下列哪些模型可以E2E訓(xùn)練()A、YOLOv3B、YOLOv2C、RCNND、fastRCNN答案:ABD47、層次聚類數(shù)據(jù)集的劃分采用了哪些策略?()A、自底向上B、貪心策略C、自頂向下D、以上都是答案:AC48、認(rèn)知語(yǔ)言學(xué)更多地是考慮()A、句法B、音韻C、語(yǔ)義D、語(yǔ)用答案:CD49、可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有Apriori算法、FP-Tree算法、K均值法、SOM神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:B50、基于sklearn用機(jī)器學(xué)習(xí)模型進(jìn)行數(shù)據(jù)分析與數(shù)據(jù)挖掘的關(guān)鍵步驟為load_data()、create_model()、model.fit()、model.transformA、正確B、錯(cuò)誤答案:B51、通過(guò)聚集多個(gè)分類器的預(yù)測(cè)來(lái)提高分類準(zhǔn)確率的技術(shù)稱為聚集(aggregate)A、正確B、錯(cuò)誤答案:B52、對(duì)分類問(wèn)題,若類別數(shù)目為N,則最后一個(gè)全連接層的神經(jīng)元數(shù)目必須為NA、正確B、錯(cuò)誤答案:A53、常用的雙向循環(huán)神經(jīng)網(wǎng)絡(luò),不同方向的神經(jīng)元,彼此相連A、正確B、錯(cuò)誤答案:B54、對(duì)于超參數(shù)的設(shè)置可采用網(wǎng)格搜索法確定其最優(yōu)值A(chǔ)、正確B、錯(cuò)誤答案:A55、對(duì)于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對(duì)分類結(jié)果沒(méi)有影響。A、正確B、錯(cuò)誤答案:A56、Gini指數(shù)越大表示集合中被選中的樣本被分錯(cuò)的概率越小,也就是說(shuō)集合的純度越高。A、正確B、錯(cuò)誤答案:B57、隨機(jī)森林的收斂性與Bagging相似,隨機(jī)森林的起始性能往往相對(duì)較好,隨著個(gè)體學(xué)習(xí)器數(shù)目的增加,隨機(jī)森林通常會(huì)收斂到更低的泛化誤差。A、正確B、錯(cuò)誤答案:B58、生成對(duì)抗網(wǎng)絡(luò)中的生成器既可以是卷積神經(jīng)網(wǎng)絡(luò),也可以是循環(huán)神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤答案:A59、KNN(K-NearestNeighbor)算法由于需要同時(shí)存儲(chǔ)大量的已知標(biāo)簽數(shù)據(jù),故其一般不適合處理大規(guī)模的訓(xùn)練數(shù)據(jù)A、正確B、錯(cuò)誤答案:A60、可以通過(guò)將所有權(quán)重初始化為0來(lái)訓(xùn)練網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:B61、LeNet是由YannLeCun等人于1998年提出的,是人們第一次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到圖像分類任務(wù)上,在手寫數(shù)字識(shí)別任務(wù)上取得了巨大成功A、正確B、錯(cuò)誤答案:A62、卷積神經(jīng)網(wǎng)絡(luò)是含有卷積層的神經(jīng)網(wǎng)絡(luò),二維卷積層有高和寬兩個(gè)空間維度,常用來(lái)處理文本數(shù)據(jù)。A、正確B、錯(cuò)誤答案:B63、歸結(jié)演繹推理方法是一種反證法。()A、正確B、錯(cuò)誤答案:A64、Sigmoid是早期神經(jīng)網(wǎng)絡(luò)模型中常見(jiàn)的非線性變換函數(shù)A、正確B、錯(cuò)誤答案:A65、云計(jì)算的服務(wù)方式有IaaS、Raas、PaaS、SaaSA、正確B、錯(cuò)誤答案:B66、當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要基于內(nèi)容的尋址或基于位置的尋址來(lái)完成A、正確B、錯(cuò)誤答案:B67、在目標(biāo)檢測(cè)中,Regionproposallayer算法能產(chǎn)生候選框A、正確B、錯(cuò)誤答案:A68、()霍恩子句是最多只有一個(gè)負(fù)文字的文字合取式。A、正確B、錯(cuò)誤答案:B69、自編碼是非監(jiān)督學(xué)習(xí)類算法。A、正確B、錯(cuò)誤答案:A70、mini-batch太小會(huì)導(dǎo)致收斂變慢,太大容易陷入sharpminima,泛化性不好。A、正確B、錯(cuò)誤答案:

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論