版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
PAGEPAGE1人工智能核心算法知識(shí)考試題庫(kù)匯總-上(選擇題部分)一、單選題1.下列哪些項(xiàng)目是在圖像識(shí)別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(dòng)(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項(xiàng)目答案:D2.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為A、噪聲B、核心簇C、邊界簇D、以上都不對(duì)答案:A3.機(jī)器學(xué)習(xí)算法的一般流程是()。A、1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)使用算法B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)使用算法C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測(cè)試算法,5)訓(xùn)練算法,6)使用算法D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測(cè)試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)據(jù),6)使用算法答案:A4.關(guān)于Boltzmann描述錯(cuò)誤的是(___)A、基于能量的模型;B、優(yōu)化目標(biāo)函數(shù)為最小化能力函數(shù);C、分為顯層和隱層;D、神經(jīng)元都是數(shù)值型;答案:D5.為了增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,我們需要()來將線性函數(shù)轉(zhuǎn)換為非線性函數(shù)。A、損失函數(shù)B、指數(shù)函數(shù)C、三角函數(shù)D、激活函數(shù)答案:D6.對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率。B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率。C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率。D、1、2都對(duì)答案:A7.算法性能顯著不同時(shí),需要進(jìn)行(___)來進(jìn)一步區(qū)分各算法。A、后續(xù)檢驗(yàn)B、Friedman檢驗(yàn)C、交叉驗(yàn)證t檢驗(yàn)D、McNemar檢驗(yàn)答案:A8.關(guān)于級(jí)聯(lián)相關(guān)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo);B、主要成分為級(jí)聯(lián)、相關(guān)、歸約;C、無需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;D、訓(xùn)練速度快,但數(shù)據(jù)較小時(shí)容易陷入過擬合;答案:B9.圖像處理中無損壓縮的目的是()A、濾除圖像中的不相干信號(hào)B、濾除圖像中的高頻信號(hào)C、濾除圖形中的低頻信號(hào)D、濾除圖像中的冗余信號(hào)答案:D10.Scikit-Learn中()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score答案:A11.卷積核與特征圖的通道數(shù)的關(guān)系是:A、卷積核數(shù)量越多特征圖通道數(shù)越少B、卷積核size越大特征圖通道數(shù)越多C、卷積核數(shù)量越多特征圖通道數(shù)越多D、二者沒有關(guān)系答案:C12.下列哪個(gè)包不是用于處理圖像的?()A、ScipyB、skimageC、opencvD、gensim答案:D13.無監(jiān)督學(xué)習(xí)常常被用于(),用于在大量無標(biāo)簽數(shù)據(jù)中發(fā)現(xiàn)些什么。A、數(shù)據(jù)挖掘B、數(shù)據(jù)分析C、數(shù)據(jù)讀取D、數(shù)據(jù)整理答案:A14.CNN卷積網(wǎng)絡(luò)中,filter尺寸的選擇多為()A、奇數(shù)B、偶數(shù)C、整數(shù)D、分?jǐn)?shù)答案:A15.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?A、GMMB、XgboostC、聚類D、關(guān)聯(lián)規(guī)則答案:B16.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?()A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C17.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是()A、各類別的先驗(yàn)概率P(C)是相等的B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D、P(X|C)是高斯分布答案:C18.早期圖像識(shí)別技術(shù)中存在的主要問題是()。A、全局特征丟掉了圖像細(xì)節(jié)B、提取不到主要特征C、存儲(chǔ)效率低下D、太多的錯(cuò)誤匹配答案:A19.根據(jù)操作的反饋總結(jié)更好的策略,這個(gè)過程抽象出來,就是(___)A、強(qiáng)化訓(xùn)練B、加強(qiáng)訓(xùn)練C、強(qiáng)化學(xué)習(xí)D、加強(qiáng)學(xué)習(xí)答案:C20.類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目(___)的情況。A、沒有差別B、差別很大C、差別很小D、以上都不正確答案:B21.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對(duì)數(shù)損失函數(shù)D、Hinge答案:B22.檢索的()和基于反事實(shí)學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)域重要的研究方向A、公平性B、真實(shí)性C、快速性D、準(zhǔn)確性答案:A23.關(guān)于競(jìng)爭(zhēng)型學(xué)習(xí)算法描述錯(cuò)誤的是(___)A、是一種監(jiān)督學(xué)習(xí)策略;B、每個(gè)時(shí)刻只有一個(gè)競(jìng)爭(zhēng)獲勝的神經(jīng)元被激活;C、其他神經(jīng)元的狀態(tài)被抑制;D、ART網(wǎng)絡(luò)通過競(jìng)爭(zhēng)型學(xué)習(xí)算法尋優(yōu);答案:A24.下面對(duì)誤差反向傳播(errorbackpropagation,BP)描述不正確的是A、BP算法是一種將輸出層誤差反向傳播給隱藏層進(jìn)行參數(shù)更新的方法B、BP算法將誤差從后向前傳遞,獲得各層單元所產(chǎn)生誤差,進(jìn)而依據(jù)這個(gè)誤差來讓各層單元修正各單元參數(shù)C、對(duì)前饋神經(jīng)網(wǎng)絡(luò)而言,BP算法可調(diào)整相鄰層神經(jīng)元之間的連接權(quán)重大小D、在BP算法中,每個(gè)神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)答案:D25.在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為()。A、reluB、batchC、stepD、padding答案:B26.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識(shí)別的時(shí)候,不需要對(duì)整個(gè)圖像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。A、一般B、特殊C、連續(xù)D、重點(diǎn)答案:B27.下列哪項(xiàng)不是知識(shí)圖譜構(gòu)建的主要技術(shù)()A、命名實(shí)體識(shí)別B、實(shí)體鏈接C、關(guān)系抽取D、詞性標(biāo)注答案:D28.哪種聚類方法采用概率模型來表達(dá)聚類()A、K-meansB、LVQC、DBSCAND、高斯混合聚類答案:D29.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出之間的差來調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()A、有師學(xué)習(xí)B、無師學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、都不是答案:A30.如果我們用了一個(gè)過大的學(xué)習(xí)速率會(huì)發(fā)生什么?()A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂答案:D31.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D32.從給定的特征集合中選擇出相關(guān)特征子集的過程,稱為(___)A、特征抽取B、特征選擇C、特征降維D、特征簡(jiǎn)化答案:B33.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過程。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、線性回歸答案:C34.康內(nèi)爾大學(xué)發(fā)表了公平無偏的排序?qū)W習(xí)模型FairCO,可緩解檢索排序()的問題A、抖動(dòng)效應(yīng)B、馬太效應(yīng)C、數(shù)據(jù)溢出D、內(nèi)存不足答案:B35.下面對(duì)梯度下降方法描述不正確的是A、梯度下降算法是一種使得損失函數(shù)最小化的方法B、梯度反方向是函數(shù)值下降最快方向C、梯度方向是函數(shù)值下降最快方向D、梯度下降算法用來優(yōu)化深度學(xué)習(xí)模型的參數(shù)答案:C36.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每?層的輸?的范圍都?致固定B、它將權(quán)重的歸?化平均值和標(biāo)準(zhǔn)差C、它是?種?常有效的反向傳播(BP)?法D、這些均不是答案:A37.強(qiáng)化學(xué)習(xí)的回報(bào)值一個(gè)重要特點(diǎn)是具有()。A、客觀性B、主體性C、超前性D、滯后性答案:D38.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。A、1B、2C、3D、4答案:A39.下列選項(xiàng)中,不屬于深度學(xué)習(xí)模型的是?A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A40.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])的輸出是()?A、5B、25C、6D、26答案:B41.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計(jì)算C、卷積計(jì)算D、反向傳播算法答案:D42.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度變快③.占用內(nèi)存少④.所有權(quán)值都共享同一個(gè)值A(chǔ)、①③④B、①②③C、①③④D、①②④答案:B43.下面哪個(gè)技術(shù)跟中文分詞無關(guān)():A、詞語消歧B、詞性標(biāo)注C、未登錄詞識(shí)別D、槽位填充答案:D44.DilatedConvolution意思是?A、空洞卷積B、黑洞卷積C、細(xì)節(jié)卷積D、返向卷積答案:A45.下列關(guān)于聚類算法的說法,正確的是()A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別B、聚類算法是一種監(jiān)督學(xué)習(xí)算法C、聚類算法可以用于回歸問題D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別答案:D46.可以對(duì)Pytorch框架進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)等數(shù)據(jù)可視化的工具是A、VisdomB、FlaskC、VueD、以上選項(xiàng)均不正確答案:A47.規(guī)則學(xué)習(xí)中ILP的全稱是(___)A、歸納邏輯程序設(shè)計(jì)B、內(nèi)部邏輯程序設(shè)計(jì)C、信息泄露防護(hù)D、引入層次程序設(shè)計(jì)答案:A48.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?()A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的答案:B49.Google與Facebook分別提出SimCLR與MoCo兩個(gè)算法,實(shí)現(xiàn)在()上學(xué)習(xí)圖像數(shù)據(jù)表征。兩個(gè)算法背后的框架都是對(duì)比學(xué)習(xí)(contrastivelearning)A、標(biāo)注數(shù)據(jù)B、無標(biāo)注數(shù)據(jù)C、二維數(shù)據(jù)D、圖像數(shù)據(jù)答案:B50.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的模型是()A、CNNB、RNNC、GRUD、LSTM答案:B51.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時(shí)答案:C52.池化層一般接在哪種網(wǎng)絡(luò)層之后A、輸入層B、輸出層C、卷積層D、全連接層答案:C53.如何選取合適的卷積核大?。緼、分布范圍廣>較小的卷積核,大的感受野B、分布范圍小>較小的卷積核,小的感受野C、分布范圍小>較大的卷積核,小的感受野D、分布范圍大>較小的卷積核,小的感受野答案:B54.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、SoftmaxB、ReLuC、SigmoidD、Tanh答案:A55.K-means算法采用了哪些策略?()A、自底向上B、貪心策略C、自頂向下D、以上都是答案:B56.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢(shì)?A、仿射層B、卷積層C、RNN層D、均不對(duì)答案:C57.關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、單隱層前饋神經(jīng)網(wǎng)絡(luò);B、隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);C、輸出層是對(duì)隱層神經(jīng)元輸出的非線性組合;D、可利用BP算法來進(jìn)行參數(shù)優(yōu)化;答案:C58.在圖搜索中,選擇最有希望的節(jié)點(diǎn)作為下一個(gè)要擴(kuò)展的節(jié)點(diǎn),這種搜索方法叫做()A、寬度搜索B、深度搜索C、有序搜索D、廣義搜索答案:C59.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個(gè)選項(xiàng)不屬于決策樹構(gòu)建過程當(dāng)中的步驟?A、剪枝B、特征選取C、數(shù)據(jù)清理D、決策樹生成答案:C60.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()A、防止過擬合B、減小誤差C、增加網(wǎng)絡(luò)復(fù)雜度答案:A61.以下哪項(xiàng)是主要用于自然語言處理的網(wǎng)絡(luò)結(jié)構(gòu)()A、AlexNetB、ResNetC、BertD、LeNet答案:C62.VGG模型于2014年被提出,是最流行的()模型之一,在ImageNet比賽中,達(dá)到了Top5錯(cuò)誤率7.3%。A、CNNB、KNNC、RNND、DNN答案:A63.數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說法正確的是?()A、基本模型之間相關(guān)性高。B、基本模型之間相關(guān)性低。C、集成方法均使用加權(quán)平均代替投票方法。D、基本模型都來自于同一算法。答案:B64.ROIAlign在哪個(gè)模型被采用()A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3答案:C65.協(xié)同訓(xùn)練(co-training)是針對(duì)(___)數(shù)據(jù)設(shè)計(jì)?A、多角度B、多視圖C、多環(huán)境D、多版本答案:B66.關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)答案:B67.命名實(shí)體識(shí)別任務(wù)是識(shí)別出人名、地名和組織機(jī)構(gòu)名這三類命名實(shí)體,如果用1來標(biāo)注人名,0標(biāo)注其他,那么“HarryPotterandHermioneGrangerinventedanewspell”這句話中,Potter、and這兩個(gè)單詞應(yīng)該標(biāo)注為:A、0,1B、1,1C、1,0D、0,0答案:C68.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、2答案:A69.OCR是指對(duì)文本書面資料(印刷字體、手寫字體)的圖像文件進(jìn)行分析識(shí)別處理,獲取文字及版面信息的過程,其中文全程是()。A、光學(xué)字符識(shí)別B、文字識(shí)別C、字符識(shí)別D、書面識(shí)別答案:A70.C4.5決策樹算法中采用()對(duì)連續(xù)屬性進(jìn)行離散化處理。A、二分法B、最小二乘法C、均值法D、投票法答案:A71.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D72.以下屬于生成式模型的是:()A、SVMB、隨機(jī)森林C、隱馬爾可夫模型HMMD、邏輯回歸答案:C73.池化操作的作用是:A、上采樣B、下采樣C、paddingD、增加特征圖通道數(shù)答案:B74.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問題,logistics回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練。如何提高訓(xùn)練速度?()A、降低學(xué)習(xí)率,減少迭代次數(shù)B、降低學(xué)習(xí)率,增加迭代次數(shù)C、提高學(xué)習(xí)率,增加迭代次數(shù)D、增加學(xué)習(xí)率,減少迭代次數(shù)答案:D75.馬爾可夫預(yù)測(cè)模型是將時(shí)間序列看作一個(gè)過程,通過對(duì)事物不同狀態(tài)的()與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢(shì),預(yù)測(cè)事物的未來。A、初始概率B、結(jié)果概率C、形成概率答案:A76.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度A、正則項(xiàng)B、非線性C、激活函數(shù)D、特征變換答案:A77.下屬模型是一階段網(wǎng)絡(luò)的是()A、YOLOv2B、rcnnC、fast-rcnnD、faster-rcnn答案:A78.numpy數(shù)組的ndim屬性是()?A、數(shù)組的維度B、各維度大小的元組C、行數(shù)D、列數(shù)答案:A79.二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B、動(dòng)態(tài)規(guī)劃法C、貪心法D、回溯法答案:A80.剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡量剪枝后()變化來決定是否剪枝。A、信息增益B、損失函數(shù)C、準(zhǔn)確率D、召回率答案:B81.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個(gè)方向傳遞答案:D82.以下關(guān)于隨機(jī)森林算法的描述中錯(cuò)誤的是A、可以處理高維度的屬性,并且不用做特征選擇B、隨機(jī)森林的預(yù)測(cè)能力不受多重共線性影響C、也擅長(zhǎng)處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題D、能應(yīng)對(duì)正負(fù)樣本不平衡問題答案:C83.問答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:A、問答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話、在線搜索和其他地方提取信息,以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個(gè)文檔,而是更喜歡簡(jiǎn)短而簡(jiǎn)潔的答案。B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對(duì)文本文檔的搜索,尚且無法從圖片集合中提取信息。C、大多數(shù)NLP問題都可以被視為一個(gè)問題回答問題。范例很簡(jiǎn)單:我們發(fā)出查詢指令,機(jī)器提供響應(yīng)。通過閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種各樣的問題。D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問題進(jìn)行了專門開發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問題的訓(xùn)練集,它可以形成情節(jié)記憶,并使用它們來產(chǎn)生相關(guān)答案。答案:B84.FPN中根據(jù)ROI的()來分配所屬層級(jí)?A、分類分?jǐn)?shù)B、最大邊長(zhǎng)度C、面積答案:C85.DSSM模型的結(jié)構(gòu)是什么?A、線性B、雙塔C、三塔D、非線性答案:B86.DSSM經(jīng)典模型的優(yōu)點(diǎn);1.解決了字典爆炸問題,降低了計(jì)算復(fù)雜度;2.中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個(gè)字表達(dá)的詞義,減少分詞的依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語義embedding的映射問題;5.省去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。A、B、C、.5.6D、3.4.6答案:C87.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()A、LeNetB、AlexNetC、GoogLeNetD、ResNets答案:D88.在其他條件不變的前提下,以下做法容易引起機(jī)器學(xué)習(xí)中的“過擬合”問題的是()。A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核答案:D89.在分類學(xué)習(xí)中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個(gè)強(qiáng)分類器。A、偏差B、方差C、采樣樣本D、權(quán)值分布答案:D90.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以答案:C91.YOLOv3在coco數(shù)據(jù)集上聚類了()個(gè)矛框?A、3B、9C、80D、nan答案:B92.EM算法通過迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進(jìn)行求期望和求極大化。A、無偏估計(jì)B、極大似然估計(jì)C、區(qū)間估計(jì)D、有偏估計(jì)答案:B93.ID3在分類過程中使用的()A、條件熵B、基尼指數(shù)GiniC、信息增益D、聯(lián)合熵答案:C94.CART樹在分類過程中使用的()A、條件熵B、基尼指數(shù)GiniC、交叉熵D、聯(lián)合熵答案:B95.反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對(duì)答案:A96.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是答案:A97.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU答案:B98.與生成方法、半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)據(jù)不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器之間的“分歧”(disagreement)對(duì)未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。(___)是此類方法的重要代表A、協(xié)同訓(xùn)練B、組合訓(xùn)練C、配合訓(xùn)練D、陪同訓(xùn)練答案:A99.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C100.圖計(jì)算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上A、結(jié)構(gòu)化B、非結(jié)構(gòu)化C、對(duì)稱化D、規(guī)則化答案:B101.關(guān)于貝葉斯網(wǎng)描述錯(cuò)誤的是(___)A、也稱為信念網(wǎng);B、借助有向無環(huán)圖刻畫屬性之間的關(guān)系;C、借助無向無環(huán)圖刻畫屬性之間的關(guān)系;D、用條件概率表來描述屬性的聯(lián)合概率分布;答案:C102.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(____)重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以答案:B103.使用似然函數(shù)的目的是什么()A、求解目標(biāo)函數(shù)B、得到最優(yōu)數(shù)據(jù)樣本C、找到最合適數(shù)據(jù)的參數(shù)D、改變目標(biāo)函數(shù)分布答案:C104.網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、ReluB、SigmoidC、tanhD、Softsign答案:A105.下列關(guān)于K-Means聚類說法錯(cuò)誤的是()A、聚類的簇個(gè)數(shù)會(huì)由模型自動(dòng)給出B、可以使用多組隨機(jī)的初始中心點(diǎn)進(jìn)行計(jì)算C、聚類前應(yīng)當(dāng)進(jìn)行維度分析D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化答案:A106.下列哪一項(xiàng)不是常見的機(jī)器學(xué)習(xí)模型正則化方法。A、數(shù)據(jù)優(yōu)化B、數(shù)據(jù)增強(qiáng)C、模型集成D、引入?yún)?shù)范數(shù)懲罰項(xiàng)答案:A107.為什么不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識(shí)別問題:A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長(zhǎng),有的序列短B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)C、全連接網(wǎng)絡(luò)的層次太深導(dǎo)致梯度消失,所以不能處理序列問題D、命名實(shí)體識(shí)別問題是一個(gè)無法解決的問題,全連接網(wǎng)絡(luò)也不能解決這個(gè)問題答案:A108.關(guān)于K均值和DBSCAN的比較,以下說法不正確的是()。A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象。B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇。答案:A109.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)答案:D110.以下哪種情況說明模型出現(xiàn)了過擬合()A、模型對(duì)訓(xùn)練集擬合程度高,對(duì)測(cè)試集擬合程度高B、模型對(duì)訓(xùn)練集擬合程度高,對(duì)測(cè)試集擬合程度低C、模型對(duì)訓(xùn)練集擬合程度低,對(duì)測(cè)試集擬合程度高D、模型對(duì)訓(xùn)練集擬合程度低,對(duì)測(cè)試集擬合程度低答案:B111.通常池化操作的效果是:A、使圖片變大B、使圖片變小C、使圖片變成三角形D、使圖片變成圓形答案:B112.下列神經(jīng)網(wǎng)絡(luò)的組織特性描述錯(cuò)誤的是(___)A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實(shí)世界物體C、面向仿真環(huán)境物體D、作出交互反應(yīng)答案:C113.將訓(xùn)練集隨機(jī)等分為k份,選擇其中的1份為測(cè)試集,另外k-1份作為訓(xùn)練集進(jìn)行訓(xùn)練,進(jìn)而可以進(jìn)行k次訓(xùn)練和測(cè)試,最后返回這k個(gè)測(cè)試結(jié)果的均值,這種評(píng)估模型的方法叫做(____)。A、留一交叉驗(yàn)證B、留出法C、自助法D、k折交叉驗(yàn)證答案:D114.在pytorch中,設(shè)模型變量名為model,則對(duì)model.eval()的描述正確的是A、model.eval()可以在模型訓(xùn)練階段使用B、model.eval()只能在模型測(cè)試階段使用C、model.eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用D、model.eval()在模型訓(xùn)練、模型驗(yàn)證、模型測(cè)試階段都可以使用答案:C115.如果問題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到該最優(yōu)解,()可以認(rèn)為是“智能程度相對(duì)比較高”的算法。A、無界深度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:D116.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗(yàn)概率答案:A117.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D118.關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、一種競(jìng)爭(zhēng)學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò);B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu);C、SMO尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重;D、輸出層神經(jīng)元以矩陣方式排列在二維空間;答案:C119.邏輯回歸的損失函數(shù)是下列哪一種?()A、平方損失函數(shù)B、對(duì)數(shù)損失函數(shù)C、HingeD、絕對(duì)值損失函數(shù)答案:B120.Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()A、設(shè)為0B、設(shè)為無窮大C、不定義D、設(shè)為任意值答案:A121.以下哪一個(gè)不屬于分類算法A、XGBoostB、RandomC、SVMD、Fp-Growth答案:D122.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測(cè)未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)答案:D123.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、cbaedD、dcaeb答案:D124.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對(duì)等法則D、歸一法則答案:A125.以下關(guān)于L1正則化和L2正則化的說法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項(xiàng)B、L1范數(shù)符合拉普拉斯分布,是完全可微的C、L1正則化項(xiàng)是模型各個(gè)參數(shù)的平方和的開方值D、L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個(gè)稀疏模型,可以用于特征選擇答案:D126.TF-IDF模型中,TF意思是詞頻,IDF意思是()。A、文本頻率指數(shù);B、逆文本頻率指數(shù)C、詞頻指數(shù)D、逆詞頻指數(shù)答案:B127.機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()A、參數(shù)預(yù)估B、機(jī)器翻譯C、圖像識(shí)別D、參數(shù)估計(jì)答案:D128.關(guān)于MNIST,下列說法錯(cuò)誤的是()。A、是著名的手寫體數(shù)字識(shí)別數(shù)據(jù)集B、有訓(xùn)練集和測(cè)試集兩部分C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽答案:C129.下列哪項(xiàng)不是SVM的優(yōu)勢(shì)A、可以和核函數(shù)結(jié)合B、通過調(diào)參可以往往可以得到很好的分類效果C、訓(xùn)練速度快D、泛化能力好答案:C130.ResNet-50有多少個(gè)卷積層?()A、48B、49C、50D、51答案:B131.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logD、O(m*log答案:B132.決策樹模型剛建立時(shí),有很多分支都是根據(jù)訓(xùn)練樣本集合中的異常數(shù)據(jù)(由于噪聲等原因)構(gòu)造出來的。樹枝修剪正是針對(duì)這類數(shù)據(jù)()問題而提出來的。A、近似B、相同C、不同D、差距答案:A133.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是A、CNNB、LSTMC、GRUD、RNN答案:D134.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過程中,通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問下面哪個(gè)參數(shù)不是通過誤差后向傳播來優(yōu)化的A、卷積濾波矩陣中的參數(shù)B、全連接層的鏈接權(quán)重C、激活函數(shù)中的參數(shù)D、模型的隱藏層數(shù)目答案:D135.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)答案:C136.LARS屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式答案:C137.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面哪個(gè)功能不是神經(jīng)元所能夠完成的功能A、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加B、對(duì)加權(quán)累加信息進(jìn)行非線性變化(通過激活函數(shù))C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞答案:C138.下列哪一個(gè)不是無約束算法。A、梯度下降法B、擬牛頓法C、啟發(fā)式優(yōu)化方法D、EM算法答案:D139.BineryCrossEntropy可作為()問題的損失函數(shù)。A、回歸B、二分類C、多分類D、目標(biāo)檢測(cè)答案:B140.按照類別比例分組的k折用的是哪個(gè)函數(shù)()A、RepeatedKFoldB、StratifiedKFoldC、LeavePOutD、GroupKFold答案:B141.()函數(shù)一般用在多分類問題中,它是對(duì)邏輯斯蒂回歸logistic的一種推廣,也被稱為多項(xiàng)式邏輯斯蒂回歸模型。A、ReluB、softmaxC、TanhD、sigmoid答案:B142.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說法,錯(cuò)誤的是()A、學(xué)習(xí)率太小,更新速度慢B、學(xué)習(xí)率過大,可能跨過最優(yōu)解C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過程中更改答案:C143.在強(qiáng)化學(xué)習(xí)過程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種結(jié)果;()表示采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前認(rèn)為最優(yōu)的動(dòng)作的值。A、探索;開發(fā)B、開發(fā);探索C、探索;輸出D、開發(fā);輸出答案:A144.Matplotlib是一個(gè)主要用于繪制()維圖形的Python庫(kù),用途:繪圖、可視化。A、一B、二C、三D、四答案:B145.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和()A、平移B、刪除C、移動(dòng)D、收斂答案:A146.對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說法正確的是A、均方根誤差接近1最好B、均方根誤差越大越好C、決定系數(shù)越接近1越好D、決定系數(shù)越接近0越好答案:C147.以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法()。A、STINGB、WavelusterC、MAFID、IRH答案:D148.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用答案:C149.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測(cè)值和輸出不一致,則調(diào)整權(quán)重4對(duì)一個(gè)輸入樣本,計(jì)算輸出值A(chǔ)、1,2,3,4B、4,3,2,1C、3,1,2,4D、1,4,3,2答案:D150.“文檔”是待處理的數(shù)據(jù)對(duì)象,它由一組詞組成,這些詞在文檔中不計(jì)順序的額,例如一篇論文、一個(gè)網(wǎng)頁都可以看做一個(gè)文檔;這樣的表示方式稱為(___)?A、語句B、詞袋C、詞海D、詞塘答案:B151.回歸分析中定義的()A、解釋變量和被解釋變量都是隨機(jī)變量B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量C、解釋變量和被解釋變量都為非隨機(jī)變量D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量答案:B152.關(guān)于語言建模任務(wù),以下描述不正確的是:A、語言建模任務(wù)指的是給定前一個(gè)單詞去預(yù)測(cè)文本中的下一個(gè)單詞。B、可能是比較簡(jiǎn)單的語言處理任務(wù),具體的實(shí)際應(yīng)用場(chǎng)景包括:智能鍵盤、電子郵件回復(fù)建議、拼寫自動(dòng)更正等。C、比較經(jīng)典的方法基于n-grams?D、不可使用平滑處理不可見的n-grams。答案:D153.()采用多種樂器的音頻數(shù)據(jù),可融合多種國(guó)家、樂曲風(fēng)格和樂器音色的特征,創(chuàng)作音樂作品。A、XLNetB、GoogleNetC、MuseNetD、AlexNet答案:C154.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、上述都正確答案:D155.FOIL是(___)的學(xué)習(xí)算法A、命題規(guī)則B、剪枝優(yōu)化C、一階規(guī)則D、序貫覆蓋答案:C156.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標(biāo)簽答案:B157.深度學(xué)習(xí)系統(tǒng)中,如果參數(shù)數(shù)量非常龐大不會(huì)出現(xiàn):A、運(yùn)算精度必然高B、運(yùn)算速度慢C、內(nèi)存使用多D、訓(xùn)練困難答案:A158.GoogLeNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度答案:A159.循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)③.梯度爆炸④.維數(shù)災(zāi)難A、①③④B、①②③C、①③④D、①②④答案:B160.從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹?,這樣的作法稱為(___)A、策略迭代B、值迭代C、策略改進(jìn)D、最優(yōu)值函數(shù)答案:A161.一對(duì)一分類器,k個(gè)類別需要多少個(gè)SVM?A、k(k-1)/2B、k(k-1)C、k(k-2);(k-1)(k-2)答案:A162.下列哪個(gè)算法可以用于特征選擇(___)A、樸素貝葉斯B、感知器C、支持向量機(jī)D、決策樹答案:D163.關(guān)于集成學(xué)習(xí),以下說法錯(cuò)誤的是A、集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能B、Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立C、Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法D、Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴答案:A164.以才哪種組合在CNN不常見A、conv+reluB、conv+relu+poolC、conv+relu+pool+fcD、conv+k-means答案:D165.在強(qiáng)化學(xué)習(xí)的過程中,學(xué)習(xí)率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大;小B、大;大C、小;小D、小;大答案:A166.下列關(guān)于特征選擇的說法錯(cuò)誤的是(___)A、可以提高特征關(guān)聯(lián)性B、可以減輕維數(shù)災(zāi)難問題C、可以降低學(xué)習(xí)任務(wù)的難度D、特征選擇和降維具有相似的動(dòng)機(jī)答案:A167.關(guān)于反向傳播,以下說法錯(cuò)誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會(huì)經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:A168.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?A、ReLUB、tanhC、SIGMOIDD、以上都不是答案:B169.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了()導(dǎo)致單元內(nèi)的處理過程不同。A、輸入門B、記憶門C、忘記門D、輸出門答案:C170.使用一個(gè)滑動(dòng)窗口對(duì)語料()掃描,在每個(gè)窗口內(nèi),中心詞需要預(yù)測(cè)它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從左到右B、從上到下C、從右到左D、從下到上答案:A171.Inception模塊采用()的設(shè)計(jì)形式,每個(gè)支路使用()大小的卷積核。A、多通路,不同B、單通路,不同C、多通路,相同D、單通路,相同答案:A172.對(duì)于給定的關(guān)于天氣信息的數(shù)據(jù)集,已知空氣的溫度、濕度、氣壓、是否降雨以及pm2.5指數(shù),需要建立一個(gè)回歸模型預(yù)測(cè)pm2.5指數(shù),這是一個(gè)()。A、半監(jiān)督學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、有監(jiān)督的學(xué)習(xí)答案:D173.關(guān)于Boosting,Bagging和隨機(jī)森林,以下說法錯(cuò)誤的是(___)A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機(jī)森林簡(jiǎn)單、容易實(shí)現(xiàn)、計(jì)算開銷小D、Boosting不能基于泛化性能相當(dāng)弱的學(xué)習(xí)器構(gòu)建出很強(qiáng)的集成答案:D174.Iou表示的是()A、兩個(gè)框之間的重疊程度B、兩個(gè)框的總面積C、兩個(gè)框的相對(duì)大小D、一個(gè)框面積與周長(zhǎng)比值答案:A175.留出法直接將數(shù)據(jù)集劃分為(___)個(gè)互斥的集合。A、一B、二C、三D、四答案:B176.關(guān)于wordembedding下列敘述正確的是①.向量維數(shù)較低②.向量之間有更強(qiáng)的相關(guān)關(guān)系③.向量不再是稀疏的④.向量中的值更容易計(jì)算A、①③④B、①②③C、①③④D、①②④答案:B177.DBSCAN算法將“簇”定義為:由()導(dǎo)出的最大的密度相連樣本集合。A、密度直達(dá)關(guān)系B、密度可達(dá)關(guān)系C、密度相連關(guān)系答案:B178.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?A、GloVeB、BERTC、OpenAI'sGPTD、ULMFit答案:C179.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長(zhǎng)序列。A、SLTMB、SLMTC、LSMTD、LSTM答案:D180.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可以做特征選擇答案:A181.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率答案:C182.比較成熟的分類預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線性模型、()、神經(jīng)網(wǎng)絡(luò)A、決策樹B、arima模型C、holt-winter模型D、k-means模型答案:A183.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization)(2)潛在語義索引(LatentSemanticIndexing)(3)隱狄利克雷分布(LatentDirichletAllocation)A、只有(1)B、(2)、(3)C、(1)、(3)D、(1)、(2)、(3)答案:D184.我們?cè)谟?xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?A、樣本數(shù)目B、特征值C、超參數(shù)D、參數(shù)答案:D185.rcnn網(wǎng)絡(luò)用()結(jié)構(gòu)生成候選框?A、RPNB、NMSC、SelectiveSearchD、RCNN答案:C186.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)在于()A、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對(duì)序列的每個(gè)元素進(jìn)行不同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對(duì)答案:A187.在K-mean或Knn中,是采用哪種距離計(jì)算方法?A、曼哈頓距離B、切比雪夫距離C、歐式距離D、閔氏距離答案:C188.馬爾可夫性質(zhì)強(qiáng)調(diào)在每一個(gè)動(dòng)作狀態(tài)序列中,下一個(gè)狀態(tài)與()有關(guān)。A、外部影響B(tài)、主體內(nèi)因C、歷史狀態(tài)D、當(dāng)前狀態(tài)答案:D189.以下哪些算法是分類算法()A、DBSCANB、C4.5C、K-MeanD、EM答案:B190.在pytorch中,如果主機(jī)有1塊TitanX顯卡,以下哪個(gè)選項(xiàng)中的代碼都可以將變量名為var的tensor放在GPU上運(yùn)行A、var=var.to("cuda:0")、var=var.to("cuda:1")B、var=var.to("cuda:1")C、var=var.cuda()、var=var.to("cuda:0")D、var=var.cuda()、var=var.to("cuda:1")答案:C191.假設(shè)一個(gè)具有3個(gè)神經(jīng)元和輸入為[1,2,3]的簡(jiǎn)單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個(gè)線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?A、32B、643C、96D、48答案:C192.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x答案:D193.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B194.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機(jī)森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法答案:B195.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachine)。與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(duì)(___)問題的學(xué)習(xí)方法?A、分類B、回歸C、聚類D、二分類答案:D196.長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下文而定,而不是固定的。A、自增加B、自循環(huán)C、自遞歸D、自減少答案:B197.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:A、完全拷貝B、一點(diǎn)點(diǎn)關(guān)系都沒有C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)D、同一事物的兩個(gè)名稱答案:C198.下列關(guān)于核函數(shù)的表述正確的是A、核函數(shù)即特征的映射關(guān)系B、多項(xiàng)式核函數(shù)只是將原始特征映射,并沒有升維C、高斯核函數(shù)將特征映射到無窮維D、使用線性核函數(shù)的SVM是非線性分類器答案:C199.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:A200.用Tensorflow處理圖像識(shí)別任務(wù)時(shí),若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項(xiàng)均不正確答案:B201.使用一組槽來描述事件的發(fā)生序列,這種知識(shí)表示法叫做()A、語義網(wǎng)絡(luò)法B、過程表示法C、劇本表示法D、框架表示法答案:C202.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是A、在實(shí)際場(chǎng)景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合答案:C203.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?A、不知道B、看情況C、是D、否答案:C204.在不考慮標(biāo)記樣本時(shí),支持向量機(jī)試圖找到(___)間隔劃分超平面A、最大B、最小C、最長(zhǎng)D、最短答案:A205.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越(),也即越來越能表現(xiàn)語義或者意圖。A、具體和形象化B、抽象和概念化C、具體和概念化D、抽象和具體化答案:B206.搜索可以分為盲從搜索與A、啟發(fā)式搜索B、模糊搜索C、精確搜索D、關(guān)鍵詞搜索答案:A207.考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來完成訓(xùn)練。而在測(cè)試過程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌伲緼、少于2sB、大于2sC、仍是2sD、說不準(zhǔn)答案:C208.一條規(guī)則形如:,其中“←"右邊的部分稱為(___)A、規(guī)則長(zhǎng)度B、規(guī)則頭C、布爾表達(dá)式D、規(guī)則體答案:D209.支持向量機(jī)(SVM)中的代價(jià)參數(shù)C表示什么?()A、交叉驗(yàn)證的次數(shù)B、用到的核函數(shù)C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡D、以上都不對(duì)答案:C210.哪個(gè)不是常用的聚類算法()。A、K-MeansB、DBSCANC、GMMsD、Softmax答案:D211.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,()也是學(xué)習(xí)跟新的重要內(nèi)容A、learning_rateB、stepC、weightD、padding答案:C212.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對(duì)答案:A213.欠擬合會(huì)出現(xiàn)高()問題A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差答案:C214.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()可以認(rèn)為在這幾種算法中是“智能程度相對(duì)比較高”的算法。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:D215.下列哪個(gè)函數(shù)不可以做激活函數(shù)?A、yB、yC、yD、y=2x答案:D216.用搜索法對(duì)問題求解時(shí),一個(gè)問題可以形式化地定義為四個(gè)組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測(cè)試和()A、功率B、路徑代價(jià)C、算法D、完備性答案:B217.語音是一種典型的()數(shù)據(jù)。A、無結(jié)構(gòu)無序列B、有結(jié)構(gòu)序列C、無結(jié)構(gòu)序列D、有結(jié)構(gòu)無序列答案:C218.Relief屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式答案:D219.自然語言中的詞語需要轉(zhuǎn)化為計(jì)算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),通常會(huì)把自然語言中的詞語轉(zhuǎn)化為以下哪種數(shù)據(jù)結(jié)構(gòu):A、標(biāo)量B、向量C、結(jié)構(gòu)體D、有向圖答案:B220.關(guān)于支持向量機(jī),哪項(xiàng)說法不正確()A、支持向量機(jī)可以用于處理二分類及多分類問題B、支持向量機(jī)只能用于線性可分的分類問題C、支持向量機(jī)可用于回歸問題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大答案:B221.()曲線以precision、recall為橫縱坐標(biāo)A、AP曲線B、PR曲線C、mAP曲線D、RoI曲線答案:B222.關(guān)于遞歸函數(shù)基例的說明,以下選項(xiàng)中錯(cuò)誤的是A、遞歸函數(shù)必須有基例B、遞歸函數(shù)的基例不再進(jìn)行遞歸C、每個(gè)遞歸函數(shù)都只能有一個(gè)基例D、遞歸函數(shù)的基例決定遞歸的深度答案:C223.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的冪,如256或512。它背后的原因是什么?()A、Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練更快。B、Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理。C、不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的D、以上說法都不對(duì)答案:B224.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了減少訓(xùn)練時(shí)間,我們可以A、增加樹的深度B、增大學(xué)習(xí)率(LearninC、對(duì)決策樹模型進(jìn)行預(yù)剪枝D、減少樹的數(shù)量答案:C225.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、卷積操作B、池化操作C、全連接層D、均方誤差損失函數(shù)答案:D226.線性判別分析設(shè)法將樣例投影到(___)直線上,使得同類樣例的投影點(diǎn)盡可能(___)。A、一條;接近B、兩條;接近C、一條;遠(yuǎn)離D、兩條;原理答案:A227.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D228.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、不存在一對(duì)一的模型結(jié)構(gòu)B、反向傳播時(shí)不考慮時(shí)間方向C、不存在多對(duì)多的模型結(jié)構(gòu)D、會(huì)出現(xiàn)長(zhǎng)時(shí)間傳輸記憶的信息衰減的問題答案:D229.LSTM是一種什么網(wǎng)絡(luò)?A、卷積神經(jīng)網(wǎng)B、前饋神經(jīng)網(wǎng)C、循環(huán)神經(jīng)網(wǎng)D、孿生網(wǎng)絡(luò)答案:C230.下面的問題,屬于分類問題的是;A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工在接下來一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的銷售額答案:C231.下列神經(jīng)網(wǎng)絡(luò)特點(diǎn)描述錯(cuò)誤的是(___)A、適應(yīng)性B、由簡(jiǎn)單單元組成C、廣泛并行互連的網(wǎng)絡(luò)D、線性特性答案:D232.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)答案:A233.()的數(shù)目通常也被稱作卷積核的個(gè)數(shù)A、通道B、輸入通道C、輸入維度D、輸出通道答案:D234.在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是()A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測(cè)分辨率很小的人臉D、需要檢測(cè)不同性別的人臉答案:D235.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、不斷遞歸而衰退B、不斷遞歸而增強(qiáng)C、先增強(qiáng)后減弱D、先減弱后增強(qiáng)答案:A236.()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例的投影點(diǎn)盡可能接近、異類樣例投影點(diǎn)盡可能遠(yuǎn)離;在對(duì)新樣本進(jìn)行分類時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來確定樣本的類別.A、多分類學(xué)習(xí)B、對(duì)數(shù)幾率回歸C、線性判別分析D、多分類學(xué)習(xí)答案:C237.測(cè)試集應(yīng)盡可能與訓(xùn)練集(___)。A、相容B、相等C、互斥D、包含答案:C238.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是“predictio”(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A239.在主成分分析中,將幾個(gè)主分量經(jīng)過線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。A、每個(gè)主分量的方差B、每個(gè)主分量的標(biāo)準(zhǔn)差C、每個(gè)主分量的方差貢獻(xiàn)率D、每個(gè)主分量的貢獻(xiàn)率答案:C240.以下剪枝算法中性能最好的是A、REPB、IREPC、RIPPERD、CN2答案:C241.產(chǎn)生式系統(tǒng)的推理不包括()A、正向推理B、逆向推理C、雙向推理D、簡(jiǎn)單推理答案:D242.下列哪一個(gè)不是神經(jīng)網(wǎng)絡(luò)的代表A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost答案:D243.Inception模塊可以并行執(zhí)行多個(gè)具有不同尺度的卷積運(yùn)算或池化操作,下列網(wǎng)絡(luò)運(yùn)用Inception的是()A、VGGB、GoogLeNetC、fast-RCNND、faster-RCNN答案:B244.下列哪個(gè)不是激活函數(shù)()。A、sigmodB、reluC、tanhD、hidden答案:D245.下列選項(xiàng)中,是合頁損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))答案:B246.做一個(gè)二分類預(yù)測(cè)問題,先設(shè)定閾值為0.5,概率不小于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面說法正確的是()。A、增加閾值不會(huì)提高召回率B、增加閾值會(huì)提高召回率C、增加閾值不會(huì)降低查準(zhǔn)率D、增加閾值會(huì)降低查準(zhǔn)率答案:A247.對(duì)于一個(gè)圖像識(shí)別問題,下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、自動(dòng)編碼機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D248.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法是正確的?A、增加樹的深度B、增加學(xué)習(xí)率C、減小樹的深度D、減少樹的數(shù)量答案:C249.以下不屬于聚類算法的是()。A、K均值B、SANC、AprioriD、Jarvis-Patrik(JP)答案:C250.Adaboost就是從()出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強(qiáng)分類器C、多個(gè)分類器D、單個(gè)分類器答案:A251.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①③B、①②③C、②③D、①②答案:B252.()適合連續(xù)特征,它假設(shè)每個(gè)特征對(duì)于每個(gè)類都符合正態(tài)分布。A、GaussianNBB、BernoulliNBC、MultinomialNBD、BaseDiscreteNB答案:A253.下面不是超參數(shù)的是:A、權(quán)重和偏置B、學(xué)習(xí)率C、mini-batch的大小D、網(wǎng)絡(luò)結(jié)構(gòu)答案:A254.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重答案:C255.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來解決車輛檢測(cè)問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個(gè)模型來解決另外一個(gè)問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。()A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對(duì)答案:B256.無監(jiān)督學(xué)習(xí)需要()A、學(xué)習(xí)程序自己形成和評(píng)價(jià)概念,沒有教師B、學(xué)習(xí)程序在教師監(jiān)督下形成和評(píng)價(jià)概念C、學(xué)習(xí)程序有時(shí)需要教師,有時(shí)不需要教師,以形成和評(píng)價(jià)概念D、以上說法都不對(duì)答案:A257.下列哪個(gè)不屬于特征的類型(___)A、關(guān)鍵特征B、冗余特征C、相關(guān)特征D、無關(guān)特征答案:A258.以下哪一個(gè)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說法是錯(cuò)誤的A、AlexNet是一個(gè)八層的卷積神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)中的建模學(xué)習(xí),學(xué)習(xí)對(duì)象是每一層神經(jīng)元的值C、目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD的網(wǎng)絡(luò)結(jié)構(gòu)中包含卷積層D、典型的卷積神經(jīng)網(wǎng)絡(luò),卷積層、池化層、激活層、全連接成等組成答案:B259.ONE-HOT-ENCODING可用于什么特征處理A、類別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征答案:A260.語義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識(shí)的A、無悖性B、可擴(kuò)充性C、繼承性D、連貫性答案:C261.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈(___)_下降,最終趨向于零A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線性級(jí)D、平方級(jí)答案:A262.()是用來評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降答案:A263.在線性回歸算法中,我們認(rèn)為誤差項(xiàng)是符合什么分布的()A、高斯分布B、均勻分布C、二項(xiàng)分布D、泊松分布答案:A264.基于統(tǒng)計(jì)的異常點(diǎn)檢測(cè)算法不包括A、基于正態(tài)分布的異常點(diǎn)檢測(cè)算法B、基于距離的異常點(diǎn)檢測(cè)算法C、3δ原則D、簡(jiǎn)單統(tǒng)計(jì)分析答案:B265.以下激活函數(shù)中,不具有“正向無邊界”特征的是?A、ReLUB、SigmoidC、softplusD、Mish答案:B266.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動(dòng)車車牌識(shí)別系統(tǒng)。A、圖像變換B、圖像增強(qiáng)C、圖像分割D、圖像復(fù)原答案:C267.感知機(jī)描述錯(cuò)誤的是:(___)A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B、輸入層接收外界輸入信號(hào)傳遞給輸出層;C、輸出層是M-P神經(jīng)元;D、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算;答案:A268.下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理?()A、DecisionTreeB、SVMC、KmeansD、LogisticRegression答案:A269.在中期圖像識(shí)別技術(shù)(2003-2012)中,索引的經(jīng)典模型是()。A、口袋模型B、詞袋模型C、膠囊模型D、增量模型答案:B270.CNN不具有以下那個(gè)特性。A、局部連接B、權(quán)值共享C、空間或時(shí)間上的下采樣D、不定長(zhǎng)輸入答案:D271.半監(jiān)督學(xué)習(xí)包括。A、主動(dòng)學(xué)習(xí)B、回歸學(xué)習(xí)C、聚類學(xué)習(xí)D、直推學(xué)習(xí)答案:D272.()是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來代替網(wǎng)絡(luò)在該位置的輸出A、卷積B、約化C、池化D、批歸一化答案:C273.混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1/4B、1/2C、4/7D、2/3答案:D274.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割答案:D275.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后(___)對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。A、自上而下B、在劃分前C、禁止分支展開D、自底向上答案:D276.在scikit-learn中,DBSCAN算法對(duì)于()參數(shù)值的選擇非常敏感A、pB、epsC、n_jobsD、algorithm答案:B277.深度學(xué)習(xí)系統(tǒng)訓(xùn)練過程通常需要輸入:A、特征值B、標(biāo)簽C、特征值和標(biāo)簽D、預(yù)測(cè)值答案:C278.代碼arr5=np.arange(0,6).reshape([2,3]);print(arr5[1,:])的輸出結(jié)果是()?A、[0B、[3C、[2D、[0答案:B279.EM算法是()A、有監(jiān)督B、無監(jiān)督C、半監(jiān)督D、都不是答案:B280.關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個(gè)很淺的網(wǎng)絡(luò)B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開了思路C、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個(gè)版本D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計(jì)結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)答案:B281.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的類型,稱為什么?A、給定標(biāo)簽B、離散C、分類D、回歸答案:D282.強(qiáng)化學(xué)習(xí)在每個(gè)時(shí)刻環(huán)境和個(gè)體都會(huì)產(chǎn)生相應(yīng)的交互。個(gè)體可以采取一定的(),這樣的行動(dòng)是施加在環(huán)境中的。A、actionB、rewardC、stateD、agent答案:A283.通過以下哪些指標(biāo)我們可以在層次聚類中尋找兩個(gè)集群之間的差異?()A、單鏈接B、全鏈接C、均鏈接D、以上都行答案:D284.獨(dú)熱編碼的缺點(diǎn)是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲(chǔ)A、③④B、①②C、①③D、②④答案:B285."維數(shù)災(zāi)難"指的是:()A、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難的問題,給機(jī)器學(xué)習(xí)方法造成的障礙。B、因在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難的問題,給機(jī)器學(xué)習(xí)方法造成的障礙。C、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難的問題,給機(jī)器學(xué)習(xí)方法造成的障礙。D、因在高維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難的問題,給機(jī)器學(xué)習(xí)方法造成的障礙。答案:B286.學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱為(___)。A、錯(cuò)誤率B、精度C、誤差D、查準(zhǔn)率答案:C287.下述()不是人工智能中常用的知識(shí)格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語義網(wǎng)絡(luò)表示法D、形象描寫表示法答案:D288.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)答案:A289.如果處理以下形狀的數(shù)據(jù)時(shí),適宜采用DBSCAN的是A、球形B、SS形C、橢球形D、方形答案:B290.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過程,須有一定的機(jī)制來緩解過擬合的風(fēng)險(xiǎn),最常見的做法是(___)A、序列化B、剪枝C、去重D、重組答案:B291.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、BGDC、MGDD、MBGD答案:A292.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1×1024的NumPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個(gè)字符值存儲(chǔ)在NumPy數(shù)組中,最后返回?cái)?shù)組。請(qǐng)問填充在空白處的代碼應(yīng)該是哪個(gè)。defimg2vector(filename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):______________________________forjinrange(32):returnVect[0,32*i+j]=int(lineStr[j])returnreturnVectA、lineStr=fr.readlines()B、lineStr=fr.read_line()C、lineStr=readline()D、lineStr=fr.readline()答案:D293.LSTM單元中引入了哪些門來更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門答案:A294.在模型中全連接層可采用A、paddle.nn.LinearB、paddle.nn.Conv2DC、paddle.nn.MaxPool2DD、paddle.nn.ReLU答案:A295.循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因?yàn)椋篈、序列中的元素是無關(guān)的B、序列中的元素蘊(yùn)含著順序的規(guī)律C、序列中的元素都是隨機(jī)出現(xiàn)的D、序列中的元素都來自同一個(gè)數(shù)據(jù)源答案:B296.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題()A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核答案:D297.下面關(guān)于SVM中核函數(shù)的說法正確的是?()A、核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間B、它是一個(gè)相似度函數(shù)C、A、B都對(duì)D、A、B都不對(duì)答案:C298.K折法是下列哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:B299.圖像分類任務(wù)是一個(gè)計(jì)算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運(yùn)算③.盡量使用前人探索的有成功經(jīng)驗(yàn)的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計(jì)編寫網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①③B、①②③C、②③D、①②答案:C300.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過(___)來利用監(jiān)督信息以獲得更好的聚類效果。A、監(jiān)督聚類B、半監(jiān)督聚類C、聚類D、直推聚類答案:B301.在卷積操作過程中計(jì)算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核大小為3*3,卷積窗口移動(dòng)的步長(zhǎng)為1,則featuremaps的大小是()個(gè)元素?A、78400B、88804C、91204D、99856答案:B302.下面關(guān)于Jarvis-Patrik(JP)聚類算法的說法不正確的是()。A、JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。B、JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇。C、JP聚類是基于SNN相似度的概念。D、JP聚類的基本時(shí)間復(fù)雜度為O(m)。答案:D303.蒙特卡羅強(qiáng)化學(xué)習(xí)算法的本質(zhì),是通過多次嘗試后求平均來作為期望累計(jì)獎(jiǎng)賞的金絲,但它在求平均時(shí)是采用哪種方式進(jìn)行?A、逐一式B、循環(huán)式C、分組式D、批處理答案:D304.在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大?A、多項(xiàng)式階數(shù)B、更新權(quán)重C、使用常數(shù)項(xiàng)答案:A305.下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說法,正確的是:A、最小二乘法是通過最小化預(yù)測(cè)值y和真實(shí)的y在訓(xùn)練數(shù)據(jù)上的誤差來尋找最優(yōu)解的方法B、當(dāng)自變量X的特征很多的時(shí)候,使用最小二乘法可以求得最優(yōu)解C、最小二乘法是通過求導(dǎo)來找出最優(yōu)解,是一種迭代的方法D、使用最小二乘法求最優(yōu)解比梯度下降方法好答案:A306.有關(guān)機(jī)器學(xué)習(xí)分類算法的Precision和Recall,以下定義中正確的是(假定tp=truepositive,tn=truenegative,fp=falsepositive,fn=falsenegative)()A、Precision=tp/(tp+fp),Recall=tp/(tp+fn)B、Precision=tp/(tn+fp),Recall=tp/(tp+fn)C、Precision=tp/(tn+fn),Recall=tp/(tp+fp)D、Precision=tp/(tp+fp),Recall=tp/(tn+fn)答案:A3
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030中國(guó)家庭陪護(hù)行業(yè)應(yīng)用趨勢(shì)預(yù)測(cè)及投資戰(zhàn)略研究研究報(bào)告
- 2025-2030自動(dòng)窗系統(tǒng)市場(chǎng)供需分析及未來發(fā)展態(tài)勢(shì)剖析研究報(bào)告
- 分子病理技術(shù)
- 超市服務(wù)禮儀培訓(xùn)
- 2025-2030細(xì)胞培養(yǎng)肉技術(shù)突破節(jié)點(diǎn)預(yù)測(cè)與消費(fèi)者接受度地域差異研究
- 2025-2030細(xì)胞治療產(chǎn)業(yè)化進(jìn)程與生物醫(yī)藥園區(qū)集群效應(yīng)評(píng)估
- 2025-2030細(xì)胞培養(yǎng)肉規(guī)模化生產(chǎn)瓶頸突破與法規(guī)進(jìn)展報(bào)告
- 2025-2030細(xì)胞培養(yǎng)肉技術(shù)成熟度與商業(yè)化前景預(yù)測(cè)分析報(bào)告
- 2025-2030紙張廢棄物回收行業(yè)市場(chǎng)供需包裝分析及投資下沉規(guī)劃分析研究報(bào)告
- 2025-2030纖維增強(qiáng)復(fù)合材料行業(yè)市場(chǎng)供需分析發(fā)展投資評(píng)估規(guī)劃調(diào)研報(bào)告
- 工程部物業(yè)消防知識(shí)培訓(xùn)課件
- 江西省婺源縣聯(lián)考2026屆數(shù)學(xué)七年級(jí)第一學(xué)期期末學(xué)業(yè)水平測(cè)試試題含解析
- 2025至2030水蛭素產(chǎn)品行業(yè)發(fā)展研究與產(chǎn)業(yè)戰(zhàn)略規(guī)劃分析評(píng)估報(bào)告
- 非煤礦山安全員題庫(kù)及答案解析
- 餐飲連鎖加盟店標(biāo)準(zhǔn)運(yùn)營(yíng)手冊(cè)
- 軍人翻墻導(dǎo)致的危害課件
- 園區(qū)運(yùn)營(yíng)年終匯報(bào)
- 數(shù)據(jù)中心設(shè)備采購(gòu)管理實(shí)施計(jì)劃
- (2025年標(biāo)準(zhǔn))公司基地農(nóng)戶協(xié)議書
- 2025時(shí)事政治必考題50題(含答案)
- 新消防法宣貫課件內(nèi)容
評(píng)論
0/150
提交評(píng)論