版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
人工智能核心算法習題庫+參考答案1、下列關(guān)于Ridge回歸,說法正確的是(多選)?A、若λ=0,則等價于一般的線性回歸B、若λ=0,則不等價于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無窮大答案:AC2、以下哪些機器學習算法可以不對特征做歸一化處理:()A、隨機森林B、邏輯回歸C、SVMD、GBDT答案:AD3、生成對抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強B、語義分割C、信息檢索D、圖像生成答案:ABCD4、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN是()和()兩種人工神經(jīng)網(wǎng)絡(luò)的總稱。A、長度遞歸神經(jīng)網(wǎng)絡(luò)B、時間遞歸神經(jīng)網(wǎng)絡(luò)C、偏差遞歸神經(jīng)網(wǎng)絡(luò)D、結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)答案:BD5、下列哪些技術(shù)已被用于文本分類()A、文本卷積B、注意力機制C、GRUD、BiLSTM答案:ABCD6、以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當前層自身作為輸入()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、LSTM網(wǎng)絡(luò)D、多層感知機答案:AC7、關(guān)于邏輯回歸正確的是()A、風險控制是金融領(lǐng)域最核心的問題,邏輯回歸是在風險評估中最經(jīng)典常用的方法B、邏輯回歸可以用到互聯(lián)網(wǎng)廣告點擊預測C、邏輯回歸只能用于解決二分類問題D、以上都不對答案:AB8、參數(shù)學習過程中若采用梯度下降法,梯度為負:()W,梯度為正:()WA、增加B、取反C、減小D、取整答案:AC9、按照處理文本的粒度不同,情感分析大致可分為()、()、()三個研究層次。A、詞語級B、句子級C、篇章級D、章節(jié)級答案:ABC10、DecisionTree構(gòu)造的重要步驟。A、特征選擇B、決策樹生成C、剪枝D、計算信息增益答案:ABC11、CRF模型對于HMM和MEMM模型的優(yōu)勢包括以下哪些?A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優(yōu)答案:ACD12、深度卷積網(wǎng)絡(luò)的結(jié)構(gòu)中,通常有多個順序連接的層,下面描述正確的有A、池化層主要用于降低特征圖的分辨率B、通常在卷積層之后會增加池化層,有時卷積層后面也可能不跟池化層C、度卷積網(wǎng)絡(luò)中,卷積層是必須的,但是全連接層可有可無D、非線性激活層可以完成非線性變換答案:ABD13、聯(lián)想存儲的特點是()A、可以存儲許多相關(guān)激勵,響應(yīng)模式對B、以分布、穩(wěn)健的方式存儲信息C、即使輸入激勵模式完全失真時,仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲中加入新的存儲模式答案:ABCD14、下列哪些技術(shù)能被用于計算兩個詞向量之間的距離?A、詞形還原(Lemmatization)B、歐氏距離(EuclideanDistance)C、余弦相似度(CosineSimilarity)D、N-grams答案:BC15、下面的Python開發(fā)包中,屬于深度學習框架的有()A、flaskB、TensorflowC、KerasD、Mxnet答案:BCD16、模型選擇方法包括哪些?A、格點搜索B、交叉驗證C、針對預測誤差評估的度量函數(shù)答案:ABC17、神經(jīng)網(wǎng)絡(luò)可以按()分類A、學習方式B、網(wǎng)絡(luò)結(jié)構(gòu)C、網(wǎng)絡(luò)的協(xié)議類型D、網(wǎng)絡(luò)的活動方式答案:ABD18、下列關(guān)于DSSM經(jīng)典模型的結(jié)構(gòu)的說法不正確的是()A、線性B、雙塔C、三塔D、非線性答案:ACD19、Embedding編碼有哪些特點?A、特征稠密B、特征稀疏C、能夠表征詞與詞之間的相互關(guān)系(相似度計算)D、泛化性更好,支持語義運算sim答案:ACD20、下面關(guān)于k近鄰的說法,正確的是:A、根據(jù)特征向量X計算樣本之間的相似性,選擇離中心點最相似的k個樣本B、k近鄰既可以用于分類,也可以用于回歸C、k近鄰用于分類時,對于新的樣本,計算離其最近的k個樣本的平均值,作為新樣本的預測值D、k近鄰用于分類時,對于新的樣本,根據(jù)其k個最近鄰樣本的類別,通過多數(shù)表決的方式預測新樣本的類別答案:BD21、數(shù)字圖像中有哪些基本特征()A、顏色特征B、紋理特征C、形狀特征D、空間關(guān)系特征答案:ABCD22、Transformer由且僅由()和()組成。只要計算資源夠,可以通過堆疊多層Transformer來搭建復雜網(wǎng)絡(luò)。A、Self-AttenionB、FeedForwardNeuralNetworkC、FeedBackwardNeuralNetworkD、Self-Action答案:AB23、對股價的預測,下列哪些方法是可行的()A、kNNB、SVRC、線性回歸D、邏輯回歸答案:BC24、下列哪些包不是圖像處理時常用的()A、timeB、sklearnC、osD、opencv答案:ABC25、Relu激活函數(shù)的缺點?A、由于負數(shù)部分恒為0,會導致一些神經(jīng)元無法激活B、輸出不是以0為中心C、解決了梯度消失、爆炸的問題D、計算方便,計算速度快,求導方便答案:ABCD26、下列關(guān)于極大似然估計(MaximumLikelihoodEstimate,MLE),說法正確的是?A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的答案:AC27、人工神經(jīng)網(wǎng)絡(luò)比感知器模型更復雜,這些額外的復雜性來源于()A、輸入層和輸出層之間僅包含一個中間層B、輸入層和輸出層之間可能包含多個中間層C、激活函數(shù)允許隱藏結(jié)點和輸出結(jié)點的輸出值與輸入?yún)?shù)呈現(xiàn)線性關(guān)系D、激活函數(shù)允許隱藏結(jié)點和輸出結(jié)點的輸出值與輸入?yún)?shù)呈現(xiàn)非線性關(guān)系答案:BD28、在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:BD29、Scikit-Learn中,()可以實現(xiàn)對類別特征進行one-hot編碼。A、DictvectorzierB、pandasC、OneHotEncoderD、CountVectorizer答案:ABC30、驅(qū)動深度學習的三駕馬車是指?()A、大模型B、大應(yīng)用C、大算力D、大數(shù)據(jù)答案:ACD31、下面關(guān)于長短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說法是哪些?A、LSTM中通過引入輸入門、遺忘門、輸出門解決了RNN中存在的梯度消失和梯度爆炸B、LSTM中門的開關(guān)程度是由信息的權(quán)重決定的,即訓練過程中記住重要信息C、與RNN相比,LSTM中引入更多參數(shù),所以其訓練周期更久D、LSTM中使用Sigmoid實現(xiàn)門限控制,而用TanH實現(xiàn)數(shù)據(jù)處理答案:BCD32、漢語的演化史表明,量詞的真實功用可能與()沒有任何關(guān)系A(chǔ)、隱喻機制B、個體化機制C、單復數(shù)區(qū)分D、補足音素答案:BC33、梯度為0的點可以是()A、局部最優(yōu)解B、全局最優(yōu)解C、鞍點D、轉(zhuǎn)折點答案:ABC34、無論是通過深度學習進行場景識別、目標識別還是人臉識別都離開對特征的學習,先從()得到(),之后進行類別的()以得到結(jié)果。A、測量空間B、特征表示C、特征匹配D、特征空間答案:ABC35、距離函數(shù)dist(,)需要滿足()特性。A、A非負性:distXi,Xj>=0B、B同一性:distXi,Xj=0當且僅當Xi=XjC、C對稱性:distXi,Xj=distXj,XiD、D直遞性:distXi,Xj答案:ABCD36、經(jīng)典邏輯推理有哪些?A、自然演繹推理B、歸結(jié)演繹推理C、不確定與非單調(diào)推理D、與、或形演繹推理答案:ABD37、強化學習問題的三種方法分別是()A、基于價值(value-based)B、基于策略(policy-based)C、基于模型(model-based)D、nan答案:ABC38、下列無監(jiān)督學習算法中可解決降維問題的算法有A、PCAB、LSAC、LDAD、k-means答案:ABC39、當發(fā)現(xiàn)機器學習模型過擬合時,以下操作正確的是()A、降低特征維度B、增加樣本數(shù)量C、添加正則項D、增加特征維度答案:ABC40、VGG從()角度改進了之前的圖像分類網(wǎng)絡(luò)?GoogLeNet從()角度改進了之前的圖像分類網(wǎng)絡(luò)?ResNet從()角度改進了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)深度B、增加網(wǎng)絡(luò)寬度C、改善網(wǎng)絡(luò)退化現(xiàn)象D、輕量化網(wǎng)絡(luò)模型答案:ABC41、Transformer的提出解決了上面兩個問題,首先它使用了Attention機制,將序列中的任意兩個位置之間的距離縮小為一個();其次它不無需依次輸入序列信息,因此具有更好的(),符合現(xiàn)有的GPU框架。A、常量B、變量C、并行性D、串行性答案:AC42、在目標檢測中,以下能產(chǎn)生候選框的算法是()A、SelectiveSearchB、ROIpoolingC、RegionproposallayerD、C4.5答案:AC43、若使用深度學習處理語義分類任務(wù),在處理變長數(shù)據(jù)時,我們通常采?。ǎ?。A、截斷過長語句B、填充隨機數(shù)C、填充特殊詞語D、不處理答案:AC44、現(xiàn)代神經(jīng)網(wǎng)絡(luò)常用的模塊,包括哪些()A、多分枝結(jié)構(gòu)B、殘差連接C、BatchNormalizationD、SigMoid激活函數(shù)答案:ABC45、下列哪些網(wǎng)用到了殘差連接()A、FastTextB、BERTC、GoogLeNetD、ResNet答案:BD46、假設(shè)在卷積操作過程中,對于size為3*3的image,如需提取100個特征,卷積層需要()個卷積核,假設(shè)卷積核大小為4,則共需()個參數(shù)。A、100B、200C、400D、800答案:AC47、下列關(guān)于AlexNet的說法正確的是()A、更深的網(wǎng)絡(luò)結(jié)構(gòu),5層卷積+3層全連接B、使用ReLU激活函數(shù)替代SigmoidC、使用Dropout抑制過擬合D、使用數(shù)據(jù)增廣方法,圖像翻轉(zhuǎn)、裁剪、顏色變化等答案:ABCD48、下列關(guān)于主成分分析的表述正確的有()。A、主成分分析的目的是尋找少數(shù)幾個主成分代表原來的多個指標;B、各主成分是原來指標的線性函數(shù)C、所確定的幾個主成分之間是互不相關(guān)的;D、使用主成分分析方法的前提是原來的多個指標之間是相關(guān)的答案:ABCD49、RCNN三大不足是()A、SelectiveSearch質(zhì)量不好B、每個候選框都需要cnn計算特征計算量大C、svm沒有聯(lián)合訓練,訓練時間增長D、模型效果優(yōu)于faster-rcnn答案:ABC50、K-Means聚類法的局限性體現(xiàn)在()A、K-Means聚類法對噪聲和離群點敏感B、K-Means聚類法對變量的要求比較高C、由K-Means聚類法得到的聚類結(jié)果,輪廓系數(shù)都不是很大。D、應(yīng)用K-Means聚類法需要預先設(shè)定聚類個數(shù)答案:ABD51、需要循環(huán)迭代的算法有A、k-meansB、線性回歸C、svmD、邏輯回歸答案:ABD52、屬于Boosting的擴展變體有哪些。A、AdaBoostB、隨機森林C、XGBoostD、GBDT答案:ACD53、卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有:A、最小地化層B、乘積池化層C、最大池化層D、平均池化層答案:CD54、深度學習框架或工具是:A、TensorflowB、PytorchC、Caffe2D、Paddle答案:ABCD55、哪些技術(shù)是RCNN采用而FasterRCNN沒有用?()A、SVM分類B、使用SelectiveSearch輸出候選框C、使用MLP進行分類與回歸預測D、使用ROIpooling答案:AB56、卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性:()、()、(),能有效減少網(wǎng)絡(luò)參數(shù),加快訓練速度。A、上采樣B、局部連接C、權(quán)重共享D、下采樣答案:BCD57、利用one-hot表示一個向量,使用一個詞表長的向量表示一個單詞,被表示單詞對應(yīng)的位置為(),其他單詞對應(yīng)的位置均為()A、1B、0C、-1D、2答案:AB58、在選擇神經(jīng)網(wǎng)絡(luò)的深度時,下面哪些參數(shù)需要考慮?A、神經(jīng)網(wǎng)絡(luò)的類型如MLP,CNNB、輸入數(shù)據(jù)C、計算能力硬件和軟件能力決定D、學習速率與映射的輸出函數(shù)答案:ABCD59、word2vec包含兩個經(jīng)典模型:()和()A、MBOWB、CBOWC、Stop-gramD、Skip-gram答案:BD60、深度學習中以下哪些步驟是由模型自動完成的?A、模型訓練B、特征選擇C、分析定位任務(wù)D、特征提取答案:BD61、常見的MRC任務(wù)可以分為四種類型:()。A、完形填空B、多項選擇C、片段抽取D、自由回答答案:ABCD62、在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層答案:BCD63、NMF(Non-negativeMatrixFactorization)是一種降維算法,它的特點包括A、原始矩陣的元素是非負數(shù)B、分解后矩陣的元素是非負數(shù)C、分解后矩陣的元素可以是負數(shù)D、沒有“潛在語義空間的每一個維度都是正交的”這一約束條件答案:ABD64、人工神經(jīng)元網(wǎng)絡(luò)包括()A、輸入層B、中間隱藏層C、映射層D、輸出層答案:ABD65、在深度學習模型訓練的過程中,常見的優(yōu)化器有哪些?A、AdamB、AdagradC、SGDD、Momentum答案:ABCD66、關(guān)于SVM,以下描述正確的是()A、支持向量機復雜度主要與支持向量的數(shù)目有關(guān)B、支持向量機訓練完成后,大部分的訓練樣本都不需保留,最終模型僅與支持向量有關(guān)C、SVM中劃分超平面所產(chǎn)生的分類結(jié)果是最魯棒的,對未見示例的泛化能力最強.D、“異或”問題可能會導致空間中樣本線性不可分答案:ABCD67、正則化是傳統(tǒng)機器學習中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動量優(yōu)化器答案:ABC68、關(guān)于對數(shù)幾率回歸,以下說法正確的是()A、對數(shù)幾率回歸是一種分類學習方法B、對數(shù)幾率回歸無需事先假設(shè)數(shù)據(jù)分布C、對數(shù)幾率回歸是可得到近似概率預測D、對數(shù)幾率回歸任意階可導的凸函數(shù)答案:ABCD69、常見的數(shù)據(jù)增強方式有()A、對顏色的數(shù)據(jù)增強B、添加噪聲(高斯噪聲)C、水平垂直翻轉(zhuǎn)D、隨機旋轉(zhuǎn)、裁剪答案:ABCD70、關(guān)于k折交叉驗證,下列說法正確的是?A、k值并不是越大越好,k值過大,會降低運算速度B、選擇更大的k值,會讓偏差更小,因為k值越大,訓練集越接近整個訓練樣本C、選擇合適的k值,能減小驗方差D、k折交叉驗證能夠有效提高模型的學習能力答案:ABCD71、卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層答案:CD72、與淺層神經(jīng)網(wǎng)絡(luò)相比,深度學習的不同在于()和()。A、強調(diào)了模型結(jié)構(gòu)的深度B、明確了特征學習的重要性C、所需訓練集數(shù)據(jù)較少D、數(shù)據(jù)集沒有局部相關(guān)性答案:AB73、下列既可以用于分類,又可以用于回歸的機器學習算法有:A、k近鄰B、邏輯回歸C、決策樹D、線性回歸答案:AC74、一下哪幾種是常見的激活函數(shù)A、sigmoidB、reluC、tanhD、skip答案:ABC75、異常值的處理方法常用有()A、刪除含有異常值的記錄B、將異常值視為缺失值,交給缺失值處理方法來處理C、用平均值來修正D、保留異常值答案:ABCD76、下列可以用于分類問題的機器學習算法有:A、決策樹B、隨機森林C、k近鄰D、邏輯回歸答案:ABCD77、以下哪些機器學習算法可以不對特征做歸一化處理()A、隨機森林B、邏輯回歸C、SVMD、GBDT答案:AD78、下列哪些屬于頻繁模式挖掘算法()A、FP-growthB、DBSCANC、AprioriD、GDBT答案:AC79、常用的損失函數(shù)有哪些()。A、均方差B、Sigmoid交叉熵C、Sofmax交叉熵D、Sparse交叉熵答案:ABCD80、seq2seq主要由()和()組成,A、EncoderB、transformerC、DecoderD、dropper答案:AC81、關(guān)于邏輯回歸,說法正確的是()A、垃圾郵件分類問題可以使用邏輯回歸模型B、一條商品評論分為正面,負面和中性,不可以使用邏輯回歸模型C、邏輯回歸不能直接用于多分類問題D、以上都不對答案:AC82、圖像識別的應(yīng)用場景有()。A、醫(yī)學診斷B、人臉認證C、輔助駕駛D、廣告營銷答案:ABCD83、目標檢測的應(yīng)用場景有()A、智慧交通B、智慧醫(yī)療C、生產(chǎn)質(zhì)檢D、廠區(qū)安防答案:ABCD84、人工神經(jīng)網(wǎng)絡(luò)特點和優(yōu)越性主要表現(xiàn)在()。A、自學習功能B、自動識別功能C、高速尋找優(yōu)化解的能力D、聯(lián)想存儲功能答案:ACD85、數(shù)據(jù)真實性具備哪兩種特質(zhì)?A、準確性B、不確定性C、可信賴度D、雜亂性答案:AC86、線性回歸的基本假設(shè)包括哪個?A、隨機誤差項是一個期望值為0的隨機變量B、對于解釋變量的所有觀測值,隨機誤差項有相同的方差C、隨機誤差項彼此相關(guān)D、解釋變量是確定性變量不是隨機變量,與隨機誤差項之間相互獨立答案:ABD87、下面哪些是基于核的機器學習算法()A、最大期望算法B、徑向基核函數(shù)C、線性判別分析法D、支持向量機答案:BCD88、圖像數(shù)字化需要經(jīng)過的步驟包括()A、采樣B、裁剪C、量化D、旋轉(zhuǎn)答案:AC89、卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中隱含層包括()、()和()三種A、卷積層B、池化層C、全連接層D、輸入層答案:ABC90、全連接神經(jīng)網(wǎng)絡(luò)存在的問題有()A、網(wǎng)絡(luò)結(jié)構(gòu)不夠靈活B、信息傳遞缺失C、網(wǎng)絡(luò)較淺,特
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 我的語文老師讓我感動的事作文7篇
- 體育賽事組織策劃與實施合同
- 科技人才引進培養(yǎng)承諾書6篇
- 金色的秋天田野寫景作文13篇
- 教育學術(shù)倫理承諾書示例(6篇)
- 資產(chǎn)增值服務(wù)承諾書5篇范文
- 空間站建設(shè)工程質(zhì)量保證承諾函7篇范文
- 安徽醫(yī)科大學《日語聽力》2024 - 2025 學年第一學期期末試卷
- 2026廣東佛山順德區(qū)杏壇光輝幼兒園招聘備考題庫附答案詳解ab卷
- 2026上半年貴州事業(yè)單位聯(lián)考貴陽學院招聘5人備考題庫完整答案詳解
- 鋁錠居間合同樣本
- 新概念第一冊雙課聽力文本全(英文翻譯)
- 三高知識課件
- 租賃手機籌資計劃書
- 電子束直寫技術(shù)講座
- IT行業(yè)模板:軟件驗收單
- 景觀工程詳細施工組織進度計劃表
- 項目監(jiān)理人員廉潔從業(yè)承諾書
- 矚目軟件基本操作說明
- 短篇文言文翻譯
- 疾病產(chǎn)生分子基礎(chǔ)概論
評論
0/150
提交評論