人工智能核心算法試題含參考答案_第1頁(yè)
人工智能核心算法試題含參考答案_第2頁(yè)
人工智能核心算法試題含參考答案_第3頁(yè)
人工智能核心算法試題含參考答案_第4頁(yè)
人工智能核心算法試題含參考答案_第5頁(yè)
已閱讀5頁(yè),還剩14頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能核心算法試題含參考答案一、單選題(共40題,每題1分,共40分)1、問答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:A、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問題進(jìn)行了專門開發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問題的訓(xùn)練集,它可以形成情節(jié)記憶,并使用它們來(lái)產(chǎn)生相關(guān)答案。B、大多數(shù)NLP問題都可以被視為一個(gè)問題回答問題。范例很簡(jiǎn)單:我們發(fā)出查詢指令,機(jī)器提供響應(yīng)。通過閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種各樣的問題。C、問答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話、在線搜索和其他地方提取信息,以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個(gè)文檔,而是更喜歡簡(jiǎn)短而簡(jiǎn)潔的答案。D、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對(duì)文本文檔的搜索,尚且無(wú)法從圖片集合中提取信息。正確答案:D2、在K-mean或Knn中,是采用哪種距離計(jì)算方法?A、閔氏距離B、歐式距離C、切比雪夫距離D、曼哈頓距離正確答案:B3、代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、4B、5C、3D、2正確答案:B4、對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過程中,通過誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問下面哪個(gè)參數(shù)不是通過誤差后向傳播來(lái)優(yōu)化的A、卷積濾波矩陣中的參數(shù)B、激活函數(shù)中的參數(shù)C、全連接層的鏈接權(quán)重D、模型的隱藏層數(shù)目正確答案:D5、考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型B、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層C、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用D、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)正確答案:D6、人工神經(jīng)元內(nèi)部運(yùn)算包含哪兩個(gè)部分:A、非線性變換和激活變換B、向量變換和標(biāo)量變換C、線性變換和非線性變換D、化學(xué)變換和電變換正確答案:C7、關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、SMO尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重;B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu);C、輸出層神經(jīng)元以矩陣方式排列在二維空間;D、一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò);正確答案:A8、假設(shè)一個(gè)具有3個(gè)神經(jīng)元和輸入為[1,2,3]的簡(jiǎn)單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個(gè)線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?A、48B、32C、96D、643正確答案:C9、隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。A、DroppingB、StackingC、BoostingD、Bagging正確答案:D10、1x1卷積的主要作用是A、擴(kuò)大感受野B、增大卷積核C、加快卷積運(yùn)算D、通道降維正確答案:D11、()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來(lái)西亞等城市和國(guó)家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。A、阿里云B、浪潮云C、海爾云D、華為云正確答案:A12、基于神經(jīng)網(wǎng)絡(luò)的分類模型是?A、兩者都屬于B、生成模型C、兩者都不屬于D、判別模型正確答案:D13、DSSM模型的結(jié)構(gòu)是什么?A、雙塔B、非線性C、線性D、三塔正確答案:A14、以下關(guān)于隨機(jī)森林算法的描述中錯(cuò)誤的是A、可以處理高維度的屬性,并且不用做特征選擇B、能應(yīng)對(duì)正負(fù)樣本不平衡問題C、隨機(jī)森林的預(yù)測(cè)能力不受多重共線性影響D、也擅長(zhǎng)處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題正確答案:D15、高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越(),也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。A、具體和概念化B、具體和形象化C、抽象和具體化D、抽象和概念化正確答案:D16、對(duì)于一個(gè)圖像識(shí)別問題,下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?()A、自動(dòng)編碼機(jī)B、多層感知機(jī)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、卷積神經(jīng)網(wǎng)絡(luò)正確答案:D17、Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?A、CBOW、Skip-gramDB、COBWSoftmaxC、Softmax、CBOWD、Skip-gramCOBWC正確答案:A18、人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:A、同一事物的兩個(gè)名稱B、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)C、一點(diǎn)點(diǎn)關(guān)系都沒有D、完全拷貝正確答案:B19、圖像處理中無(wú)損壓縮的目的是()A、濾除圖形中的低頻信號(hào)B、濾除圖像中的不相干信號(hào)C、濾除圖像中的冗余信號(hào)D、濾除圖像中的高頻信號(hào)正確答案:C20、剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡量剪枝后()變化來(lái)決定是否剪枝。A、召回率B、損失函數(shù)C、信息增益D、準(zhǔn)確率正確答案:B21、Skip-gram在實(shí)際操作中,使用一個(gè)()(一般情況下,長(zhǎng)度是奇數(shù)),從左到右開始掃描當(dāng)前句子。A、滑動(dòng)窗口B、過濾器C、篩選器D、掃描器正確答案:A22、下列對(duì)LVW算法的說(shuō)法錯(cuò)誤的是(___)A、算法設(shè)置了停止條件控制參數(shù)B、算法可能求不出解C、每次特征子集評(píng)價(jià)都需要訓(xùn)練學(xué)習(xí)器,開銷很大D、算法中特征子集搜索采用了隨機(jī)策略正確答案:B23、卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、均方誤差損失函數(shù)B、卷積操作C、池化操作D、全連接層正確答案:A24、命名實(shí)體識(shí)別任務(wù)是識(shí)別出人名、地名和組織機(jī)構(gòu)名這三類命名實(shí)體,如果用1來(lái)標(biāo)注人名,0標(biāo)注其他,那么“HarryPotterandHermioneGrangerinventedanewspell”這句話中,Potter、and這兩個(gè)單詞應(yīng)該標(biāo)注為:A、0,0B、1,1C、1,0D、0,1正確答案:C25、強(qiáng)化學(xué)習(xí)在每個(gè)時(shí)刻環(huán)境和個(gè)體都會(huì)產(chǎn)生相應(yīng)的交互。個(gè)體可以采取一定的(),這樣的行動(dòng)是施加在環(huán)境中的。A、rewardB、agentC、actionD、state正確答案:C26、下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法()A、TextRankB、SSAC、LDAD、TF-IDF正確答案:B27、下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、StackingB、BoostingC、BaggingD、Mapping正確答案:C28、scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、fit()B、train()C、Fit()D、Train()正確答案:A29、L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者的說(shuō)法正確的是:A、L1和L2正則化均可做特征選擇B、L1和L2正則化均不可做特征選擇C、L2正則化可以做特征選擇D、L1正則化可以做特征選擇正確答案:D30、二分搜索算法是利用()實(shí)現(xiàn)的算法。A、貪心法B、回溯法C、分治策略D、動(dòng)態(tài)規(guī)劃法正確答案:C31、常見的使用深度學(xué)習(xí)解決的計(jì)算機(jī)視覺任務(wù)有:①.圖像分類②.目標(biāo)檢測(cè)③.語(yǔ)義分割/實(shí)例分割④.場(chǎng)景文字識(shí)別A、①②③④B、①③④C、①②④D、①③④正確答案:A32、()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例的投影點(diǎn)盡可能接近、異類樣例投影點(diǎn)盡可能遠(yuǎn)離;在對(duì)新樣本進(jìn)行分類時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來(lái)確定樣本的類別.A、對(duì)數(shù)幾率回歸B、多分類學(xué)習(xí)C、多分類學(xué)習(xí)D、線性判別分析正確答案:D33、下列哪種不屬于進(jìn)化計(jì)算()A、進(jìn)化策略B、認(rèn)知機(jī)C、進(jìn)化編程D、遺傳算法正確答案:B34、下列哪個(gè)不是激活函數(shù)()。A、hiddenB、reluC、sigmodD、tanh正確答案:A35、如何選取合適的卷積核大???A、分布范圍廣--->較小的卷積核,大的感受野B、分布范圍大--->較小的卷積核,小的感受野C、分布范圍小--->較大的卷積核,小的感受野D、分布范圍小--->較小的卷積核,小的感受野正確答案:D36、關(guān)于Elman網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;B、用于處理靜態(tài)模型,即無(wú)法處理與時(shí)間有關(guān)的動(dòng)態(tài)變化;C、作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);D、一些神經(jīng)元的輸出反饋回來(lái)會(huì)作為輸入信號(hào);正確答案:B37、Iou表示的是()A、兩個(gè)框的相對(duì)大小B、兩個(gè)框之間的重疊程度C、一個(gè)框面積與周長(zhǎng)比值D、兩個(gè)框的總面積正確答案:B38、機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的冪,如256或512。它背后的原因是什么?()A、Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練的更快B、不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的C、以上說(shuō)法都不對(duì)D、Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理正確答案:D39、SVM的基本思想是間隔最大化來(lái)得到最優(yōu)分離()A、分離平面B、分離曲線C、分離間隔D、超平面正確答案:D40、圖像分類任務(wù)是一個(gè)計(jì)算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運(yùn)算③.盡量使用前人探索的有成功經(jīng)驗(yàn)的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計(jì)編寫網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①②B、①②③C、②③D、①③正確答案:C二、多選題(共20題,每題1分,共20分)1、word2vec包含兩個(gè)經(jīng)典模型,()和()。A、Skip-cramB、CBOWC、BCOWD、Skip-gram正確答案:BD2、可以有效解決過擬合的方法包括()A、增加特征數(shù)量B、增加樣本數(shù)量C、采用正則化方法D、訓(xùn)練更多的迭代次數(shù)正確答案:BC3、處理數(shù)據(jù)的五個(gè)環(huán)節(jié)分別是:1.()2.()3.()4.()5.校驗(yàn)數(shù)據(jù)有效性A、拆分樣本集合B、訓(xùn)練樣本集亂序C、讀入數(shù)據(jù)D、生成批次數(shù)據(jù)正確答案:ABCD4、非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()A、采樣B、隨機(jī)傅里葉特征C、低秩逼近D、隨機(jī)分布正確答案:ABC5、卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有A、最大池化層B、最小地化層C、乘積池化層D、平均池化層正確答案:AD6、傳統(tǒng)目標(biāo)檢測(cè)提取特征的方式有()A、SVMB、HOGC、SIFTD、Adaboost正確答案:BC7、下面關(guān)于k近鄰的說(shuō)法,正確的是:A、根據(jù)特征向量X計(jì)算樣本之間的相似性,選擇離中心點(diǎn)最相似的k個(gè)樣本B、k近鄰用于分類時(shí),對(duì)于新的樣本,根據(jù)其k個(gè)最近鄰樣本的類別,通過多數(shù)表決的方式預(yù)測(cè)新樣本的類別C、k近鄰用于分類時(shí),對(duì)于新的樣本,計(jì)算離其最近的k個(gè)樣本的平均值,作為新樣本的預(yù)測(cè)值D、k近鄰既可以用于分類,也可以用于回歸正確答案:BD8、關(guān)于謂詞邏輯,下列描述正確的是()A、個(gè)體變?cè)?、函?shù)符號(hào)和謂詞符號(hào)都被量化的謂詞成為二階謂詞B、在一個(gè)量詞的轄域中與該量詞的指導(dǎo)變?cè)嗤淖冊(cè)Q為約束變?cè)狢、緊接于量詞之后被量詞作用的謂詞公式稱為該量詞的轄域D、僅個(gè)體變?cè)涣炕闹^詞成為一階謂詞正確答案:ABCD9、圖像識(shí)別的應(yīng)用場(chǎng)景有()。A、輔助駕駛;B、人臉認(rèn)證;C、廣告營(yíng)銷D、醫(yī)學(xué)診斷;正確答案:ABCD10、自適應(yīng)神經(jīng)-模糊推理系統(tǒng)(ANFIS)可以表達(dá)成包括6個(gè)層的神經(jīng)網(wǎng)絡(luò),包括以下?A、輸出層B、總結(jié)層C、歸一化層D、去模糊化層正確答案:BCD11、以下哪些操作常被用于目標(biāo)檢測(cè)的骨干網(wǎng)絡(luò):A、池化B、分組卷積C、轉(zhuǎn)置卷積D、深度可分離卷積正確答案:ABD12、參數(shù)學(xué)習(xí)過程中若采用梯度下降法,應(yīng)如何計(jì)算梯度值()?A、?w/?LB、w/LC、wLD、?L/?w正確答案:D13、k近鄰算法包含哪幾個(gè)要素?A、k值選擇B、函數(shù)間隔定義C、分類決策規(guī)則D、距離度量正確答案:ACD14、下列描述正確的是()A、K均值可以發(fā)現(xiàn)不是明顯分離的簇,但DBSCAN會(huì)合并有重疊的簇B、K均值一般會(huì)聚類所有對(duì)象,但DBSCAN會(huì)丟棄被它識(shí)別為噪聲的對(duì)象C、當(dāng)簇具有很不相同的密度時(shí),K均值和DBSCAN的性能都很差D、K均值可以用于高維的稀疏數(shù)據(jù),DBSCAN則通常在此類數(shù)據(jù)上性能很差正確答案:ABCD15、使用KNN(K-NearestNeighbor)算法解決分類問題的步驟包括A、計(jì)算未知數(shù)據(jù)與已知標(biāo)簽數(shù)據(jù)之間的距離B、通過已知標(biāo)簽數(shù)據(jù)的數(shù)量進(jìn)行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果C、對(duì)未知數(shù)據(jù)進(jìn)行正則化D、得到距離未知數(shù)據(jù)最近的k個(gè)已知標(biāo)簽數(shù)據(jù)正確答案:ABD16、數(shù)據(jù)增強(qiáng)有哪些方式處理圖片()。A、亮度B、翻轉(zhuǎn)C、改變色溫D、縮放正確答案:ABCD17、下面關(guān)于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說(shuō)法是哪些?A、LSTM中使用Sigmoid實(shí)現(xiàn)門限控制,而用TanH實(shí)現(xiàn)數(shù)據(jù)處理B、LSTM中門的開關(guān)程度是由信息的權(quán)重決定的,即訓(xùn)練過程中記住重要信息C、與RNN相比,LSTM中引入更多參數(shù),所以其訓(xùn)練周期更久D、LSTM中通過引入輸入門、遺忘門、輸出門解決了RNN中存在的梯度消失和梯度爆炸正確答案:ABC18、下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?A、關(guān)系抽取B、實(shí)體鏈接C、詞性標(biāo)注D、命名實(shí)體識(shí)別正確答案:ABD19、下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的是?A、如果MLE存在,那么它的解一定是唯一的B、如果MLE存在,那么它的解可能不是唯一的C、MLE總是存在D、MLE可能并不存在正確答案:BD20、縮小訓(xùn)練誤差與測(cè)試誤差間的差距會(huì)產(chǎn)生過擬合,防止過擬合的方法包括()。A、集成方法B、增加正則化C、交叉驗(yàn)證D、特征工程正確答案:BC三、判斷題(共40題,每題1分,共40分)1、學(xué)習(xí)率是根據(jù)不同場(chǎng)景人為設(shè)定的A、正確B、錯(cuò)誤正確答案:A2、損失函數(shù)的設(shè)計(jì)依賴于具體的任務(wù)A、正確B、錯(cuò)誤正確答案:A3、GoogLeNet從增加網(wǎng)絡(luò)深度角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)A、正確B、錯(cuò)誤正確答案:B4、圖像分類是根據(jù)圖像的語(yǔ)義信息對(duì)不同類別圖像進(jìn)行區(qū)分,是計(jì)算機(jī)視覺的核心,是物體檢測(cè)、圖像分割、物體跟蹤、行為分析、人臉識(shí)別等其他高層次視覺任務(wù)的基礎(chǔ)A、正確B、錯(cuò)誤正確答案:A5、常用的雙向循環(huán)神經(jīng)網(wǎng)絡(luò),不同方向的神經(jīng)元,彼此相連A、正確B、錯(cuò)誤正確答案:B6、通過池化操作,必須保證特征損失不能太大。A、正確B、錯(cuò)誤正確答案:A7、訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放(增強(qiáng)數(shù)據(jù))等預(yù)處理提高模型泛化能力A、正確B、錯(cuò)誤正確答案:A8、混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。A、正確B、錯(cuò)誤正確答案:A9、線性模型形式簡(jiǎn)單、易于建模,有很好的可解釋性、可理解性。__A、正確B、錯(cuò)誤正確答案:A10、單次使用留出法得到的結(jié)果往往穩(wěn)定可靠。__A、正確B、錯(cuò)誤正確答案:B11、在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率A、正確B、錯(cuò)誤正確答案:A12、人工校驗(yàn)是指打印數(shù)據(jù)輸出結(jié)果,觀察是否是預(yù)期的格式。實(shí)現(xiàn)數(shù)據(jù)處理和加載函數(shù)后,我們可以調(diào)用它讀取一次數(shù)據(jù),觀察數(shù)據(jù)的shape和類型是否與函數(shù)中設(shè)置的一致A、正確B、錯(cuò)誤正確答案:A13、"若網(wǎng)絡(luò)結(jié)構(gòu)已知,即屬性間的依賴關(guān)系已知,則貝葉斯網(wǎng)的學(xué)習(xí)過程相對(duì)簡(jiǎn)單,只需通過對(duì)訓(xùn)練樣本"計(jì)數(shù)"。"A、正確B、錯(cuò)誤正確答案:A14、k均值聚類算法是一種典型的EM算法A、正確B、錯(cuò)誤正確答案:A15、神經(jīng)網(wǎng)絡(luò)的神經(jīng)元計(jì)算是一個(gè)線性計(jì)算函數(shù)A、正確B、錯(cuò)誤正確答案:B16、提升卷積核(convolutionalkernel)的大小會(huì)顯著提升卷積神經(jīng)網(wǎng)絡(luò)的性能,這種說(shuō)法是A、正確B、錯(cuò)誤正確答案:B17、監(jiān)督學(xué)習(xí)的數(shù)據(jù)不需要帶標(biāo)簽等人為標(biāo)注信息A、正確B、錯(cuò)誤正確答案:B18、數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時(shí),深度學(xué)習(xí)相對(duì)其它機(jī)器學(xué)習(xí)算法,有明顯優(yōu)勢(shì)。A、正確B、錯(cuò)誤正確答案:B19、卷積神經(jīng)網(wǎng)絡(luò)是含有卷積層的神經(jīng)網(wǎng)絡(luò),二維卷積層有高和寬兩個(gè)空間維度,常用來(lái)處理文本數(shù)據(jù)。A、正確B、錯(cuò)誤正確答案:B20、StateSpace和And/OrGraph只是兩種不同的問題表示方法,但其解決問題的思路是一樣的。()A、正確B、錯(cuò)誤正確答案:B21、混合高斯分布對(duì)呈橢圓形分布的數(shù)據(jù)聚類效果較好,而k-means算法對(duì)從重心開始呈圓形分布的數(shù)據(jù)聚類效果較好A、正確B、錯(cuò)誤正確答案:A22、感知機(jī)學(xué)習(xí)算法可以直觀解釋為:當(dāng)一個(gè)實(shí)例點(diǎn)被誤分類,即位于分離超平面的錯(cuò)誤一側(cè)時(shí),則調(diào)整模型權(quán)重,使分離超平面向該誤分類點(diǎn)的一側(cè)移動(dòng),以減少該誤分類點(diǎn)與超平面之間的距離,直至超平面越過該誤分類點(diǎn)使其被正確分類。A、正確B、錯(cuò)誤正確答案:A23、卷積核尺寸一般是奇數(shù)A、正確B、錯(cuò)誤正確答案:A24、embedding就是獨(dú)熱。A、正確B、錯(cuò)誤正確答案:B25、梯度下降算法的收斂點(diǎn)取決于代價(jià)函數(shù)。A、正確B、錯(cuò)誤正確答案:B26、反向傳播是用來(lái)訓(xùn)練人工神經(jīng)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論