版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2024年5月人工智能核心算法練習(xí)題及參考答案一、單選題(共20題,每題1分,共20分)1.如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?A.都不對(duì)B.不好說(shuō)C.神經(jīng)網(wǎng)絡(luò)會(huì)收斂D.神經(jīng)網(wǎng)絡(luò)不會(huì)收斂答案:【D】詳解:當(dāng)使用過(guò)大的學(xué)習(xí)速率時(shí),神經(jīng)網(wǎng)絡(luò)的參數(shù)更新可能會(huì)跳過(guò)最優(yōu)解,導(dǎo)致無(wú)法收斂到一個(gè)較好的結(jié)果。在訓(xùn)練過(guò)程中,過(guò)大的學(xué)習(xí)速率會(huì)使模型在每次迭代時(shí)對(duì)參數(shù)進(jìn)行大幅度調(diào)整,從而使模型難以穩(wěn)定地朝著最優(yōu)解前進(jìn),最終無(wú)法收斂。2.感知器在空間中可以展現(xiàn)為?A.線B.平面C.超平面D.點(diǎn)答案:【D】3.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。A.每個(gè)主分量的標(biāo)準(zhǔn)差B.每個(gè)主分量的貢獻(xiàn)率C.每個(gè)主分量的方差貢獻(xiàn)率D.每個(gè)主分量的方差答案:【C】詳解:主成分分析中,構(gòu)造綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為其方差貢獻(xiàn)率。方差貢獻(xiàn)率反映了主分量對(duì)數(shù)據(jù)總方差的貢獻(xiàn)程度,以方差貢獻(xiàn)率作為權(quán)數(shù)能使綜合評(píng)價(jià)函數(shù)更合理地綜合各主分量的信息。4.在統(tǒng)計(jì)語(yǔ)言模型中,通常以概率的形式描述任意語(yǔ)句的可能性,利用最大相似度估計(jì)進(jìn)行度量,對(duì)于一些低頻詞,無(wú)論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然很低,下列哪種方法可以解決這一問(wèn)題A.一元切分B.一元文法C.N元文法D.?dāng)?shù)據(jù)平滑答案:【D】詳解:數(shù)據(jù)平滑是一種解決低頻詞問(wèn)題的有效方法。當(dāng)訓(xùn)練數(shù)據(jù)中某些詞出現(xiàn)頻率很低時(shí),直接按照其實(shí)際出現(xiàn)頻率計(jì)算概率會(huì)導(dǎo)致估計(jì)不準(zhǔn)確。數(shù)據(jù)平滑技術(shù)通過(guò)對(duì)低頻詞的概率進(jìn)行調(diào)整,使其不會(huì)因?yàn)槌霈F(xiàn)次數(shù)過(guò)少而被賦予極小甚至為零的概率。例如常用的拉普拉斯平滑等方法,會(huì)在分子分母上都加上一個(gè)較小的常數(shù),從而避免概率為零的情況,使得模型對(duì)低頻詞也能給出相對(duì)合理的概率估計(jì),進(jìn)而提高整個(gè)語(yǔ)言模型的性能。而一元切分、一元文法和N元文法主要側(cè)重于對(duì)語(yǔ)句的不同切分方式和語(yǔ)法結(jié)構(gòu)建模,不能直接解決低頻詞概率估計(jì)不合理的問(wèn)題。5.代碼arr5=np.arange(0,6).reshape([2,3]);print(arr5[1,:])的輸出結(jié)果是()?A.[01]B.[23]C.[345]D.[012]答案:【C】詳解:首先arr5=np.arange(0,6).reshape([2,3])會(huì)創(chuàng)建一個(gè)2行3列的數(shù)組[[0,1,2],[3,4,5]],然后arr5[1,:]表示取第二行的所有元素,即[3,4,5],所以輸出結(jié)果是[345],答案選B。6.下面算法中哪個(gè)不是回歸算法A.線性回歸B.邏輯回歸C.嶺回歸D.隨機(jī)森林答案:【B】7.CNN不具有以下那個(gè)特性。A.權(quán)值共享B.空間或時(shí)間上的下采樣C.局部連接D.不定長(zhǎng)輸入答案:【D】詳解:CNN具有局部連接、權(quán)值共享、空間或時(shí)間上的下采樣等特性。局部連接減少了計(jì)算量;權(quán)值共享降低了模型參數(shù)數(shù)量;下采樣可以減少數(shù)據(jù)維度。而CNN輸入通常要求是固定尺寸的,不是不定長(zhǎng)輸入。8.在Skip-gram實(shí)際實(shí)現(xiàn)的過(guò)程中,通常會(huì)讓模型接收()個(gè)tensor輸入。A.4B.1C.2D.3答案:【D】9.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越(),也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。A.具體和概念化B.抽象和具體化C.抽象和概念化D.具體和形象化答案:【C】詳解:高層特征是低層特征的組合,從低層到高層,特征越來(lái)越抽象和概念化,更能表現(xiàn)語(yǔ)義或意圖。比如低層可能是具體的像素點(diǎn)等,高層則是對(duì)圖像整體語(yǔ)義的理解等,從具體逐漸走向抽象概念。10.下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理?()A.DecisionTreeB.SVMB.KmeansC.LogisticRegression答案:【A】詳解:決策樹(shù)(DecisionTree)是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的機(jī)器學(xué)習(xí)算法。它在構(gòu)建決策樹(shù)的過(guò)程中,主要依據(jù)數(shù)據(jù)的特征和類別信息進(jìn)行劃分,對(duì)數(shù)據(jù)的具體數(shù)值分布并不敏感,因此不需要進(jìn)行歸一化處理。而SVM(支持向量機(jī))、Kmeans(K均值聚類算法)、LogisticRegression(邏輯回歸)等算法,在處理數(shù)據(jù)時(shí),為了提高模型的性能、收斂速度以及避免某些特征對(duì)模型的影響過(guò)大等,通常需要對(duì)數(shù)據(jù)進(jìn)行歸一化處理。11.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A.ReLuB.TanhC.SigmoidD.Softmax答案:【D】詳解:Softmax函數(shù)是用于多分類問(wèn)題中,將輸出結(jié)果轉(zhuǎn)換為概率分布,使得所有概率之和為1,符合預(yù)測(cè)n個(gè)類的概率且概率和為1的要求。ReLu函數(shù)是線性整流函數(shù),Sigmoid函數(shù)常用于二分類問(wèn)題輸出概率,Tanh函數(shù)是雙曲正切函數(shù),它們都不滿足該條件。12.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()A.StackingB.BaggingC.MappingD.Boosting答案:【B】詳解:Dropout通過(guò)隨機(jī)丟棄神經(jīng)元來(lái)防止過(guò)擬合,Bagging通過(guò)有放回地采樣訓(xùn)練數(shù)據(jù)構(gòu)建多個(gè)模型并綜合結(jié)果,也能起到類似防止過(guò)擬合的效果,與Dropout有類似作用。Boosting是基于弱分類器迭代訓(xùn)練強(qiáng)分類器;Stacking是構(gòu)建多層模型;Mapping一般指映射,均與Dropout效果不同。13.交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,進(jìn)行(___)次訓(xùn)練和測(cè)試。A.kB.k-1C.k-2D.k+1答案:【A】詳解:交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,每次選擇其中k-1個(gè)子集作為訓(xùn)練集,剩余1個(gè)子集作為測(cè)試集,這樣一共要進(jìn)行k次訓(xùn)練和測(cè)試,所以進(jìn)行的訓(xùn)練和測(cè)試次數(shù)大于k。14.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到該最優(yōu)解,()可以認(rèn)為是“智能程度相對(duì)比較高”的算法。A.深度優(yōu)先搜索B.有界深度優(yōu)先搜索C.啟發(fā)式搜索D.無(wú)界深度優(yōu)先搜索答案:【C】詳解:?jiǎn)l(fā)式搜索在搜索過(guò)程中利用問(wèn)題的啟發(fā)式信息來(lái)引導(dǎo)搜索方向,能夠更有針對(duì)性地朝著最優(yōu)解的方向進(jìn)行搜索,相比其他幾種搜索算法,它在智能程度方面表現(xiàn)更為突出。廣度優(yōu)先搜索雖然能找到最優(yōu)解,但相對(duì)較為盲目,沒(méi)有利用啟發(fā)式信息。無(wú)界深度優(yōu)先搜索可能會(huì)陷入無(wú)限循環(huán),深度優(yōu)先搜索和有界深度優(yōu)先搜索也缺乏對(duì)問(wèn)題的智能引導(dǎo),而啟發(fā)式搜索通過(guò)對(duì)問(wèn)題的理解和分析,能更高效地找到最優(yōu)解,所以可以認(rèn)為是“智能程度相對(duì)比較高”的算法。15.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?A.感知機(jī)B.卷積神經(jīng)網(wǎng)絡(luò)C.循環(huán)神經(jīng)網(wǎng)絡(luò)D.多層感知機(jī)答案:【B】詳解:卷積神經(jīng)網(wǎng)絡(luò)在處理圖像數(shù)據(jù)方面具有獨(dú)特的優(yōu)勢(shì)。它通過(guò)卷積層能夠自動(dòng)提取圖像的局部特征,對(duì)于識(shí)別圖像中的特定物體如貓非常有效。感知機(jī)主要用于簡(jiǎn)單的線性分類,難以處理復(fù)雜的圖像特征。多層感知機(jī)雖然也能處理圖像,但在提取局部特征方面不如卷積神經(jīng)網(wǎng)絡(luò)高效。循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù),不適合直接處理圖像識(shí)別問(wèn)題。所以對(duì)于在一張照片里找出一只貓的圖像識(shí)別問(wèn)題,卷積神經(jīng)網(wǎng)絡(luò)是更好的選擇。16.numpy數(shù)組的ndim屬性是()?A.行數(shù)B.?dāng)?shù)組的維度C.各維度大小的元組D.列數(shù)答案:【B】詳解:ndim屬性用于返回?cái)?shù)組的維度,即數(shù)組的軸數(shù)。B選項(xiàng)是shape屬性返回的內(nèi)容;C選項(xiàng)行數(shù)和D選項(xiàng)列數(shù)與ndim屬性無(wú)關(guān)。17.測(cè)試集應(yīng)盡可能與訓(xùn)練集(___)。A.相等B.相容C.包含D.互斥答案:【D】詳解:測(cè)試集應(yīng)與訓(xùn)練集互斥,這樣才能準(zhǔn)確評(píng)估模型在未見(jiàn)過(guò)的數(shù)據(jù)上的性能。如果測(cè)試集與訓(xùn)練集不互斥,模型可能會(huì)在測(cè)試時(shí)利用到訓(xùn)練集中已有的信息,從而高估其實(shí)際的泛化能力。而選項(xiàng)A的相容并不一定能保證對(duì)模型性能評(píng)估的準(zhǔn)確性;選項(xiàng)B相等是不合理的,因?yàn)闇y(cè)試集就是用于檢驗(yàn)?zāi)P蛯?duì)新數(shù)據(jù)的處理能力,不應(yīng)與訓(xùn)練集相同;選項(xiàng)D包含也不符合測(cè)試集的作用,測(cè)試集不是用來(lái)包含訓(xùn)練集的。18.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法()A.TF-IDFB.TextRankC.SSAD.LDA答案:【C】詳解:SSA(SalpSwarmAlgorithm)是一種群體智能優(yōu)化算法,不是關(guān)鍵詞提取常用的算法。TF-IDF(詞頻-逆文檔頻率)是一種用于信息檢索與文本挖掘的常用加權(quán)技術(shù);TextRank是一種基于圖的排序算法,可用于關(guān)鍵詞提取等;LDA(LatentDirichletAllocation)是一種主題模型,也可輔助進(jìn)行關(guān)鍵詞提取等相關(guān)文本處理任務(wù)。19.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?A.聚類B.XgboostC.關(guān)聯(lián)規(guī)則D.GMM答案:【B】詳解:Xgboost是一種有監(jiān)督學(xué)習(xí)算法,它基于訓(xùn)練數(shù)據(jù)中的特征和標(biāo)簽來(lái)構(gòu)建模型,用于預(yù)測(cè)或分類新的數(shù)據(jù)。而GMM(高斯混合模型)、聚類、關(guān)聯(lián)規(guī)則都屬于無(wú)監(jiān)督學(xué)習(xí),它們不需要標(biāo)簽數(shù)據(jù),主要用于發(fā)現(xiàn)數(shù)據(jù)中的模式、結(jié)構(gòu)或分組等。20.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識(shí)別)上訓(xùn)練好了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對(duì)于這個(gè)輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對(duì)嗎?A.不對(duì)B.不知道C.對(duì)的D.看情況答案:【A】詳解:因?yàn)樵贗mageNet數(shù)據(jù)集上訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)是針對(duì)該數(shù)據(jù)集的特定物體特征進(jìn)行學(xué)習(xí)的,全白圖片不包含這些物體的特征信息,所以網(wǎng)絡(luò)無(wú)法對(duì)其進(jìn)行正確分類,輸出結(jié)果不是任何種類物體的可能性都一樣,而是會(huì)輸出與訓(xùn)練時(shí)學(xué)到的模式和特征不匹配的結(jié)果。二、多選題(共20題,每題1分,共20分)1.關(guān)于邏輯回歸正確的是()A.以上都不對(duì)B.風(fēng)險(xiǎn)控制是金融領(lǐng)域最核心的問(wèn)題,邏輯回歸是在風(fēng)險(xiǎn)評(píng)估中最經(jīng)典常用的方法C.邏輯回歸可以用到互聯(lián)網(wǎng)廣告點(diǎn)擊預(yù)測(cè)D.邏輯回歸只能用于解決二分類問(wèn)題答案:【BC】2.Transformer由且僅由()和()組成。只要計(jì)算資源夠,可以通過(guò)堆疊多層Transformer來(lái)搭建復(fù)雜網(wǎng)絡(luò)。A.FeedForwardNeuralNetworkB.Self-AttenionC.FeedBackwardNeuralNetworkD.Self-Action答案:【AB】詳解:Transformer主要由Self-Attenion(自注意力機(jī)制)和FeedForwardNeuralNetwork(前饋神經(jīng)網(wǎng)絡(luò))組成。Self-Attenion能夠捕捉輸入序列中不同位置之間的依賴關(guān)系,F(xiàn)eedForwardNeuralNetwork則用于對(duì)經(jīng)過(guò)自注意力機(jī)制處理后的結(jié)果進(jìn)行進(jìn)一步的特征變換和非線性映射等操作。通過(guò)堆疊多層Transformer,可以構(gòu)建出更強(qiáng)大、更復(fù)雜的網(wǎng)絡(luò)模型來(lái)處理各種任務(wù),如自然語(yǔ)言處理中的語(yǔ)言生成、機(jī)器翻譯、文本分類等。3.傳統(tǒng)目標(biāo)檢測(cè)提取特征的方式有()A.HOGB.SIFTC.SVMD.Adaboost答案:【AB】詳解:傳統(tǒng)目標(biāo)檢測(cè)提取特征的方式中,SIFT(尺度不變特征變換)和HOG(方向梯度直方圖)是常用的手工特征提取方法。而SVM(支持向量機(jī))是一種分類算法,Adaboost是一種集成學(xué)習(xí)算法,它們不屬于提取特征的方式。4.下列關(guān)于LeNet的說(shuō)法正確的是()A.卷積和池化層組合使用,逐層級(jí)的提取圖像特征B.在網(wǎng)絡(luò)的最后使用全兩層連接作為輸出C.使用卷積解決了全連接層的不足之處D.在網(wǎng)絡(luò)的最后使用全兩層連接作為輸入答案:【ABC】詳解:LeNet使用卷積解決了全連接層參數(shù)過(guò)多的不足之處,A正確;卷積和池化層組合使用,能夠逐層級(jí)提取圖像特征,B正確;LeNet在網(wǎng)絡(luò)最后使用全連接層作為輸出,C正確,D錯(cuò)誤。5.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A.顯著減少訓(xùn)練時(shí)間開(kāi)銷B.提高欠擬合風(fēng)險(xiǎn)C.降低過(guò)擬合風(fēng)險(xiǎn)D.顯著減少測(cè)試時(shí)間開(kāi)銷答案:【ABCD】6.統(tǒng)計(jì)模式分類問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()A.最小損失準(zhǔn)則B.最小最大損失準(zhǔn)則C.N-P判決D.最小誤判概率準(zhǔn)則答案:【BC】7.經(jīng)典邏輯推理有哪些?A.與、或形演繹推理B.不確定與非單調(diào)推理C.自然演繹推理D.歸結(jié)演繹推理答案:【ACD】8.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)()A.CountVectorizeB.one-hotencoderC.?dāng)?shù)字屬性的缺失值補(bǔ)0D.LabelEncoder答案:【ABCD】9.哪些組件是BERT模型所采用的()A.LayerNormB.循環(huán)連接C.全連接層D.BatchNorm答案:【AC】詳解:BERT模型采用了LayerNorm進(jìn)行歸一化處理,以加速訓(xùn)練并提高泛化能力;同時(shí)也包含全連接層用于對(duì)特征進(jìn)行進(jìn)一步的變換和處理。而B(niǎo)atchNorm一般不是BERT所采用的歸一化方式,循環(huán)連接表述不準(zhǔn)確,BERT主要基于Transformer架構(gòu),Transformer中沒(méi)有循環(huán)連接這種說(shuō)法,不過(guò)Transformer的Self-Attention機(jī)制中存在自注意力計(jì)算等操作,這里選項(xiàng)D猜測(cè)出題人意圖可能是指Self-Attention相關(guān)的某種變形表述(但不太準(zhǔn)確),按照正常對(duì)選項(xiàng)的理解,答案為BC。10.圖像數(shù)字化需要經(jīng)過(guò)的步驟包括()A.裁剪B.旋轉(zhuǎn)C.采樣D.量化答案:【CD】詳解:圖像數(shù)字化主要包括采樣和量化兩個(gè)步驟。采樣是將連續(xù)的圖像空間坐標(biāo)上的點(diǎn)進(jìn)行離散化處理,得到離散的采樣點(diǎn)。量化是將采樣點(diǎn)的顏色等屬性值用離散的整數(shù)值來(lái)表示,從而完成圖像的數(shù)字化。裁剪是對(duì)圖像內(nèi)容進(jìn)行選取部分的操作,旋轉(zhuǎn)是對(duì)圖像進(jìn)行角度旋轉(zhuǎn)的操作,它們不屬于圖像數(shù)字化的基本步驟。11.分類問(wèn)題的評(píng)估方法包括A.均方誤差B.精確率C.正確率D.召回率答案:【BCD】詳解:1.**正確率**:分類正確的樣本數(shù)占總樣本數(shù)的比例,能直觀反映分類器正確分類的能力。2.**精確率**:預(yù)測(cè)為正例的樣本中真正正例的比例,衡量分類器預(yù)測(cè)正例的準(zhǔn)確性。3.**召回率**:實(shí)際正例中被預(yù)測(cè)為正例的比例,體現(xiàn)分類器對(duì)正例的捕捉能力。4.**均方誤差**:常用于回歸問(wèn)題,衡量預(yù)測(cè)值與真實(shí)值之間的平均誤差平方,不適合分類問(wèn)題的評(píng)估。12.K-Means聚類法的局限性體現(xiàn)在()A.由K-Means聚類法得到的聚類結(jié)果,輪廓系數(shù)都不是很大。B.應(yīng)用K-Means聚類法需要預(yù)先設(shè)定聚類個(gè)數(shù)C.K-Means聚類法對(duì)噪聲和離群點(diǎn)敏感D.K-Means聚類法對(duì)變量的要求比較高答案:【BCD】13.以下技術(shù),BERT使用的包括哪些?()A.RNN循環(huán)連接B.Sel-Attention模塊C.TransformerD.文本卷積答案:【BC】詳解:BERT模型基于Transformer架構(gòu),同時(shí)也運(yùn)用了Self-Attention模塊。它摒棄了傳統(tǒng)的RNN循環(huán)連接方式,文本卷積也不是其主要使用的技術(shù)。14.以下屬于Anchor-free的目標(biāo)檢測(cè)模型有?A.FCOSB.PANetC.CornerNetD.CenterNet答案:【ACD】詳解:CornerNet是最早提出的Anchor-free目標(biāo)檢測(cè)算法;FCOS是一種全卷積單階段Anchor-free目標(biāo)檢測(cè)算法;CenterNet也是一種Anchor-free的目標(biāo)檢測(cè)模型。而PANet是一種基于FPN的改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),不屬于Anchor-free模型。15.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A.池化層可以起到降維的作用B.經(jīng)過(guò)池化的特征圖像變小了C.池化操作采用掃描窗口實(shí)現(xiàn)D.常用的池化方法有最大池化和平均池化答案:【ABCD】詳解:池化操作通過(guò)掃描窗口對(duì)圖像區(qū)域進(jìn)行處理,所以選項(xiàng)A正確;池化層通過(guò)減少特征圖的尺寸等方式起到降維作用,選項(xiàng)B正確;常用的池化方法確實(shí)有最大池化和平均池化,選項(xiàng)C正確;池化會(huì)使特征圖的尺寸變小,選項(xiàng)D正確。16.層次聚類數(shù)據(jù)集的劃分采用了哪些策略?()A.自底向上B.以上都是C.自頂向下D.貪心策略答案:【AC】詳解:層次聚類有兩種基本策略,自底向上和自頂向下。自底向上是從每個(gè)數(shù)據(jù)點(diǎn)作為一個(gè)單獨(dú)的類開(kāi)始,不斷合并相似的類;自頂向下則是從所有數(shù)據(jù)點(diǎn)都在一個(gè)類開(kāi)始,逐步分裂成更小的類。貪心策略一般用于貪心算法中,層次聚類并不采用貪心策略。17.下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()A.計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤B.代碼編寫(xiě)較為簡(jiǎn)潔和方便C.無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行D.控制流與Python不同,造成一定的學(xué)習(xí)門檻答案:【ACD】詳解:靜態(tài)圖的缺點(diǎn)包括:計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤;無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行;控制流與Python不同,造成一定的學(xué)習(xí)門檻。而選項(xiàng)A中代碼編寫(xiě)較為簡(jiǎn)潔和方便是靜態(tài)圖的優(yōu)點(diǎn),不是缺點(diǎn)。18.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A.機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的B.機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的C.傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)D.傳統(tǒng)基于規(guī)則的方法
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 物流公司配送團(tuán)隊(duì)倉(cāng)庫(kù)管理員績(jī)效考核表
- 護(hù)理人員用藥知識(shí)更新
- 跨境電商保稅倉(cāng)運(yùn)輸管理協(xié)議(2025年多國(guó)配送)
- 寵物驅(qū)蟲(chóng)類準(zhǔn)入考試題及答案
- 采買工作考試試題及答案
- 2025-2026人教版七年級(jí)語(yǔ)文期末真題卷
- 2025-2026二年級(jí)美術(shù)湘教版上學(xué)期卷
- 衛(wèi)生計(jì)生局局務(wù)會(huì)議制度
- 醫(yī)療衛(wèi)生傳染病防治制度
- 衛(wèi)生院責(zé)任管理制度
- 航空安保審計(jì)培訓(xùn)課件
- 高層建筑滅火器配置專項(xiàng)施工方案
- 2023-2024學(xué)年廣東深圳紅嶺中學(xué)高二(上)學(xué)段一數(shù)學(xué)試題含答案
- 2026元旦主題班會(huì):馬年猜猜樂(lè)馬年成語(yǔ)教學(xué)課件
- 2025中國(guó)農(nóng)業(yè)科學(xué)院植物保護(hù)研究所第二批招聘創(chuàng)新中心科研崗筆試筆試參考試題附答案解析
- 反洗錢審計(jì)師反洗錢審計(jì)技巧與方法
- 檢驗(yàn)科安全生產(chǎn)培訓(xùn)課件
- 爆破施工安全管理方案
- 2026全國(guó)青少年模擬飛行考核理論知識(shí)題庫(kù)40題含答案(綜合卷)
- 2025線粒體醫(yī)學(xué)行業(yè)發(fā)展現(xiàn)狀與未來(lái)趨勢(shì)白皮書(shū)
- 靜壓機(jī)工程樁吊裝專項(xiàng)方案(2025版)
評(píng)論
0/150
提交評(píng)論