2022年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)_第1頁(yè)
2022年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)_第2頁(yè)
2022年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)_第3頁(yè)
2022年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)_第4頁(yè)
2022年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)_第5頁(yè)
已閱讀5頁(yè),還剩169頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2022年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)一、單選題.以下關(guān)于烯、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、炳越大,不確定性越大,信息量也就越大B、信息增益越大,表示某個(gè)條件烯對(duì)信息烯減少程序越大,也就是說(shuō),這個(gè)屬性對(duì)于信息的判斷起到的作用越大C、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)D、烯權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性答案:C.目前RNN中常用的激活函數(shù)是0A、reluB、sigmoidC、eIuD、Swish答案:B.下列方法中,能夠返回某個(gè)字串在字符串中出現(xiàn)的次數(shù)的是。。A、Ien()B、count()C、find()D、spIit()答案:B.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來(lái)形容下列哪個(gè)模型?A、KMeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C.將一個(gè)字符串格式的日期轉(zhuǎn)換為時(shí)間格式,應(yīng)使用以下哪個(gè)函數(shù)A、date_timeB\date_rangeC、to_timedeItaD\to_datetime答案:D.線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性答案:B.下列有關(guān)樸素貝葉斯的說(shuō)法不正確的是:A、易于實(shí)現(xiàn),但學(xué)習(xí)和預(yù)測(cè)的效率低B、在數(shù)據(jù)較少的時(shí)仍然有效C、特征獨(dú)立性假設(shè)使模型變得簡(jiǎn)單D、可以處理多分類問(wèn)題答案:A.下列關(guān)于核函數(shù)的表述正確的是A、核函數(shù)即特征的映射關(guān)系B、多項(xiàng)式核函數(shù)只是將原始特征映射,并沒(méi)有升維C、高斯核函數(shù)將特征映射到無(wú)窮維D、使用線性核函數(shù)的SVM是非線性分類器答案:C.決策樹(shù)的生成是一個(gè)(一)過(guò)程。A、聚類B、回歸C、遞歸D、KNN答案:C.根據(jù)機(jī)器智能水平由低到高,正確的是。A、計(jì)算智能、感知智能、認(rèn)知智能B、計(jì)算智能、感應(yīng)智能、認(rèn)知智能C、機(jī)器智能、感知智能、認(rèn)知智能D、機(jī)器智能、感應(yīng)智能、認(rèn)知智能答案:A.為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型。A、KNNB、RNNC、BNND、VGG答案:C.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系D、以上都不對(duì)答案:A.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1.2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,ndim)(3,4)B、2C、(4,3)D、4答案:B.從給定的句子'段落中識(shí)別人名'地名'機(jī)構(gòu)名'專有名詞的過(guò)程稱為?A、詞干提取B、停用詞C、詞形還原D、命名實(shí)體識(shí)別答案:D.以下關(guān)于樸素貝葉斯說(shuō)法不正確的是A、樸素貝葉斯是基于貝葉斯公式/理論建立的一種用于簡(jiǎn)單分類的算法,B、其前置模型是特征值條件獨(dú)立C、基本思想是對(duì)于給定的待分類項(xiàng),求解在此項(xiàng)出現(xiàn)的條件下,統(tǒng)計(jì)計(jì)算各個(gè)類別出現(xiàn)的概率,取出現(xiàn)最大概率的作為此待分類項(xiàng)類別。D、對(duì)缺失數(shù)據(jù)比較敏感,算法比較簡(jiǎn)單,常用于文本分類,欺詐檢測(cè)答案:D.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,。也是學(xué)習(xí)跟新的重要內(nèi)容A、Iearning_ratestepC、weightD、padding答案:c.圖像識(shí)別是以圖像的主要。為基礎(chǔ)的A、元素B、像素C、特征D、部件.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問(wèn)題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過(guò)程比較耗時(shí)答案:C.以下關(guān)于數(shù)據(jù)質(zhì)量的說(shuō)法不正確的是A、數(shù)據(jù)質(zhì)量是基于一組定性或定量變量的值的條件下提出的概念B、數(shù)據(jù)內(nèi)部一致性的問(wèn)題非常重要C、一組數(shù)據(jù)特性滿足業(yè)務(wù)需求的程度D、數(shù)據(jù)清洗的必要性不大答案:D.在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-fitting)中影響最大?A、多項(xiàng)式階數(shù)B、更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降C、使用常數(shù)項(xiàng)答案:A.下列算法常用于聚類的問(wèn)題是。A、k-meansB、邏輯回歸模型C、決策樹(shù)模型D、隨機(jī)森林模型答案:A.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對(duì)網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說(shuō)法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱答案:B.scikit-learn用于訓(xùn)練模型的函數(shù)接口是?A、Fit()B、fit()C、Train()Dvtrain0答案:B.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)A、LeNetB、GoogIeNetBi-LSTMBERT.以下哪種分類方法對(duì)樣本質(zhì)量要求最高()。A、KNNB、支持向量機(jī)C、貝葉斯D、神經(jīng)網(wǎng)絡(luò)答案:A.以下不屬于多層前饋神經(jīng)網(wǎng)絡(luò)特點(diǎn)的是A、每層神經(jīng)元與下一層神經(jīng)元之間完全互連B、每層神經(jīng)元與下一層神經(jīng)元之間不完全互連C、神經(jīng)元之間不存在同層連接D、神經(jīng)元之間不存在跨層連接答案:B.卷積運(yùn)算過(guò)程正確的順序是:①.對(duì)應(yīng)位置求乘積②所有位置求和③輸出一個(gè)位置的結(jié)果④移動(dòng)卷積核A、①②③④B、①④②③C、②③①④D、④③①②答案:A.LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種。。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、樸素貝葉斯D、深度殘差網(wǎng)絡(luò)答案:A.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D.彩色圖像中,每個(gè)像素點(diǎn)通常采用。表示色彩值A(chǔ)、一個(gè)值B、二個(gè)值C、三個(gè)值D、四個(gè)值答案:C.一般我們建議將卷積生成對(duì)抗網(wǎng)絡(luò)(convolutionaIgenerativeadversariaInets)中生成部分的池化層替換成什么?A、跨距卷積層(StridedconvoIutionaIlayer)B、ReLU層C、局部跨距卷積層(FractionaIstridedconvoIutionaIlayer)D、仿射層(Affinelayer)答案:c.數(shù)據(jù)分析常用包pandas的函數(shù)to_datetime可以將字符串轉(zhuǎn)換為時(shí)間戳,現(xiàn)需要將”20220601”轉(zhuǎn)換為時(shí)間戳,請(qǐng)問(wèn)下列哪項(xiàng)語(yǔ)句可以實(shí)現(xiàn)該項(xiàng)需求A、pd.to_datetime('20220601',format:'%Y%m%d')B、pd.to_datetime('20220601',format='%Y%M%d')C、pd.to_datetime('20220601',format:'%Y%m%D')D、pd.to_datetime('20220601',format='%Y%M%D')答案:A.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對(duì)答案:B.測(cè)試集應(yīng)盡可能與訓(xùn)練集(一)□C、互斥D、包含答案:C.屬于常見(jiàn)損失函數(shù):A、計(jì)算預(yù)測(cè)值函數(shù)B、求偏導(dǎo)數(shù)函數(shù)C、均方誤差損失函數(shù)D、更新參數(shù)函數(shù)答案:C.以下激活函數(shù)中,不具有“正向無(wú)邊界”特征的是?A、ReLUB、SigmoidC、softpIusD、Mish答案:B.一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪些流程?①抽象成數(shù)學(xué)問(wèn)題②獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運(yùn)行A、①②③④⑤B、②③④⑤⑥C、①②③④⑤⑥D(zhuǎn)、①②④⑤⑥.ONE-HOT-ENCODING可用于什么特征處理A、類別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征答案:A.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了使用較少時(shí)間,我們可以。A、增加樹(shù)的深度B、增加學(xué)習(xí)率C、減少樹(shù)的深度D、減少樹(shù)的數(shù)量答案:C.下列關(guān)于Python函數(shù)調(diào)用說(shuō)法錯(cuò)誤的是()。A、函數(shù)的遞歸調(diào)用必須有一個(gè)明確的結(jié)束條件B、函數(shù)的遞歸調(diào)用每次進(jìn)入更深一層遞歸時(shí),問(wèn)題規(guī)模相比上次遞歸都應(yīng)有所減少C、函數(shù)的遞歸調(diào)用效率不高,遞歸層次過(guò)多會(huì)導(dǎo)致棧溢出(在計(jì)算機(jī)中,函數(shù)調(diào)用是通過(guò)棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的,每當(dāng)進(jìn)入一個(gè)函數(shù)調(diào)用,棧就會(huì)加一層棧幀,每當(dāng)函數(shù)返回,棧就會(huì)減一層棧)D、函數(shù)的遞歸調(diào)用由于棧的大小是無(wú)限的,所以,遞歸調(diào)用的次數(shù)過(guò)多,也不會(huì)導(dǎo)致棧溢出答案:D.關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法中,正確的是。A、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率答案:C.以下對(duì)于標(biāo)稱屬性說(shuō)法不正確的是A、標(biāo)稱屬性的值是一些符號(hào)或事物的名稱,每種值代表某種類別'編碼或狀態(tài)。B、標(biāo)稱值并不具有有意義的順序,且不是定量的C、對(duì)于給定對(duì)象集,找出這些屬性的均值、中值沒(méi)有意義。D、標(biāo)稱屬性通過(guò)將數(shù)值量的值域劃分有限個(gè)有序類別,把數(shù)值屬性離散化得來(lái)。答案:D.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了減少訓(xùn)練時(shí)間,我們可以A、增加樹(shù)的深度B、增大學(xué)習(xí)率(LearninRate)C、對(duì)決策樹(shù)模型進(jìn)行預(yù)剪枝D、減少樹(shù)的數(shù)量答案:C.我們可以采取哪些措施來(lái)防止神經(jīng)網(wǎng)絡(luò)中的過(guò)擬合?A、數(shù)據(jù)增強(qiáng)B、權(quán)重共享C、提前停止D、DropoutE、以上全部答案:E.()適合連續(xù)特征,它假設(shè)每個(gè)特征對(duì)于每個(gè)類都符合正態(tài)分布。A、GaussianNBB、BernouIIiNBGMultinomiaINBD、BaseDiscreteNB答案:A.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯(cuò)誤的是?A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫(kù)中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問(wèn)題,引入了F1分?jǐn)?shù)答案:C.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說(shuō)法中正確的是?A、在實(shí)際場(chǎng)景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過(guò)擬合答案:C.卷積層是深度神經(jīng)網(wǎng)絡(luò)的主要結(jié)構(gòu)之一,已經(jīng)在大量任務(wù)中用到,下面哪一個(gè)任務(wù)的主流方法中沒(méi)有用到卷積層A、為圖像自動(dòng)生成描述標(biāo)題B、中英文互譯C、中文分詞D、場(chǎng)景文字檢測(cè)答案:C.執(zhí)行完語(yǔ)句Xtrain,Xtest,ytrain,y_test=train_test_spIit(...iris.data,iris,target,test_size=O.4,random_state=0),訓(xùn)練集占比多少?A、40%B、50%C、60%Dv70%答案:C.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過(guò)程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無(wú)法發(fā)揮顯著優(yōu)勢(shì)?A、仿射層B、卷積層C、RNN層D、均不對(duì)答案:C.考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌??A、少于2sB、大于2sG仍是2sD、說(shuō)不準(zhǔn)答案:C.下列選項(xiàng)中,無(wú)監(jiān)督學(xué)習(xí)模型是A\DecisionB、K_meansC、SVMD、LogisticRegression答案:B.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率答案:A.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationIearningaIgorithm)?()A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C.對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說(shuō)法正確的是A、均方根誤差接近1最好B、均方根誤差越大越好C、決定系數(shù)越接近1越好D、決定系數(shù)越接近0越好答案:C.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說(shuō)C、不一定.以下哪些不是人工智能概念的正確表述A、人工智能是為了開(kāi)發(fā)一類計(jì)算機(jī)使之能夠完成通常由人類所能做的事B、人工智能是研究和構(gòu)建在給定環(huán)境下表現(xiàn)良好的智能體程序C、人工智能是通過(guò)機(jī)器或軟件展現(xiàn)的智能D、人工智能將其定義為人類智能體的研究答案:D.閔可夫斯基距離表示為曼哈頓距離時(shí),p為。。A、1B、2C、3D、4答案:A.為了解決如何模擬人類的感性思維,例如視覺(jué)理解、直覺(jué)思維、悟性等,研究者找到一個(gè)重要的信息處理的機(jī)制是A、專家系統(tǒng)B、人工神經(jīng)網(wǎng)絡(luò)C、模式識(shí)別D、智能代理答案:B.下面的問(wèn)題,屬于分類問(wèn)題的是;A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力'成長(zhǎng)環(huán)境'工作年限'績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的銷售額答案:C.()曲線以precision、recall為橫縱坐標(biāo)A、AP曲線B、PR曲線GmAP曲線D、Rol曲線答案:B.Adaboost就是從。出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強(qiáng)分類器C、多個(gè)分類器D、單個(gè)分類器答案:A.以下對(duì)字典的說(shuō)法錯(cuò)誤的是。。A、字典可以為空B\字典的鍵不能相同C、字典的鍵不可變D、字典的鍵的值不可變答案:D.神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派?A、符號(hào)主義B、連接主義C、行為主義D、以上都不是答案:B.梯度下降算法的正確步驟是什么?1計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3把輸入傳入網(wǎng)絡(luò),得到輸出值4隨機(jī)值初始化權(quán)重和偏差5對(duì)每個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2答案:D.下方法中屬于無(wú)監(jiān)督學(xué)習(xí)算法的是。A、線性回歸B、支持向量機(jī)C、決策樹(shù)D\K-Means聚類答案:D.在輸出層不能使用以下哪種激活函數(shù)來(lái)分類圖像?A、sigmoidTanhReLUD、If(x>5,1,0)答案:C.影響深度卷積神經(jīng)網(wǎng)絡(luò)算法的關(guān)鍵參數(shù)是。A、網(wǎng)絡(luò)數(shù)量B、網(wǎng)絡(luò)深度C、網(wǎng)絡(luò)結(jié)構(gòu)D、網(wǎng)絡(luò)主體答案:B.下面哪種方法沒(méi)辦法直接應(yīng)用于自然語(yǔ)言處理的任務(wù)?A、去語(yǔ)法模型B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、主成分分析(PCA)答案:D.ID3算法選擇劃分屬性的準(zhǔn)則是A、信息增益B、增益率C、基尼系數(shù)D、信息熠答案:A.以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法()。STINGB、WaveIusterC、MAFID、IRH答案:D.測(cè)試集應(yīng)盡可能與訓(xùn)練集A、相容B、相等C、互斥Dv包含答案:C.神經(jīng)元之間的每個(gè)連接都有。權(quán)重。A、一個(gè)B、兩個(gè)C、多個(gè)D、無(wú).超市收銀員用掃描器直接掃描商品的條形碼,商品的價(jià)格信息就會(huì)呈現(xiàn)出來(lái),這主要利用了人工智能中的。技術(shù)。A、智能代理B、模式識(shí)別C、機(jī)器翻譯D、專家系統(tǒng)答案:B.感知機(jī)(Perceptron)是由。層神經(jīng)元組成的一個(gè)簡(jiǎn)單模型A、1B、2C、3D、4答案:B.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說(shuō)法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B.卷積的擴(kuò)展方式是加():一個(gè)卷積核可以提取圖像的一種特征,多個(gè)卷積核提取多種特征。A、痣波器B、卷積層C、卷積核D、通道答案:C.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨(dú)立答案:B.()是人以自然語(yǔ)言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語(yǔ)言學(xué)、心理學(xué)、工程、計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。A、語(yǔ)音交互B、情感交互C、體感交互D、腦機(jī)交互答案:A.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是。AvHopfieId網(wǎng)B、BP網(wǎng)絡(luò)C、多層感知器D、LVQ網(wǎng)絡(luò)答案:B.下面哪個(gè)選項(xiàng)中哪一項(xiàng)屬于確定性算法A、PCAK-MeansC、以上都不是D、AB都是答案:A.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮;D、$1,3,4,5答案:C.在模型中全連接層可采用A、paddle,nn.LinearBvpaddIe.nn.Conv2DpaddIe.nn.MaxPoo12DD、paddIe.nn.ReLU.fromskIearnimportIinearmodeIreg=linearmodeI.Lasso,其中Lasso是用來(lái)擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標(biāo)簽答案:B.下列哪種不屬于進(jìn)化計(jì)算。A、遺傳算法B、認(rèn)知機(jī)C、進(jìn)化編程D、進(jìn)化策略答案:B.用numpy創(chuàng)建單位矩陣使用。np.identitynp.onesC、np.random,randD、np.arange答案:A.下列選項(xiàng)中,可以通過(guò)掃描儀將其轉(zhuǎn)換成數(shù)字圖像輸入電腦中,然后通過(guò)0CR軟件識(shí)別成文本信息的是。A、報(bào)紙B、FLASH動(dòng)畫(huà)C、歌曲D、電影答案:A.以下哪種問(wèn)題主要采用無(wú)監(jiān)督學(xué)習(xí)方法?A、頻繁項(xiàng)挖掘B、股價(jià)預(yù)測(cè)C、圖像分類D、文本情感分析答案:A.()基于當(dāng)前已知的搖臂平均獎(jiǎng)賞來(lái)對(duì)探索和利用進(jìn)行折中。若各搖臂的平均獎(jiǎng)賞相當(dāng),則選取各搖臂的概率也相當(dāng);若某些搖臂的平均獎(jiǎng)賞明顯高于其他搖臂,則它們被選取的概率也明顯更高。A、有模型學(xué)習(xí)B、探索與利用C、E-貪心算法Softmax答案:D.()是用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降答案:A.詞向量是表示自然語(yǔ)言里單詞的一種方法,即把每個(gè)詞都表示為一個(gè)N維空間內(nèi)的。。A、線段B、平面C、點(diǎn)D、線答案:C.下列不屬于樹(shù)模型的是A、GBDT梯度提升樹(shù)B、XGBoostC、RF隨機(jī)森林D、LR線性回歸答案:D.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識(shí)別D、數(shù)據(jù)增強(qiáng)答案:C.以下哪種方法不可以有效防止過(guò)擬合?()A、使用Mini-batchB、設(shè)置EarlyStopingG使用DropoutD、更換網(wǎng)絡(luò)架構(gòu)答案:A.使用一組槽來(lái)描述事件的發(fā)生序列,這種知識(shí)表示法叫做()A、語(yǔ)義網(wǎng)絡(luò)法B、過(guò)程表示法C、劇本表示法D、框架表示法答案:C.深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行過(guò)程是由三個(gè)算法依次運(yùn)行組成,下面不屬于這三個(gè)算法中的是A、歸一化B、正向傳播C、反向傳播D、梯度下降答案:A.我們?nèi)粘I钪械纳舷掳?,指紋掃描打卡考勤、虹膜掃描,應(yīng)用到了人工智能中的。A、機(jī)器翻譯技術(shù)B、機(jī)器翻譯C、虛擬現(xiàn)實(shí)D、模式識(shí)別答案:D.下列關(guān)于隨機(jī)變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A、離散型隨機(jī)變量沒(méi)有分布函數(shù)B、密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。C、分布函數(shù)描述隨機(jī)變量的取值規(guī)律D、分布律只能描述離散型隨機(jī)變量的取值規(guī)律答案:A.下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理?。A、DecisionTreeB.SVMB\KmeansC、LogisticRegression答案:A.下列關(guān)于XGboost算法描述中錯(cuò)誤的是A、由于其特殊原因,無(wú)法分布式化B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度;C、可以處理帶有缺失值的樣本D、允許使用列抽樣來(lái)減少過(guò)擬合答案:A.哪個(gè)不是常用的聚類算法()。AxK-MeansB、DBSCANC、GMMsDvSoftmax答案:D.當(dāng)決策樹(shù)出現(xiàn)過(guò)擬合的時(shí)候,可以采取以下哪些措施OA、剪枝B、增加訓(xùn)練次數(shù)C、進(jìn)行交叉檢驗(yàn)D、以上均可答案:A.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練時(shí),依賴于以下哪一種法則進(jìn)行參數(shù)計(jì)算?A、最大值法則B、最小值法則C、鏈?zhǔn)角髮?dǎo)法則D、平均求導(dǎo)法則答案:C104飛乂算法通過(guò)迭代求1_(36七之=1"「(丫|36七旬的(),每次迭代交替進(jìn)行求期望和求極大化。A、無(wú)偏估計(jì)B、極大似然估計(jì)C、區(qū)間估計(jì)D、有偏估計(jì)答案:B105.下列哪個(gè)選項(xiàng)中的模型屬于集成學(xué)習(xí)()A、C4.5B、kNN分類GAdaboostD、k-means答案:C.關(guān)于支持向量機(jī)SVM,下列說(shuō)法錯(cuò)誤的是A、L2正則項(xiàng),作用是最大化分類間隔,使得分類器擁有更強(qiáng)的泛化能力B、Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類錯(cuò)誤C、分類間隔為1w答案:C.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗(yàn)概率答案:A.ResNet-50:depth:[3,4,6,3]代表()A、C3有3個(gè)殘差塊B、C4有4個(gè)殘差塊C、C5有4個(gè)殘差塊D、C2有3個(gè)殘差塊答案:D.CNN卷積網(wǎng)絡(luò)中,fiIter尺寸的選擇多為。A、奇數(shù)B、偶數(shù)C、整數(shù)D、分?jǐn)?shù)答案:A.梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)變?yōu)闊o(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題?A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB、梯度裁剪C、DropoutD、所有方法都不行答案:B.長(zhǎng)短期記憶網(wǎng)絡(luò)中,當(dāng)想要剔除之前無(wú)用的信息,應(yīng)采用。A、遺忘門B、更新門C、輸入門D、輸出門答案:A.重復(fù)K-折交叉驗(yàn)證應(yīng)該使用哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:A.關(guān)于反向傳播,以下說(shuō)法錯(cuò)誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會(huì)經(jīng)過(guò)激活函數(shù)D、反向傳播指的是誤差通過(guò)網(wǎng)絡(luò)反向傳播答案:A.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?SoftmaxReLuC、SigmoidD\Tanh答案:A.邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用?A、Sigmoid函數(shù)B、tanh函數(shù)GReLU函數(shù)D\LeakyReLU函數(shù)答案:A.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)Xo在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」oX可能是以下哪一個(gè)激活函數(shù)?ReLUtanhSIGMOIDD、以上都不是答案:B.GoogLeNetlnceptionVI中使用了5*5的卷積核所以訓(xùn)練代價(jià)非常高,為了解決這個(gè)問(wèn)題,GoogLeNet使用的方法是:A、取消5*5的卷積核B、先用1*1的卷積核降維,然后在使用5*5的卷積核C、把5*5拆分為2個(gè)3*3D、縮減5*5的卷積核的個(gè)數(shù)答案:B.獨(dú)熱編碼的缺點(diǎn)是:①.過(guò)于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲(chǔ)A、③④B、①②C、①③D、②④答案:B.以下關(guān)于GBDT算法的說(shuō)法不正確的是A、計(jì)算進(jìn)度較低B、無(wú)法并行計(jì)算C、計(jì)算量較大D、可以防止過(guò)擬合答案:A.以下不屬于回歸分析的是()。A、線性回歸B、BP神經(jīng)網(wǎng)絡(luò)GARIMAD、SVM支撐向量機(jī)答案:C.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingBaggingD、Marking答案:D.下列屬于無(wú)監(jiān)督學(xué)習(xí)的是()A、KNNB、LogistiRegressionC、k-meansD、SVM答案:c.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、BGDC、MGDMBGD答案:A.隱馬爾可夫模型(HMM)是結(jié)構(gòu)最簡(jiǎn)單的動(dòng)態(tài)貝葉斯網(wǎng)絡(luò),是一種著名的()模型。A、無(wú)向圖B、雙向圖C、有向圖D、單向圖答案:C.下列哪項(xiàng)不是知識(shí)圖譜構(gòu)建的主要技術(shù)()A、命名實(shí)體識(shí)別B、實(shí)體鏈接C、關(guān)系抽取D、詞性標(biāo)注答案:D.以下哪些是通用逼近器?A、KerneISVMB、NeuraINetworksC、BoostedDecisionTreesD、以上所有答案:D.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A\卷積層B、池化層C、全連接層D、以上都可以答案:C.回歸算法預(yù)測(cè)的標(biāo)簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型答案:D.以下哪種方法不能防止過(guò)擬合?A、交叉驗(yàn)證B、低維嵌入C、剪枝D、集成學(xué)習(xí).池化操作的作用是:A、上采樣B、下采樣C、paddingD、增加特征圖通道數(shù)答案:B.常見(jiàn)的數(shù)據(jù)集劃分方式不包括A、留出法B、裝袋法C、交叉驗(yàn)證法D、自助法答案:B.梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)變?yōu)闊o(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題?A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB、梯度裁剪C、DropoutD、所有方法都不行答案:B.在多通道卷積過(guò)程中,要生成n個(gè)featuremaps,需要。個(gè)卷積核立方體。A、n-2c、[n/2]注[x]表示對(duì)X取整D、n答案:D.CNN不具有以下那個(gè)特性。A、局部連接B、權(quán)值共享C、空間或時(shí)間上的下采樣D、不定長(zhǎng)輸入答案:D.殘疾結(jié)構(gòu)是ResNet能夠極大的緩解梯度消失的法寶,那么殘差結(jié)構(gòu)的作用是:A、取消了反向傳播,所以就能解決梯度消失問(wèn)題B、將信息不經(jīng)過(guò)卷積操作直接和卷積的結(jié)果融合C、阻斷正向傳播的過(guò)程D、減少了參數(shù)的數(shù)量答案:B.tf.keras.preprocessing的作用是?A、keras模型部署工具B、keras數(shù)據(jù)處理工具C、Keras生成模型工具D、Keras內(nèi)置優(yōu)化器.混淆矩陣中的TP=16,FP=12,FN=8,TN=4,F1-score是()。A、1212122022年4月13日B、1212122022年8月13日C、1212122022年4月7日D、1212122022年2月3日答案:B.GoogLeNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度答案:A.小王和老張交換名片后,小王打開(kāi)手機(jī)中安裝的靈云智能輸入法app,拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是()A、模式識(shí)別B、文字合成C、圖像搜索D、圖像還原答案:A.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對(duì)數(shù)損失函數(shù)D、Hinge損失函數(shù)答案:B.在執(zhí)行了以下的文本清理步驟之后,可從下面的語(yǔ)句中生成多少三元組短語(yǔ)(trigram)操作:[1].停用詞移除[2].使用單一空格替換標(biāo)點(diǎn)符號(hào)語(yǔ)句:#Analytics-vidhyaisagreatsourcetoIearndata_science.A、3B、4C、5D、6答案:C.在循環(huán)語(yǔ)句中,語(yǔ)句的作用是提前進(jìn)入下一次循環(huán)。breakB\continueC、returnD\pass答案:B.ResNet-50有多少個(gè)卷積層?()A、48B、49C、50D、51答案:B.下列哪項(xiàng)不是機(jī)器學(xué)習(xí)中基于實(shí)例學(xué)習(xí)的常用方法。A、K近鄰方法B、局部加權(quán)回歸法C、基于案例的推理D、Find-s算法答案:D.()函數(shù)一般用在多分類問(wèn)題中,它是對(duì)邏輯斯蒂回歸logistic的一種推廣,也被稱為多項(xiàng)式邏輯斯蒂回歸模型。A、ReIusoftmaxTanhD、sigmoid答案:B.關(guān)于線性回歸的描述,以下說(shuō)法正確的有。A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)答案:B.使用交叉驗(yàn)證最簡(jiǎn)單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?cross_val_scorecross_va1%val_scorecross_score答案:A148..混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?A、混沌度沒(méi)什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對(duì)于結(jié)果的影響不一定答案:B.下面的交叉驗(yàn)證方法:i.有放回的Bootstrap方法ii.留一個(gè)測(cè)試樣本的交叉驗(yàn)證iii.5折交叉驗(yàn)證iv.重復(fù)兩次的5折教程驗(yàn)證當(dāng)樣本是1000時(shí),下面執(zhí)行時(shí)間的順序,正確的是:A、i>ii>iii>ivB、ii>iv>iii>iC、iv>i>ii>iiiD、ii>iii>iv>i答案:B.下列哪個(gè)包不是用于處理圖像的?。B\skimageC、opencvD\gensim答案:D.下面不屬于人工神經(jīng)網(wǎng)絡(luò)的是。。A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、網(wǎng)絡(luò)森林D、深度神經(jīng)網(wǎng)絡(luò)答案:C.下面關(guān)于模型預(yù)測(cè)性能的評(píng)估以及交叉驗(yàn)證,說(shuō)法正確的是:A、在scikit-learn包里面使用交叉驗(yàn)證方法,可以使用代碼:fromskIearnimportcross_vaIidationB、需要把數(shù)據(jù)分成訓(xùn)練集和測(cè)試集,用測(cè)試集來(lái)評(píng)估從訓(xùn)練集學(xué)習(xí)得來(lái)的模型的預(yù)測(cè)性能,是因?yàn)閺挠?xùn)練集學(xué)習(xí)得來(lái)的模型可能對(duì)于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對(duì)于訓(xùn)練集以外的數(shù)據(jù)沒(méi)有太大的泛化能力C、課程中的交叉驗(yàn)證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測(cè)試集,這種方法叫做留一交叉驗(yàn)證法D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測(cè)準(zhǔn)確率一般會(huì)比用測(cè)試集得到的預(yù)測(cè)準(zhǔn)確率低.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()abodeedcbaC\cbaedD、dcaeb答案:D.以下關(guān)于人工智能概念的描述中,錯(cuò)誤的是Av人工智能英文翻譯是ArtificialIntelIigenceB、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對(duì)人的意識(shí)、思維過(guò)程進(jìn)行模擬答案:C.下面哪一項(xiàng)對(duì)梯度下降(GD)和隨機(jī)梯度下降(SGD)的描述是正確的?1在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,每一次迭代需要使用整個(gè)訓(xùn)練集的數(shù)據(jù)更新一個(gè)參數(shù)。A、只有1BB、只有2C、只有3D、都正確答案:A.表達(dá)式Iist(range(5))的值為。A、[0,1,2,3,4]B、[1,2,3,4,5]C、[0,1,2,3,4,5]D、[1,2,3,4]答案:A.pandas每個(gè)索引都有一些方法和屬性,下列。方法用來(lái)刪除傳入的值,并得到新的IndexoA、diffB、deIetedropD、isin答案:C.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說(shuō)C、不一定D、不能答案:D.感知機(jī)描述錯(cuò)誤的是A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整B、輸入層接收外界輸入信號(hào)傳遞給輸出層C、輸出層是M-P神經(jīng)元D、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算答案:A.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:A、完全拷貝B、一點(diǎn)點(diǎn)關(guān)系都沒(méi)有C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)D、同一事物的兩個(gè)名稱答案:C.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。答案:B.在Python中,設(shè)a=2,b=3,表達(dá)式a<bandb>=3值是()A、1C、TRUEFALSE答案:C.以下那種操作會(huì)方法圖像中的噪聲?A、拉普拉斯濾波B、中值濾波C、高斯濾波D、均值濾波答案:A.圖像分類任務(wù)表述正確的有:①.被認(rèn)為是一個(gè)已經(jīng)解決了的任務(wù)②.解決這個(gè)問(wèn)題主要使用的是深度學(xué)習(xí)算法③.圖像分類任務(wù)主要是識(shí)別圖像中的主體④.圖像分類任務(wù)是很多其他視覺(jué)任務(wù)的基石A、①③④B、①②③④C、①③④D、①②④答案:B.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過(guò)程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒(méi)有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒(méi)有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)答案:A.新一代人工智能關(guān)鍵共性技術(shù)的研發(fā)部署要以。為核心,以數(shù)據(jù)和硬件為基礎(chǔ),以提升感知識(shí)別、知識(shí)計(jì)算、認(rèn)知推理、運(yùn)動(dòng)執(zhí)行、人機(jī)交互能力為重點(diǎn)A、軟件B、算力C、玄平臺(tái)D、算法答案:D.使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像識(shí)別采用Dropout算法的目的是A、防止過(guò)擬合B、防止欠擬合C、增加訓(xùn)練樣本數(shù)D、以上答案均不正確答案:A.不同于通常涉及大量的規(guī)則編碼的早期常識(shí)語(yǔ)言處理,現(xiàn)代NLP算法是基于A、自動(dòng)識(shí)別B、機(jī)器學(xué)習(xí)C、模式識(shí)別D、算法輔助答案:B.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免。verfittingB、Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類器,然后把這些分類器進(jìn)行組合D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)答案:A.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A、嵌入B、過(guò)濾C、包裝D、抽樣答案:D.N-gram被定義為N個(gè)關(guān)鍵詞組合在一起。從給定的句子可以產(chǎn)生多少二元組短語(yǔ)(Bigram)A、7B、9C、10D、11答案:C.對(duì)于非連續(xù)目標(biāo)在深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化過(guò)程中,下面哪種梯度下降方法是最好的?A、SGDB\AdaGradC、l-BFGSD\拉格朗日松弛Subgradientmethod答案:D.paddle.nn.Conv2D接口是用來(lái)搭建卷積神經(jīng)網(wǎng)絡(luò)中的哪個(gè)部分A、池化層B、激活函數(shù)C、卷積層D、歸一化層答案:C.馬爾可夫性質(zhì)強(qiáng)調(diào)在每一個(gè)動(dòng)作狀態(tài)序列中,下一個(gè)狀態(tài)與0有關(guān)。A、外部影響B(tài)、主體內(nèi)因C、歷史狀態(tài)D、當(dāng)前狀態(tài)答案:D.()庫(kù)是一個(gè)具有強(qiáng)大圖像處理能力的第三方庫(kù)。用途:圖像處理.numpypandasC、MatpIotIibDvPIL答案:D.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()A、防止過(guò)擬合B、減小誤差C、增加網(wǎng)絡(luò)復(fù)雜度答案:A.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、卷積操作B、池化操作C、全連接層D、均方誤差損失函數(shù)答案:D.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中A、情感分析B、問(wèn)答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)答案:D.當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí)更()發(fā)生過(guò)擬合。A、不容易答案:B.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過(guò)擬合?1樹(shù)的數(shù)量2樹(shù)的深度3學(xué)習(xí)速率A、只有1B、只有2C、只有3D、都正確答案:B.在輸出層不能使用以下哪種激活函數(shù)來(lái)分類圖像?A、sigmoidB\TanhReLUD、If(x>5,1,0)答案:c182.以下那種CNN結(jié)構(gòu)中不包含殘差結(jié)構(gòu)?AVResNetB、DarkNetC、Inception-ResNetv2D、VGG答案:D.計(jì)算詞語(yǔ)間距離的方法有很多,一下選項(xiàng)中屬于常用方法的是:A、正切相似度B、余弦相似度C、絕對(duì)距離D、球面距離答案:B.我們常說(shuō)“人類是智能回路的總開(kāi)關(guān)”,即人類智能決定著任何智能的高度'廣度和深度,下面哪一句話對(duì)這個(gè)觀點(diǎn)的描述不正確A、人類智能是機(jī)器智能的設(shè)計(jì)者B、機(jī)器智能目前無(wú)法完全模擬人類所有智能C、機(jī)器智能目前已經(jīng)超越了人類智能D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能答案:C.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是()0A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法答案:B.以下不屬于數(shù)據(jù)處理包含五個(gè)部分的是:A、數(shù)據(jù)形狀變換B、模型篩選C、數(shù)據(jù)集劃分D、數(shù)據(jù)歸一化處理答案:B.模型的高bias(偏差)是什么意思,如何降低它()?A、在特征空間中減少特征B、在特征空間中增加特征C、增加數(shù)據(jù)點(diǎn)D、B和CE、以上所有答案:B.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來(lái)越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①③B、①②③C、②③D、①②答案:B.用于分類與回歸應(yīng)用的主要算法有。Av隨機(jī)森林、AprioriB、邏輯回歸、K均值、決策樹(shù)C、支持向量機(jī)、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)、BP神經(jīng)網(wǎng)絡(luò)、樸素貝葉斯答案:D.以下卷積神經(jīng)網(wǎng)絡(luò)模型中,最早用于手寫(xiě)數(shù)字識(shí)別的是。A、LeNet-5B、AlexNetCxResNet50D、ResNet152答案:A191.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是。。A、0(m)B、0(m2)0(Iogm)0(m*logm)答案:B.下列哪項(xiàng)不是噪聲數(shù)據(jù)的主要表現(xiàn)形式A、錯(cuò)誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、重復(fù)數(shù)據(jù)答案:D.在線性回歸中,對(duì)回歸系數(shù)的顯著性檢驗(yàn)采用()A、Z檢驗(yàn)B、T檢驗(yàn);$F檢驗(yàn)C、x2檢驗(yàn)答案:B.下面那種架構(gòu)中,對(duì)句子中所有詞之間的關(guān)系進(jìn)行建模,而與它們的位置無(wú)關(guān)?OpenAIGPTBERTELMoULMFit答案:C.以下不是tuple類型的是()。A、-1B、(1,)心(口,□])D、([{la':1}],[(b',1])答案:A.在高斯混合分布中,其隱變量的含義是在高斯混合分布中,其隱變量的含義是A、表示高斯分布的方差B、表示高斯分布的均值C、表示數(shù)據(jù)分布的概率D、表示數(shù)據(jù)從某個(gè)高斯分布中產(chǎn)生答案:D.以下關(guān)于人工智能'機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)三者間關(guān)系的描述,哪一項(xiàng)是正確的()A、人工智能是機(jī)器學(xué)習(xí)的一個(gè)分支B、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)是人工智能里面并列的兩類技術(shù)C、神經(jīng)網(wǎng)絡(luò)屬于機(jī)器學(xué)習(xí)中的一種技術(shù)D、人工智能是神經(jīng)網(wǎng)絡(luò)的一個(gè)分支答案:C.K-Means算法無(wú)法聚以下哪種形狀的樣本A、圓形分布B、螺旋分布C、帶狀分布D、凸多邊形分布答案:B.圖像處理中無(wú)損壓縮的目的是()A、濾除圖像中的不相干信號(hào)B、濾除圖像中的高頻信號(hào)C、濾除圖形中的低頻信號(hào)D、濾除圖像中的冗余信號(hào)答案:D.在集成學(xué)習(xí)中,對(duì)于數(shù)據(jù)型輸出,最常見(jiàn)的結(jié)合策略是()A、平均法B、投票法C、學(xué)習(xí)法答案:A.下述。不是人工智能中常用的知識(shí)格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語(yǔ)義網(wǎng)絡(luò)表示法D、形象描寫(xiě)表示法答案:D.下列不屬于深度學(xué)習(xí)內(nèi)容的是A、深度置信網(wǎng)絡(luò)B、受限玻爾茲曼機(jī)C、卷積神經(jīng)網(wǎng)絡(luò)D、貝葉斯學(xué)習(xí)答案:D.文字檢測(cè)網(wǎng)絡(luò)TextBoxes基于下列哪個(gè)網(wǎng)絡(luò)Fastr-cnnFasterr-cnnC、SSDD、YOLO答案:c.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個(gè)方向傳遞答案:D.循環(huán)神經(jīng)網(wǎng)最常常遇到的問(wèn)題是:①.梯度消失②.詞語(yǔ)依賴位置較遠(yuǎn)③.梯度爆炸④.維數(shù)災(zāi)難A、①③④B、①②③C、①③④D、①②④答案:B.我國(guó)《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到()年成為世界主要人工智能創(chuàng)新中心。2020202520302035答案:C.網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問(wèn)題,對(duì)于梯度消失問(wèn)題,我們可以通過(guò)選擇使用以下哪種函數(shù)減輕該問(wèn)題?A、Relu函數(shù)B、Sigmoid函數(shù)C\tanh函數(shù)D、Softsign函數(shù)答案:A.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()模型。A、神經(jīng)元B、閾值C、興奮D、節(jié)點(diǎn)答案:A.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行。處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割答案:D.以下關(guān)于模塊說(shuō)法錯(cuò)誤的是。。A、一個(gè)xx.py就是一^T'模塊B、任何一個(gè)普通的xx.py文件可以作為模塊導(dǎo)入C、模塊文件的擴(kuò)展名不一定是.pyD、運(yùn)行時(shí)會(huì)從制定的目錄搜索導(dǎo)入的模塊,如果沒(méi)有,會(huì)報(bào)錯(cuò)異常答案:C.深度學(xué)習(xí)可以用在下列哪項(xiàng)NLP任務(wù)中A、情感分析B、問(wèn)答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)答案:D.機(jī)器學(xué)習(xí)中的決策樹(shù)學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過(guò)程,決策樹(shù)代表的是一種()過(guò)程A、預(yù)測(cè)B、回歸C、分類D、聚類答案:C.留出法直接將數(shù)據(jù)集劃分為(_)個(gè)互斥的集合。A、一B、二C、三D、四答案:B.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計(jì)算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過(guò)擬合D、GBDT與隨機(jī)森林都是建立在CART樹(shù)的基礎(chǔ)之上的答案:C.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端答案:A216.Scikit-Learn中()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。accuracy_scoreaccuracyf1_scoreDxf2_score答案:A217.下列不合法的Python變量名是A、Python2B、N.xC、sumHeilo_World答案:B.以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是A、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層B、數(shù)據(jù)處理一般都是在應(yīng)用層完成C、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源答案:B.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是。。27*27*328*28*3G27*27*6D、28*28*6答案:D.感知器在空間中可以展現(xiàn)為?Av線B、平面C、超平面D、點(diǎn)答案:C.相同的詞可以如何實(shí)現(xiàn)多個(gè)詞嵌入?GloVeWord2VecC、ELMoD、Nltk答案:C.關(guān)于線性回歸的描述,以下正確的有。A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)答案:B.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索GBayesian優(yōu)化D、都可以答案:D.下列屬于人工智能發(fā)展預(yù)測(cè)的是。。A、短期內(nèi)構(gòu)建大型的數(shù)據(jù)集將會(huì)是各企業(yè)與研究機(jī)構(gòu)發(fā)展的重要方向。B、長(zhǎng)期來(lái)看,通用型人工智能的發(fā)展將依賴于對(duì)人腦認(rèn)知機(jī)制的科學(xué)研究。C、人工智能技術(shù)將能在邊際成本不遞增的情況下將個(gè)性化服務(wù)普及到更多的消費(fèi)者與企業(yè)。D、以上都是答案:D.“從有標(biāo)簽的歷史數(shù)據(jù)中來(lái)預(yù)測(cè)下季度的商鋪營(yíng)收會(huì)在2030萬(wàn)還是3040萬(wàn)”,這是一個(gè)什么問(wèn)題?A、回歸問(wèn)題B、規(guī)則問(wèn)題C、分類問(wèn)題D、聚類問(wèn)題答案:C.兩個(gè)種子點(diǎn)A(T,1),B(2,1),其余點(diǎn)為(0,0),(0,2),(1,1),(3,2),(6,0),(6,2),利用Kmeans算法,點(diǎn)群中心按坐標(biāo)平均計(jì)算。最終種子點(diǎn)A需要移動(dòng)的次數(shù),種子點(diǎn)B需要移動(dòng)的次數(shù),屬于種子點(diǎn)A的點(diǎn)數(shù)(不包含A),屬于種子點(diǎn)B的點(diǎn)數(shù)(不包含B)分別為。()A、2,2,3,3B、1,1,3,3C、1,1,2,4D、2,2,2,4答案:A.在python中,x=[11,8,7,2,3],x.insert(4,[4,5]),列表x的值為0。A、[11,8,7,2,[4,5],3]B、[11,8,7,2,4,5,3]G[11,8,7,[4,5],2,3]D、[11,8,7,4,5,2,3]答案:A.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過(guò)程中,以下哪個(gè)選項(xiàng)不屬于決策樹(shù)構(gòu)建過(guò)程當(dāng)中的步驟?A、剪枝B、特征選取C、數(shù)據(jù)清理D、決策樹(shù)生成答案:C.MatplotIib庫(kù)中,用來(lái)繪制等值圖的pypIot的基礎(chǔ)圖標(biāo)函數(shù)是。。A、pIt.vIines()B、p11.pIot_date()Gp11.contour(X,Y,Z,N)D、pit.specgram(x,NFFT=256,pad_to,F)答案:C.產(chǎn)生式系統(tǒng)的推理不包括A、正向推理B、逆向推理C、雙向推理D、簡(jiǎn)單推理答案:D.從給定的特征集合中選擇出相關(guān)特征子集的過(guò)程,稱為(_)A、特征抽取B、特征選擇C、特征降維D、特征簡(jiǎn)化答案:B.卷積核與特征圖的通道數(shù)的關(guān)系是:A、卷積核數(shù)量越多特征圖通道數(shù)越少B、卷積核size越大特征圖通道數(shù)越多C、卷積核數(shù)量越多特征圖通道數(shù)越多D、二者沒(méi)有關(guān)系答案:C.下列不屬于數(shù)據(jù)預(yù)處理和特征工程的流程的是A、數(shù)據(jù)獲取B、數(shù)據(jù)清洗C、模型解釋D、數(shù)據(jù)標(biāo)準(zhǔn)化答案:C.大數(shù)據(jù)的最顯著特征是()A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價(jià)值密度高答案:A.手寫(xiě)數(shù)字識(shí)別的例子中,輸入的圖片為長(zhǎng)和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個(gè)問(wèn)題,輸入層是0維的,輸出層是()維的。784;1028;10G784;1D、28;1答案:A.啟發(fā)式搜索是尋求問(wèn)題。解的一種方法A、最優(yōu)B、一般C、滿意D、最壞答案:C.下列應(yīng)用了人工智能技術(shù)的是。①用手寫(xiě)板輸入漢字②視頻聊天③與計(jì)算機(jī)對(duì)弈④OCR文字識(shí)別A、①②③B、①②④C、①③④D、②③④答案:C.學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱為A、錯(cuò)誤率B、精度C、誤差D、查準(zhǔn)率答案:C.在機(jī)器學(xué)習(xí)中,正則化引入是為了解決什么問(wèn)題()A、訓(xùn)練太慢B、訓(xùn)練過(guò)擬合C、訓(xùn)練樣本太少D、數(shù)據(jù)標(biāo)簽缺失答案:B.一個(gè)特征的權(quán)重越高,說(shuō)明該特征比其他特征()。A、更重要B、不重要C、有影響D、無(wú)法判斷答案:A.回歸分析的任務(wù),就是根據(jù)。和因變量的觀察值,估計(jì)這個(gè)函數(shù),并討論與之有關(guān)的種種統(tǒng)計(jì)推斷的問(wèn)題A、相關(guān)變量B、樣本C、已知數(shù)據(jù)D、自變量答案:D.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?A、樣本輸入順序B、模式相似性測(cè)度C、聚類準(zhǔn)則D、初始類中心的選取答案:C.在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力A、貪心策略B、蒙特卡洛采樣C、動(dòng)態(tài)規(guī)劃D、BeIIman方程答案:A.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?。A、BoostingB、BaggingC、StackingD、Mapping245.關(guān)于聚類說(shuō)法錯(cuò)誤的是()A、在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類B、聚類可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程C、聚類分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類就越好答案:B246.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1X1024的NumPy數(shù)組,然后打開(kāi)給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個(gè)字符值存儲(chǔ)在NumPy數(shù)組中,最后返回?cái)?shù)組。請(qǐng)問(wèn)填充在空白處的代碼應(yīng)該是哪個(gè)。defimg2vector(fiIename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):forjinrange(32):returnVect[0,32*i+j]=int(IineStr[j])returnreturnVectA、IineStr=fr.readIines()B、IineStr=fr.readline()GIineStr=readIine0D、IineStr=fr.readlineO答案:D.。常做為CNN網(wǎng)絡(luò)的最后一層。A、卷積層B、池化層C、全連接層D、歸一化層答案:c.為什么批量梯度下降法(BGD)尋優(yōu)路徑相對(duì)比較平滑。A、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值減小的方向B、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值增加的方向C、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值不變的方向D、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值發(fā)生變化的方向答案:A.反向傳播算法一開(kāi)始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對(duì)答案:A.不屬于深度學(xué)習(xí)模型的選項(xiàng)是()A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A.下列神經(jīng)網(wǎng)絡(luò)的組織特性描述錯(cuò)誤的是A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實(shí)世界物體C、面向仿真環(huán)境物體D、作出交互反應(yīng)答案:C.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?()A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽(tīng)天由命D、以上都不正確的答案:B.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確.假設(shè)一個(gè)公司的薪資水平中位數(shù)是35000,排名前25%和75%分別是60000和20000,如果某人的薪水是3000,那么他可以被看出異常值嗎A、可以B、不可以C、需要更多信息D、以上說(shuō)法都不對(duì)答案:A.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無(wú)C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重答案:C.圖像分類任務(wù)是一個(gè)計(jì)算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運(yùn)算③.盡量使用前人探索的有成功經(jīng)驗(yàn)的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計(jì)編寫(xiě)網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①③B、①②③C、②③D、①②.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過(guò)程。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、線性回歸答案:C.強(qiáng)化學(xué)習(xí)的回報(bào)值一個(gè)重要特點(diǎn)是具有0。A、客觀性B、主體性C、超前性D、滯后性答案:D.二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B、動(dòng)態(tài)規(guī)劃法C、貪心法D、回溯法答案:A.機(jī)器翻譯屬于下列哪個(gè)領(lǐng)域的應(yīng)用?()A、自然語(yǔ)言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬答案:A.半監(jiān)督學(xué)習(xí)包括(—)。A、純半監(jiān)督學(xué)習(xí)B、主動(dòng)學(xué)習(xí)C、回歸學(xué)習(xí)D、分類學(xué)習(xí)、答案:A.關(guān)于CBOW與Skip-Gram算法,以下說(shuō)法不正確的是。A、CBOW是根據(jù)某個(gè)詞前面的n個(gè)詞或者前后n個(gè)連續(xù)的詞,來(lái)計(jì)算某個(gè)詞出現(xiàn)的概率B、Skip-Gram是根據(jù)某個(gè)詞然后分別計(jì)算它前后幾個(gè)詞的各個(gè)概率C、CBOW和Skip-Gram都是可以訓(xùn)練詞向量的方法,但是Skip-Gram要比CBOW更快一些D、無(wú)論是CBOW模型還是skip-gram模型,都是以Huffman樹(shù)作為基礎(chǔ)的答案:C.數(shù)據(jù)清洗的方法不包括()。A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理.搜狗“知立方”通過(guò)碎片化的語(yǔ)義信息,對(duì)用戶的搜索進(jìn)行邏輯推薦與計(jì)算,并將核心知識(shí)反饋給用戶。這主要屬于人工智能的()應(yīng)用?A、自然語(yǔ)言處理B、生物特征識(shí)別C、知識(shí)圖譜D、機(jī)器視覺(jué)答案:C.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說(shuō)法是A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少B、每一次Epoch都會(huì)對(duì)之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小C、模型參數(shù)量越多越好,沒(méi)有固定的對(duì)應(yīng)規(guī)則D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中.有關(guān)一般卷積神經(jīng)網(wǎng)絡(luò)的組成,下面哪種說(shuō)法是正確的?A、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、激活層、池化層和全連接層組成。B、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、激活層、卷積層、池化層和全連接層組成。C、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、池化層、激活層和全連接層組成。D、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、池化層、卷積層、激活層和全連接層組成。答案:A.欠擬合通常是由于()而造成的A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過(guò)多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B.以下關(guān)于SVM說(shuō)法不正確的是A、SVM是一種二分類模型B、其基本思想是:對(duì)于給定的數(shù)據(jù)集D在樣本空間中找到一個(gè)劃分超平面,從而將不同類別的樣本分開(kāi)C、核函數(shù)的作用就是隱含著從高維空間到低維空間的映射D、SVM還可以使用所謂的核技巧有效地進(jìn)行非線性分類,將其輸入隱式映射到高維特征空間中。答案:C.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越。,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。A、具體和形象化B、抽象和概念化C、具體和概念化D、抽象和具體化答案:B.哪些技術(shù)是RCNN采用而FasterRCNN沒(méi)有用A、SVM分類B、使用SelectiveSearch輸出候選框C、使用MLP進(jìn)行分類與回歸預(yù)測(cè)D、使用ROIpooIing答案:B.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:c.以下哪些分類方法可以較好地避免樣本的不平衡問(wèn)題。A、KNNB、SVMC、BayesD、神經(jīng)網(wǎng)絡(luò)答案:A.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到localminimum,下面不屬于解決localminimum問(wèn)題的方法是?()A、隨機(jī)梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batchsize答案:D.欠擬合通常是由于(_)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過(guò)多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B.下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對(duì)的,2是錯(cuò)的B、都是對(duì)的C、1是錯(cuò)的,2是對(duì)的D、都是錯(cuò)的答案:D.以下不是數(shù)據(jù)降維方法的是()AvPCAB、LDAC、LPPD、AHP答案:D.以下不屬于聚類算法的是A、K均值B、DBSCANC\AprioriD\Jarvis-Patrick(JP)答案:cx1卷積的主要作用是A、加快卷積運(yùn)算B、增大卷積核C、擴(kuò)大感受野D、通道降維答案:D.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B.下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?。A、人工神經(jīng)網(wǎng)絡(luò)B、自動(dòng)控制C、自然語(yǔ)言學(xué)習(xí)D、專家系統(tǒng)答案:B.下面對(duì)強(qiáng)化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)描述正確的是A、都是人工智能的學(xué)習(xí)算法B、都是深度學(xué)習(xí)的學(xué)習(xí)算法C、都需要標(biāo)注數(shù)據(jù)D、都不需要標(biāo)注信息答案:A.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、BoostingB、BaggingC、StackingDvMapping答案:B.()是一種處理實(shí)時(shí)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用于語(yǔ)音識(shí)別'機(jī)器翻譯等領(lǐng)域A、前饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、以上答案都不對(duì)答案:C.()是利用計(jì)算機(jī)將一種自然語(yǔ)言(源語(yǔ)言)轉(zhuǎn)換為另一種自然語(yǔ)言(目標(biāo)語(yǔ)言)的過(guò)程。A、文本識(shí)別B、機(jī)器翻譯C、文本分類D、問(wèn)答系統(tǒng)答案:B.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。A、權(quán)重B、偏置C、激活函數(shù)D、學(xué)習(xí)率答案:D.下列哪個(gè)不是激活函數(shù)0。A、sigmodB\reIutanhhidden答案:D.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題()A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核答案:D.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是“predicti。"(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A.圖像識(shí)別主要是以。為基礎(chǔ)的A、元素B、像素C、特征D、部件答案:C.LSTM是一種什么網(wǎng)絡(luò)?A、卷積神經(jīng)網(wǎng)B、前饋神經(jīng)網(wǎng)C、循環(huán)神經(jīng)網(wǎng)D、學(xué)生網(wǎng)絡(luò)答案:C.考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌??。A、少于2sB、大于2sC、仍是4sD、說(shuō)不準(zhǔn)答案:C.一張RGB彩色圖片存儲(chǔ)在計(jì)算機(jī)中通常不含以下哪一項(xiàng):A、黃色通道B、藍(lán)色通道C、綠色通道D、紅色通道答案:A.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中我們目的是讓損失函數(shù)不斷減小,我們常用以下哪種方法最小化損失函數(shù)A、梯度下降B、DropoutC、交叉驗(yàn)證D、正則化答案:A."df.csv"是一個(gè)在當(dāng)前ipynb文件根目錄下的csv表格,該文件具有3列數(shù)據(jù),讀取過(guò)程中為避免將第一行數(shù)據(jù)讀取為dataframe的column名,應(yīng)采取以下哪種語(yǔ)句讀入()A\df=pandas.read_csv('df.csv1)B、df=pandas.read_csv('df.csv*,header=None)C\df=pandas.read_csv('df.csv1)Dvdf=pandas.read_exceI('df.csv',header=None)答案:B.深度學(xué)習(xí)系統(tǒng)訓(xùn)練過(guò)程通常需要輸入:A、特征值B、標(biāo)釜C、特征值和標(biāo)簽D、預(yù)測(cè)值答案:C.用搜索法對(duì)問(wèn)題求解時(shí),一個(gè)問(wèn)題可以形式化地定義為四個(gè)組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測(cè)試和()A、功率B、路徑代價(jià)C、算法D、完備性答案:B.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是。A、隨機(jī)森林只能用于解決分類問(wèn)題B、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的答案:B.以下方法屬于無(wú)監(jiān)督學(xué)習(xí)的是?。A、LogisticRegressionB、SVMGDBSCANDxDecisionTree答案:c.以下哪個(gè)模型屬于生成模型。()A、支持向量機(jī)B、邏輯回歸C、DNND、樸素貝葉斯答案:D多選題.下述網(wǎng)絡(luò)屬于數(shù)據(jù)挖掘領(lǐng)域中神經(jīng)網(wǎng)絡(luò)的是()。A、前向神經(jīng)網(wǎng)絡(luò)B、反饋神經(jīng)網(wǎng)絡(luò)C、自組織神經(jīng)網(wǎng)絡(luò)D、生物神經(jīng)網(wǎng)絡(luò)答案:ABC.回歸分析中估計(jì)回歸參數(shù)的方法主要有。A、相關(guān)系數(shù)法B、方差分析法C、最小二乘法D、極大似然法E、E.矩估計(jì)法答案:CDE.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層答案:CD.人工智能研究中主要有。三大基本思想或三個(gè)基本途徑。A、符號(hào)主義B、機(jī)會(huì)主義C、行為主義D、聯(lián)接主義。答案:ACD.數(shù)據(jù)分析的三個(gè)基本類型是()A、描述性分析B、流動(dòng)性分析C、預(yù)測(cè)性分析D、規(guī)范性分析E、范圍性分析答案:ACD.下列關(guān)于PCA說(shuō)法正確的是?A、在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B、應(yīng)該選擇具有最大方差的主成分C、應(yīng)該選擇具有最小方差的主成分D、可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD.關(guān)于聚類的描述正確的是。。A、聚類是一種非監(jiān)督式學(xué)習(xí)B、聚類是一種監(jiān)督式學(xué)習(xí)C、使用的數(shù)據(jù)不需要包含類別卷標(biāo)D、使用的數(shù)據(jù)需要包含類別卷標(biāo)答案:AC.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和。A、全連接層B、輸入層C、池化層D、卷積層答案:ACD.利用one-hot表示一個(gè)向量,使用一個(gè)詞表長(zhǎng)的向量表示一個(gè)單詞,被表示單詞對(duì)應(yīng)的位置為(),其他單詞對(duì)應(yīng)的位置均為()A、1B、0C、-1D、2答案:AB.大規(guī)模自監(jiān)督預(yù)訓(xùn)練方法目前存在。等局限性。A、需要大規(guī)模算力和海量數(shù)據(jù)資源支持B、需要研究人員對(duì)相關(guān)研究領(lǐng)域的數(shù)據(jù)有深刻理解C、大規(guī)模預(yù)訓(xùn)練模型存在隱私數(shù)據(jù)的提取問(wèn)題D、大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型在深層次的語(yǔ)言理解方面存在差距答案:ABCD.人工智能平臺(tái)樣本分類為O、。、。、()。A、圖像B、視頻C、語(yǔ)音D、文本答案:ABCD.百度負(fù)荷預(yù)測(cè)產(chǎn)品框架中需要對(duì)數(shù)據(jù)進(jìn)行哪些處理?A、數(shù)據(jù)融合B、數(shù)據(jù)降噪C、數(shù)據(jù)變換D、缺失/異常處理答案:ABCD.常見(jiàn)的數(shù)據(jù)增強(qiáng)方式有()A、對(duì)顏色的數(shù)據(jù)增強(qiáng)B、添加噪聲(高斯噪聲)C、水平垂直翻轉(zhuǎn)D、隨機(jī)旋轉(zhuǎn)、裁剪答案:ABCD.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:BD.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過(guò)池化的特征圖像變小了答案:ABCD.AI在電力企業(yè)中可以應(yīng)用在。等方面A、電網(wǎng)工程規(guī)劃建設(shè)B、負(fù)荷預(yù)測(cè)C、智能巡檢D、售電量預(yù)測(cè)答案:ABCD.回歸問(wèn)題的評(píng)估方法包括A、F值B、AUGC、決定系數(shù)D、均方誤差答案:CD.關(guān)于支持向量機(jī),哪項(xiàng)說(shuō)法正確?A、支持向量機(jī)可以用于處理二分類及多分類問(wèn)題B、支持向量機(jī)只能用于線性可分的分類問(wèn)題C、支持向量機(jī)可用于回歸問(wèn)題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大答案:ACD.人工神經(jīng)元網(wǎng)絡(luò)包括()A、輸入層B、中間隱藏層C、映射層D、輸出層答案:ABD.在卷積神經(jīng)網(wǎng)絡(luò)中,一個(gè)10*10的像素在使用5*5的卷積核進(jìn)行池化,在不補(bǔ)零的情況下能得到以下哪些大小的featuremapA、2*2B、4*4C、6*6.下列哪些是詞向量模型。fastTextB\word2vecC、BERTD、CNN答案:ABC.常見(jiàn)的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D\Kmeans答案:ABCD.選擇下列哪些是典型的機(jī)器學(xué)習(xí)范式。A、無(wú)監(jiān)督學(xué)習(xí)B、多媒體學(xué)習(xí)C、有監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:ACD.我國(guó)建設(shè)安全便捷的智能社會(huì)的重要途徑包括。A、發(fā)展便捷高效的智能服務(wù)B、推進(jìn)社會(huì)治理智能化C、提升公共安全保障能力D、促進(jìn)社會(huì)交往共享互信答案:ABCD.以下算法中可以用于圖像處理中去噪的是(

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論