大數(shù)據(jù)習(xí)題每日一測-11月10日試題_第1頁
大數(shù)據(jù)習(xí)題每日一測-11月10日試題_第2頁
大數(shù)據(jù)習(xí)題每日一測-11月10日試題_第3頁
大數(shù)據(jù)習(xí)題每日一測-11月10日試題_第4頁
大數(shù)據(jù)習(xí)題每日一測-11月10日試題_第5頁
已閱讀5頁,還剩58頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

大數(shù)據(jù)習(xí)題每日一測-11月10日[復(fù)制]您的姓名:[填空題]*_________________________________1.高斯核也稱為(__)。[單選題]*A.多項(xiàng)式核B.拉普拉斯核C.RBF核(正確答案)D.Sigmoid核2.Flink的數(shù)據(jù)轉(zhuǎn)換操作在:()環(huán)節(jié)中完成。[單選題]*A.channelB.Transformation(正確答案)C.sinkD.source3.以下選項(xiàng)中可用作Python標(biāo)識(shí)符的是[單選題]*A.3B9909B.__(正確答案)C.classD.it's4.導(dǎo)入模塊的方式錯(cuò)誤的是()。[單選題]*A.importmoB.frommoimport*C.importmoasmD.importmfrommo(正確答案)5.保護(hù)數(shù)據(jù)本身安全,即為保護(hù)商業(yè)秘密和業(yè)務(wù)正常運(yùn)行而必須保障數(shù)據(jù)()、完整性、可用性[單選題]*A.及時(shí)性B.準(zhǔn)確性C.機(jī)密性(正確答案)D.一致性6.下列關(guān)于對大數(shù)據(jù)特點(diǎn)的說法中,錯(cuò)誤的是()。[單選題]*A.數(shù)據(jù)規(guī)模大B.數(shù)據(jù)類型多樣C.數(shù)據(jù)價(jià)值密度高(正確答案)D.數(shù)據(jù)處理速度快7.對連續(xù)圖像的離散化采樣決定了圖像的(____)。[單選題]*A.空間分辨率(正確答案)B.時(shí)間分辨率C.地面分辨率D.灰度值8.MapReduce任務(wù)map輸出結(jié)果將被寫入(____)。[單選題]*A.HDFS文件系統(tǒng)B.新的記錄文件C.磁盤(Linux文件系統(tǒng))(正確答案)D.主數(shù)據(jù)庫9.ROC曲線是基于()得出的[單選題]*A.混淆矩陣(正確答案)B.協(xié)方差矩陣C.關(guān)聯(lián)矩陣D.f1-score10.某公司要建立資料庫,該資料庫要用ElasticSearch進(jìn)行檢索,請問下列哪些選項(xiàng)可以放到資料庫中?[單選題]*A.Word文檔B.公司宣傳視頻C.產(chǎn)品設(shè)計(jì)圖D.以上全部正確(正確答案)11.以下不符合大數(shù)據(jù)問題處理范疇的是[單選題]*A.1TB數(shù)據(jù),秒級提交結(jié)果B.1TB數(shù)據(jù),分鐘級提交結(jié)果C.1TB數(shù)據(jù),半小時(shí)內(nèi)提交結(jié)果D.1TB數(shù)據(jù),一天內(nèi)提交結(jié)果(正確答案)12.以下選項(xiàng)不屬于Python語言特點(diǎn)的是:[單選題]*A.執(zhí)行高效(正確答案)B.支持中文C.平臺(tái)無關(guān)D.語法簡潔13.數(shù)據(jù)庫利用()進(jìn)行死鎖檢測。[單選題]*A.DAGB.RPCC.WFG(正確答案)D.DLC14.利用print格式化輸出,以下能控制浮點(diǎn)數(shù)的小數(shù)點(diǎn)后兩位輸出的是()[單選題]*A.{.2}B.{:.2f}(正確答案)C.{:.2}D.{.2f}15.DLI支持以下()字符碼的數(shù)據(jù)。[單選題]*A.UTF-8(正確答案)B.ASCIIC.GB2312D.Base6416.CLOG日志緩沖區(qū)使用()算法。[單選題]*A.FIFOB.LRUC.SLRU(正確答案)D.RANDOM17.國網(wǎng)數(shù)據(jù)中臺(tái),是在下面()數(shù)據(jù)中心階段的基礎(chǔ)上發(fā)展過來的。[單選題]*A.營銷服務(wù)中心B.全業(yè)務(wù)統(tǒng)一數(shù)據(jù)中心(正確答案)C.海量歷史/實(shí)時(shí)數(shù)據(jù)中心D.電網(wǎng)GIS數(shù)據(jù)中心18.Redis中List列表是什么數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的?[單選題]*A.平衡二又B.雙向鏈表(正確答案)C.循環(huán)鏈表D.紅黑樹19.在機(jī)器學(xué)習(xí)算法中,支持向量機(jī)的支持向量是指()[單選題]*A.樣本數(shù)據(jù)B.模型參數(shù)C.距超平面最近的樣本點(diǎn)(正確答案)D.距超平面最遠(yuǎn)的樣本點(diǎn)20.(__)是神經(jīng)網(wǎng)絡(luò)的基本單位。[單選題]*A.神經(jīng)系統(tǒng)B.神經(jīng)網(wǎng)絡(luò)C.神經(jīng)元(正確答案)D.感知機(jī)21.回歸問題和分類問題的區(qū)別是[單選題]*A.回歸問題有標(biāo)簽,分類問題沒有B.回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的C.回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的(正確答案)D.回歸問題與分類問題在輸入屬性值上要求不同22.當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),可以通過另一個(gè)學(xué)習(xí)器來進(jìn)行結(jié)合,該結(jié)合策略為()[單選題]*A.平均法B.投票法C.學(xué)習(xí)法(正確答案)D.加權(quán)法23.以下哪些方法不能用于處理過擬合?[單選題]*A.減少特征維度,防止維災(zāi)難B.增大數(shù)據(jù)的訓(xùn)練量C.利用正則化技術(shù)D.增加特征維度(正確答案)24.Apriori算法是用來進(jìn)行()。[單選題]*A.關(guān)聯(lián)分析(正確答案)B.數(shù)據(jù)分類C.數(shù)據(jù)預(yù)處理D.聚類分析25.對數(shù)值型輸出,最常見的結(jié)合策略是(__)。[單選題]*A.投票法B.平均法(正確答案)C.學(xué)習(xí)法D.排序法26.關(guān)于L1正則和L2正則

下面的說法正確的是[單選題]*A.L2范數(shù)可以防止過擬合,提升模型的泛化能力。但L1正則做不到這一點(diǎn)B.L2正則化標(biāo)識(shí)各個(gè)參數(shù)的平方的和C.L2正則化又叫做LassoregularizationD.L1范數(shù)會(huì)使權(quán)值稀疏(正確答案)27.(__)是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體,兩者在同一個(gè)優(yōu)化過程中完成,即在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇。[單選題]*A.過濾式選擇B.包裹式選擇C.嵌入式選擇(正確答案)D.正則化28.下列是監(jiān)督學(xué)習(xí)算法的是()。[單選題]*A.決策樹算法、支持向量機(jī)算法、K-近鄰算法(正確答案)B.支持向量機(jī)算法、K-近鄰算法、主成分分析算法C.支持向量機(jī)算法、主成分分析算法、K-Means聚類算法D.決策樹算法、支持向量機(jī)算法、K-Means聚類算法29.(__)在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件。[單選題]*A.支持向量機(jī)B.Boosting算法(正確答案)C.貝葉斯分類器D.神經(jīng)網(wǎng)絡(luò)30.人工智能的快速發(fā)展推動(dòng)數(shù)據(jù)規(guī)模不斷提升。據(jù)IDC測算,2025年全球數(shù)據(jù)規(guī)模將達(dá)到163__,其中80%~90%是非結(jié)構(gòu)化數(shù)據(jù)。[單選題]*A.PBB.EBC.ZB(正確答案)D.YB31.(__)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來完成學(xué)習(xí)任務(wù)。[單選題]*A.支持向量機(jī)B.貝葉斯分類器C.神經(jīng)網(wǎng)絡(luò)D.集成學(xué)習(xí)(正確答案)32.下列關(guān)于樸素貝葉斯分類器,說法正確的是[單選題]*A.樸素貝葉斯分類器是一個(gè)判別模型B.樸素貝葉斯分類器不需要假設(shè)各變量是相互獨(dú)立的C.是基于后驗(yàn)概率,推導(dǎo)出先驗(yàn)概率D.可以用極大似然估計(jì)法解貝葉斯分類器(正確答案)33.“給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近、異類樣例的投影點(diǎn)盡可能遠(yuǎn)離”,這說的是(__)算法。[單選題]*A.PCAB.SVMC.K-meansD.LDA(正確答案)34.下列關(guān)于線性回歸和邏輯回歸,說法不正確的是()[單選題]*A.線性回歸主要對連續(xù)性數(shù)值進(jìn)行預(yù)測B.邏輯回歸不屬于分類算法(正確答案)C.邏輯回歸的本質(zhì)是概率性回歸,是廣義線性模型的一種D.線性回歸中,“最小二乘法”是基于均方誤差最小化來進(jìn)行模型求解的方法35.在二十世紀(jì)八十年代,“從樣例中學(xué)習(xí)”的一大主流主義是____學(xué)習(xí),代表包括決策樹和基于邏輯的學(xué)習(xí)。[單選題]*A.無監(jiān)督B.監(jiān)督C.連接主義D.符號主義(正確答案)36.決策樹中的葉結(jié)點(diǎn)對應(yīng)于(__)。[單選題]*A.屬性B.樣本C.決策結(jié)果(正確答案)D.標(biāo)簽值37.目前,()技術(shù)被廣泛應(yīng)用于智能寫作、代碼生成、有聲閱讀、新聞播報(bào)、語音導(dǎo)航、影響修復(fù)等領(lǐng)域,通過機(jī)器自動(dòng)合成文本、語音圖像、視頻等正在推動(dòng)互聯(lián)網(wǎng)數(shù)字內(nèi)容生產(chǎn)的變革[單選題]*A.判別式人工智能B.生成式人工智能(正確答案)C.歸納式人工智能D.混合式人工智能38.在聚類分析任務(wù)中,簇內(nèi)相似度(____)且簇間相似度(____)時(shí),聚類效果比較好。[單選題]*A.低,低B.低,高C.高,低(正確答案)D.高,高39.基于數(shù)據(jù)集劃分方式的不同,評估方法可以分為三種,下列錯(cuò)誤的是()[單選題]*A.交叉驗(yàn)證法B.自助法C.過濾法(正確答案)D.留出法40.KNN算法更適合于()的分類問題。[單選題]*A.重復(fù)時(shí)間B.稀有事件(正確答案)C.規(guī)則事件D.相近事件41.決策樹的葉節(jié)點(diǎn)代表()[單選題]*A.決策樹的開始B.類或類的分布(正確答案)C.一個(gè)或多個(gè)屬性的測試D.測試輸出42.DBSCAN是基于()的聚類算法。[單選題]*A.長度B.密度(正確答案)C.能量D.大小43.k-means算法的優(yōu)點(diǎn)是簡單,(),易于理解和實(shí)現(xiàn)。[單選題]*A.不用預(yù)先聚類個(gè)數(shù)B.時(shí)間復(fù)雜度高C.時(shí)間復(fù)雜度低(正確答案)D.44.隨機(jī)森林與Bagging中基學(xué)習(xí)器"多樣性"的區(qū)別是(____)。[單選題]*A.都來自樣本擾動(dòng)B.都來自屬性擾動(dòng)C.來自樣本擾動(dòng)和自屬性擾動(dòng)(正確答案)D.多樣本集結(jié)合45.關(guān)于模型評估方法的說法,錯(cuò)誤的是()[單選題]*A.“留出法”直接將數(shù)據(jù)集D劃分成兩個(gè)互斥的集合B.“自助法”在數(shù)據(jù)集較大、難以有效劃分訓(xùn)練或測試集時(shí)很有用(正確答案)C.交叉驗(yàn)證法又稱為“k折交叉驗(yàn)證”D.“留一法”是交叉驗(yàn)證法的一個(gè)特例46.聚類算法在下列哪個(gè)模塊中()[單選題]*A.sklearn.treeB.sklearn.cluster(正確答案)C.sklearn.ensembleD.sklearn.svm47.貝葉斯決策論是在(__)框架下實(shí)施決策的基本方法。[單選題]*A.模型B.條件C.概率(正確答案)D.分類器48.習(xí)近平總書記多次作出重要指示,強(qiáng)調(diào)“要深入把握新一代()發(fā)展的特點(diǎn),加強(qiáng)人工智能和產(chǎn)業(yè)發(fā)展融合,為高質(zhì)量發(fā)展提供新動(dòng)能”。[單選題]*A.深度學(xué)習(xí)B.人工智能(正確答案)C.機(jī)器學(xué)習(xí)D.神經(jīng)網(wǎng)絡(luò)49.核主成分分析是一種(__)方法。[單選題]*A.非線性降維(正確答案)B.線性降維C.分類D.回歸50.(__)是具有適應(yīng)性的簡單單元組成的廣泛并行互聯(lián)的網(wǎng)絡(luò)。[單選題]*A.神經(jīng)系統(tǒng)B.神經(jīng)網(wǎng)絡(luò)(正確答案)C.神經(jīng)元D.感知機(jī)51.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()。[單選題]*A.損失函數(shù)B.學(xué)習(xí)算法C.神經(jīng)元(正確答案)D.前饋網(wǎng)絡(luò)52.在決策樹創(chuàng)建時(shí),由于數(shù)據(jù)中的噪聲和離群點(diǎn),許多分枝反映的是訓(xùn)練數(shù)據(jù)中的異常,()方法處理這種過分?jǐn)M合數(shù)據(jù)問題。[單選題]*A.小波B.調(diào)和C.剪枝(正確答案)D.回歸53.在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)進(jìn)行特征選擇的是()[單選題]*A.過濾式選擇B.包裹式選擇C.嵌入式選擇(正確答案)D.以上選項(xiàng)均不正確54.下列關(guān)于正則化的描述錯(cuò)誤的是()[單選題]*A.L1范數(shù)和L2范數(shù)都有助于降低過擬合的風(fēng)險(xiǎn)B.基于L1正則化的學(xué)習(xí)方法是一種典型的嵌入式特征選擇方法C.L1范數(shù)正則化更容易得到“稀疏”解D.L2范數(shù)正則化更容易得到“稀疏”解(正確答案)55.(__)也稱為“基于密度的聚類”[單選題]*A.原型聚類B.密度聚類(正確答案)C.層次聚類D.AGNES56.下列貝葉斯描述錯(cuò)誤的是()[單選題]*A.貝葉斯是概率框架下實(shí)施決策的基本方法B.貝葉斯基于概率和誤判損失來選擇最優(yōu)的類別標(biāo)記C.貝葉斯判定準(zhǔn)則為最大化總體風(fēng)險(xiǎn)(正確答案)D.貝葉斯中期望損失定義為風(fēng)險(xiǎn)57.量子機(jī)器學(xué)習(xí)能有效增強(qiáng)傳統(tǒng)機(jī)器學(xué)習(xí)算法的性能,量子比特可同時(shí)具有0、1及其()[單選題]*A.非線性疊加態(tài)B.線性疊加態(tài)(正確答案)C.非線性暫態(tài)D.線性暫態(tài)58.預(yù)剪枝是指在決策樹生成過程中,對每個(gè)結(jié)點(diǎn)在劃分(__)進(jìn)行估計(jì)。[單選題]*A.前(正確答案)B.中C.后D.不估計(jì)59.k近鄰學(xué)習(xí)是一種(__)。[單選題]*A.監(jiān)督學(xué)習(xí)方法(正確答案)B.半監(jiān)督學(xué)習(xí)方法C.無監(jiān)督學(xué)習(xí)方法D.測試方法60.與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)的優(yōu)勢在于(____)。[單選題]*A.深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)特征(正確答案)B.深度學(xué)習(xí)不需要做數(shù)據(jù)預(yù)處理C.深度學(xué)習(xí)不能提取底層特征,如圖像邊緣、紋理等D.深度學(xué)習(xí)不需要調(diào)參61.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?[單選題]*A.情感分析B.問答系統(tǒng)C.機(jī)器翻譯D.所有選項(xiàng)(正確答案)62.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)[單選題]*A.K近鄰算法B.隨機(jī)森林C.神經(jīng)網(wǎng)絡(luò)(正確答案)D.都不屬于63.考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來完成訓(xùn)練。而在測試過程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時(shí)間會(huì)變?yōu)槎嗌伲縖單選題]*A.少于2sB.大于2sC.仍是2s(正確答案)D.說不準(zhǔn)64.批規(guī)范化(BatchNormalization)的好處都有什么[單選題]*A.讓每一層的輸入的范圍都大致固定(正確答案)B.它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C.它是一種非常有效的反向傳播(BP)方法D.這些均不是65.卷積神經(jīng)網(wǎng)絡(luò)中卷積的主要作用是()[單選題]*A.進(jìn)行特征選擇,降低特征數(shù)量,從而減少參數(shù)數(shù)量B.提取一個(gè)局部區(qū)域的特征(正確答案)C.用來輸出想要的結(jié)果D.讀入數(shù)據(jù)66.()的殘差結(jié)構(gòu)解決了深度學(xué)習(xí)模型的退化問題,在ImageNet的數(shù)據(jù)集上,其Top5準(zhǔn)確率達(dá)到了95.51%。[單選題]*A.InceptionNetB.VCG網(wǎng)絡(luò)C.ResNet(正確答案)D.AlexNet67.與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)的優(yōu)勢在于()。[單選題]*A.深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)特征(正確答案)B.深度學(xué)習(xí)完全不需要做數(shù)據(jù)預(yù)處理C.深度學(xué)習(xí)完全不提取底層特征,如圖像邊緣、紋理等D.深度學(xué)習(xí)不需要調(diào)參68.以下那種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)?[單選題]*A.LeNetB.AlexNetC.VGGD.ResNet(正確答案)69.下列關(guān)于長短時(shí)神經(jīng)網(wǎng)絡(luò)的敘述錯(cuò)誤的是(____)。[單選題]*A.引用自循環(huán)思想B.產(chǎn)生梯度長時(shí)間持續(xù)流動(dòng)的路徑C.積累的時(shí)間尺度不可以因輸入序列而改變(正確答案)D.可應(yīng)用于語音識(shí)別和機(jī)器翻譯70.以下哪一個(gè)不是LSTM三個(gè)門中的一個(gè)門()[單選題]*A.輸入門B.遺忘門C.輸出門D.迭代門(正確答案)71.卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為()。[單選題]*A.(樣本數(shù),高度,寬度)B.(樣本數(shù),高度,寬度,通道數(shù))(正確答案)C.(高度,寬度)D.(高度*寬度)72.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練時(shí),依賴于()進(jìn)行參數(shù)計(jì)算。[單選題]*A.最大值法則B.最小值法則C.鏈?zhǔn)角髮?dǎo)法則(正確答案)D.平均求導(dǎo)法則73.CNN常見的Loss函數(shù)不包括以下哪個(gè)[單選題]*A.softmax_lossB.sigmoid_lossC.Contrastive_Loss(對比損失)D.siamese_loss(正確答案)74.有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)正確的是()。[單選題]*A.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程是擬合訓(xùn)練數(shù)據(jù)模式的過程(正確答案)B.神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C.一個(gè)結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的D.神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹好75.ResNet-50有多少個(gè)卷積層?[單選題]*A.48B.49(正確答案)C.50D.5176.關(guān)于Attention-basedModel,下列說法正確的是[單選題]*A.相似度度量模型(正確答案)B.是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C.是一種輸入對輸出的比例模型D.都不對77.下列關(guān)于模型能力(modelcapacity,指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述正確的是(____)。[單選題]*A.隱藏層層數(shù)增加,模型能力增加(正確答案)B.Dropout的比例增加,模型能力增加C.學(xué)習(xí)率增加,模型能力增加D.以上都不正確78.神經(jīng)元計(jì)算什么?[單選題]*A.神經(jīng)元計(jì)算激活函數(shù)后,再計(jì)算線性函數(shù)(z=Wx+b)B.神經(jīng)元計(jì)算一個(gè)線性函數(shù)(z=Wx+b),然后接一個(gè)激活函數(shù)(正確答案)C.神經(jīng)元計(jì)算一個(gè)函數(shù)g,它線性地縮放輸入x(Wx+b)D.神經(jīng)元先計(jì)算所有特征的平均值,然后將激活函數(shù)應(yīng)用于輸出79.()不屬于神經(jīng)網(wǎng)絡(luò)常用的激活函數(shù)。[單選題]*A.softmax(正確答案)B.tanhC.reluD.sigmoid80.conv2d=nn.Conv2d(in_channels=3,out_channels=4,kernel_size=3,padding=2),輸入一張形狀為3×100×100的圖像,輸出的形狀為:(____)[單選題]*A.3x100x100B.4x102x102(正確答案)C.3x102x102D.4x100x10081.以下哪些CNN模型不是在imagenet比賽中興起的?(____)[單選題]*A.AlexNetB.VGG19C.ResNetD.Mask-RCNN(正確答案)82.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少[單選題]*A.218x218x5(正確答案)B.217x217x8C.217x217x3D.220x220x583.BP神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇(____),其訓(xùn)練誤差持續(xù)降低,但測試誤差卻可能上升。[單選題]*A.欠擬合B.誤差過大C.誤差過小D.過擬合(正確答案)84.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?[單選題]*A.不知道B.看情況C.是(正確答案)D.否85.()是TensorFlow的核心數(shù)據(jù)單位。[單選題]*A.張量(正確答案)B.向量C.矩陣D.數(shù)組86.(____)的殘差結(jié)構(gòu)解決了深度學(xué)習(xí)模型的退化問題。在ImageNet的數(shù)據(jù)集上,其Top5準(zhǔn)確率達(dá)到了95.51%[單選題]*A.InceptionNetB.VGGC.ResNet(正確答案)D.AlexNet87.生成對抗網(wǎng)絡(luò)主要包含了一對相互對抗的網(wǎng)絡(luò)模型:生成網(wǎng)絡(luò)和()[單選題]*A.卷積網(wǎng)絡(luò)B.判別網(wǎng)絡(luò)(正確答案)C.神經(jīng)網(wǎng)絡(luò)D.深度網(wǎng)絡(luò)88.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,可以用來處理過擬合的方法是(____)。[單選題]*A.DropoutB.分批歸一化(BatchNormalization)C.正則化(regularization)D.都可以(正確答案)89.()是一種處理時(shí)序數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用語語音識(shí)別、機(jī)器翻譯等領(lǐng)域。[單選題]*A.前饋卷神經(jīng)網(wǎng)絡(luò)B.卷積神經(jīng)網(wǎng)絡(luò)C.循環(huán)神經(jīng)網(wǎng)絡(luò)(正確答案)D.對抗神經(jīng)網(wǎng)絡(luò)90.卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetwork,CNN)是一種專門用來處理具有類似(____)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。[單選題]*A.網(wǎng)格結(jié)構(gòu)(正確答案)B.數(shù)組結(jié)構(gòu)C.序列結(jié)構(gòu)D.表格結(jié)構(gòu)91.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)[單選題]*A.把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B.對新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C.只對最后幾層進(jìn)行調(diào)參(finetune)(正確答案)D.對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用92.以下哪項(xiàng)是對早期停止(earlystop)的最佳描述?(____)。[單選題]*A.訓(xùn)練網(wǎng)絡(luò)直到達(dá)到誤差函數(shù)中的局部最小值B.在每次訓(xùn)練期后在測試數(shù)據(jù)集上模擬網(wǎng)絡(luò),當(dāng)泛化誤差開始增加時(shí)停止訓(xùn)練(正確答案)C.在中心化權(quán)重更新中添加一個(gè)梯度下降加速算子,以便訓(xùn)練更快地收斂D.更快的方法是反向傳播算法93.影響小批量梯度下降法的主要因素是()[單選題]*A.批量大小KB.學(xué)習(xí)率C.梯度估計(jì)D.以上選項(xiàng)均正確(正確答案)94.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是(____)。[單選題]*A.圖像分類B.目標(biāo)檢測C.圖像語義分割D.以上答案都正確(正確答案)95.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(____)重疊。[單選題]*A.可以B.不可以(正確答案)C.根據(jù)任務(wù)需要確定是否可以D.根據(jù)分割方法確定是否可以96.(____)用于將非線性引入神經(jīng)網(wǎng)絡(luò),它會(huì)將值縮小到較小的范圍內(nèi)。[單選題]*A.損失函數(shù)B.優(yōu)化函數(shù)C.激活函數(shù)(正確答案)D.目標(biāo)函數(shù)97.與HMM和MEMM模型相比,CRF模型的優(yōu)勢不包含(____)。[單選題]*A.特征靈活B.速度快(正確答案)C.可容納較多上下文信息D.全局最優(yōu)98.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點(diǎn)是(____)。[單選題]*A.連續(xù)但不光滑B.不連續(xù)但光滑C.連續(xù)且光滑(正確答案)D.不連續(xù)且不光滑99.ResNet-50有多少個(gè)卷積層?[單選題]*A.48B.49(正確答案)C.50D.51100.Atlas加速AI推理使用的是什么處理器?[單選題]*A.異騰910處理器B.異騰310處理器(正確答案)C.GPUDD.FPGA101.下列關(guān)于注意力機(jī)制的相關(guān)敘述,錯(cuò)誤的是()[單選題]*A.自上而下的有意識(shí)的注意力,稱為基于顯著性的注意力(正確答案)B.多頭注意力利用多個(gè)查詢,來并行地從輸入信息中選取多組信息C.為了提高模型能力,自注意力模型經(jīng)常采用查詢-鍵-值模式D.自注意力模型可以擴(kuò)展為多頭自注意力模型,在多個(gè)不同的投影空間中捕捉不同的交互信息102.()屬于深度學(xué)習(xí)框架。[單選題]*A.TensorflowB.CaffeC.PyTorchD.以上答案都正確(正確答案)103.BatchNorm層對于inputbatch會(huì)統(tǒng)計(jì)出mean和variance用于計(jì)算EMA。如果inputbatch的shape為(B,C,H,W),統(tǒng)計(jì)出的mean和variance的shape為:[單選題]*A.B*1*1*1B.1*C*1*1(正確答案)C.B*C*1*1D.1*1*1*1104.下列關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述錯(cuò)誤的是(____)。[單選題]*A.輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元B.神經(jīng)元之間存在同層連接以及跨層連接(正確答案)C.輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理D.每層神經(jīng)元上一層與下一層全互連105.在感知機(jī)中(Perceptron)的任務(wù)順序是什么1.隨機(jī)初始化感知機(jī)的權(quán)重2.去到數(shù)據(jù)集的下一批(batch)3.如果預(yù)測值和輸出不一致,則調(diào)整權(quán)重4.對一個(gè)輸入樣本,計(jì)算輸出值[單選題]*A.1,2,3,4B.4,3,2,1C.3,1,2,4D.1,4,3,2(正確答案)106.自然語言處理、語音識(shí)別、股票交易、氣象預(yù)測等應(yīng)用適合采用(__)處理。[單選題]*A.循環(huán)神經(jīng)網(wǎng)絡(luò)(正確答案)B.卷積神經(jīng)網(wǎng)絡(luò)C.多層神經(jīng)網(wǎng)絡(luò)D.單層神經(jīng)網(wǎng)絡(luò)107.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢[單選題]*A.搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B.賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重(正確答案)C.隨機(jī)賦值,聽天由命D.以上都不正確的108.下列哪個(gè)函數(shù)不可以做激活函數(shù)[單選題]*A.y=tanh(x)B.y=sin(x)C.y=max(x,0)D.y=2x(正確答案)109.sigmoid導(dǎo)數(shù)為[單選題]*A.f(z)B.f(1-z)C.f(1+z)f(1-z)D.f(z)(1-f(z))(正確答案)110.()的層結(jié)構(gòu)主要有:輸入層、卷積層、池化層(匯聚層、下采樣層)、輸出層等,其他的還可以有全連接層,歸一化層之類的層結(jié)構(gòu)。[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)(正確答案)B.網(wǎng)絡(luò)神經(jīng)C.識(shí)別神經(jīng)D.圖像神經(jīng)111.設(shè)計(jì)為8層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)成功使用(____),其效果遠(yuǎn)遠(yuǎn)地超過了Sigmoid函數(shù)。[單選題]*A.ReLU函數(shù)(正確答案)B.sigmoid函數(shù)C.tanh函數(shù)D.sin函數(shù)112.感知機(jī)中,(____)是M-P神經(jīng)元,也稱為閾值邏輯單元。[單選題]*A.輸入層B.輸出層(正確答案)C.第一層D.第二層113.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?[單選題]*A.K近鄰算法B.隨機(jī)森林C.神經(jīng)網(wǎng)絡(luò)(正確答案)D.都不屬于114.CNN神經(jīng)網(wǎng)絡(luò)對圖像特征提取帶來了變革性的變化,使之前的人工特征提取升級到數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是(____)。[單選題]*A.卷積層(正確答案)B.全連接層C.池化層D.采樣層115.下列哪一種架構(gòu)有反饋連接?[單選題]*A.循環(huán)神經(jīng)網(wǎng)絡(luò)(正確答案)B.卷積神經(jīng)網(wǎng)絡(luò)C.限制玻爾茲曼機(jī)D.都不是116.提升卷積核(convolutionalkernel)的大小會(huì)顯著提升卷積神經(jīng)網(wǎng)絡(luò)的性能,這種說法是[單選題]*A.正確的B.錯(cuò)誤的(正確答案)117.關(guān)于梯度消散/爆炸問題下列說法不正確的是[單選題]*A.控制網(wǎng)絡(luò)層數(shù)可以一定程度上減少梯度消失的問題B.可能采用了不合適的激活函數(shù)C.剪切梯度,正則化能防止梯度消散(正確答案)D.使用殘差網(wǎng)絡(luò)可以減少梯度消散的問題118.預(yù)訓(xùn)練模型是指()。[單選題]*A.先訓(xùn)練一個(gè)模型作為基準(zhǔn)B.在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練C.已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型(正確答案)D.預(yù)先根據(jù)任務(wù)特點(diǎn),對模型結(jié)構(gòu)進(jìn)行調(diào)整119.下列關(guān)于Pytorch的描述中,正確的是()。[單選題]*A.Pytorch可以視作加入了GPU支持的Numpy(正確答案)B.Pytorch采用靜態(tài)的、命令式的編程語言C.Pytorch的網(wǎng)絡(luò)都是有向無環(huán)圖的集合,可以直接定義D.Pytorch的底層代碼高度工業(yè)化,不容易看懂120.深度學(xué)習(xí)中的“深度”是指()。[單選題]*A.計(jì)算機(jī)理解深度B.中間神經(jīng)元網(wǎng)絡(luò)的層次很多(正確答案)C.計(jì)算機(jī)的求解更加精確D.計(jì)算機(jī)對問題的處理更加靈活121.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題1.增加更多的數(shù)據(jù)2.使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3.使用歸納性更好的架構(gòu)4.正規(guī)化數(shù)據(jù)5.降低架構(gòu)的復(fù)雜度[單選題]*A.145B.123C.1345D.所有項(xiàng)目都有用(正確答案)122.深度學(xué)習(xí)防止過擬合下列說法正確的是[單選題]*A.BN(批歸一化)B.增強(qiáng)數(shù)據(jù)集樣本數(shù)目、做一些數(shù)據(jù)增強(qiáng)的操作C.限制模型的學(xué)習(xí)能力D.以上都可以(正確答案)123.下列不屬于深度學(xué)習(xí)的是()。[單選題]*A.監(jiān)督學(xué)習(xí)B.無監(jiān)督學(xué)習(xí)C.強(qiáng)化學(xué)習(xí)D.自主學(xué)習(xí)(正確答案)124.DNN常用的激活函數(shù)有(____)。[單選題]*A.sigmoidB.tanhC.ReLUD.以上答案都正確(正確答案)125.長短時(shí)記憶網(wǎng)絡(luò)屬于一種()。[單選題]*A.全連接神經(jīng)網(wǎng)絡(luò)B.門控RNN(正確答案)C.BP神經(jīng)網(wǎng)絡(luò)D.雙向RNN126.使用預(yù)訓(xùn)練模型進(jìn)行特征提取,要訓(xùn)練的部分是()。[單選題]*A.全連接分類器(正確答案)B.高層卷積層C.底層卷積層D.整個(gè)網(wǎng)絡(luò)127.假設(shè)img是一個(gè)(32,32,3)數(shù)組,表示一個(gè)32x32圖像,它有三個(gè)顏色通道:紅色、綠色和藍(lán)色。如何將其重塑為列向量?[單選題]*A.x=img.reshape((1,32*32,3))B.x=img.reshape((32*32*3,1))(正確答案)C.x=img.reshape((3,32*32))D.x=img.reshape((32*32,3))128.()不屬于深度學(xué)習(xí)模型。[單選題]*A.InceptionV3B.VGG19C.ResNet50D.CIFAR-10(正確答案)129.已知:(1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達(dá)。(2)每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。(3)神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。(4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?[單選題]*A.加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加(正確答案)B.有維度更高的數(shù)據(jù)C.當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)D.以上都不正確130.CNN中用來完成分類的是()[單選題]*A.卷積層B.池化層C.全連接層(正確答案)D.激活層131.實(shí)現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個(gè)數(shù)一般選擇()。[單選題]*A.與類別數(shù)一致(正確答案)B.10以內(nèi)C.2個(gè)D.類別數(shù)的2倍132.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入,則有反饋連接的是(____)。[單選題]*A.循環(huán)神經(jīng)網(wǎng)絡(luò)(正確答案)B.卷積神經(jīng)網(wǎng)絡(luò)C.限制玻爾茲曼機(jī)D.都不是133.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是(____)。[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)B.長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(正確答案)C.GRUD.BP神經(jīng)網(wǎng)絡(luò)134.關(guān)于圖像分割的研究方向的劃分中,下列選項(xiàng)錯(cuò)誤的是[單選題]*A.語義分割B.全景分割C.規(guī)則分割(正確答案)D.實(shí)例分割135.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測試誤差卻可能上升。[單選題]*A.欠擬合B.誤差過大C.誤差過小D.過擬合(正確答案)136.列哪些項(xiàng)所描述的相關(guān)技術(shù)是錯(cuò)誤的[單選題]*A.AdaGrad使用的是一階差分(firstorderdifferentiation)B.L-BFGS使用的是二階差分(secondorderdifferentiation)C.AdaGrad使用的是二階差分(正確答案)137.以下()情況下,神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型。[單選題]*A.加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深(正確答案)B.輸入層可以接收維度更高的數(shù)據(jù)C.當(dāng)問題是圖形識(shí)別或分類問題時(shí)D.激活函數(shù)更復(fù)雜138.能夠提取出圖片邊緣特征的網(wǎng)絡(luò)是()。[單選題]*A.全連接層B.池化層C.卷積層(正確答案)D.隱藏層139.()的主要問題是最后的3層全連接層的參數(shù)量過于龐大。[單選題]*A.InceptionNetB.VCG網(wǎng)絡(luò)(正確答案)C.ResNetD.AlexNet140.下列關(guān)于tensorflow的描述中,不正確的是()。[單選題]*A.TensorFlow的計(jì)算圖中每個(gè)節(jié)點(diǎn)代表一個(gè)操作,如加法、減法等B.TensorFlow的張量是作為非子葉節(jié)點(diǎn)出現(xiàn)的(注:不能作為非子葉節(jié)點(diǎn)出現(xiàn))(正確答案)C.基于梯度的機(jī)器學(xué)習(xí)算法會(huì)受益于TensorFlow的自動(dòng)求微分能力D.TensorFlow支持C++和Python程序141.(____)不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。[單選題]*A.感知機(jī)B.神經(jīng)元C.神經(jīng)系統(tǒng)D.誤差逆?zhèn)鞑?正確答案)142.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點(diǎn)是()。[單選題]*A.連續(xù)但不光滑B.不連續(xù)但光滑C.連續(xù)且光滑(正確答案)D.不連續(xù)且不光滑143.長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)通過()來緩解梯度消失問題[單選題]*A.增加網(wǎng)絡(luò)深度B.減少網(wǎng)絡(luò)神經(jīng)元C.使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)D.增加一個(gè)用來保存長期狀態(tài)的單元(正確答案)144.()用來評估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對樣本的預(yù)測值和真實(shí)值之間的誤差大小。[單選題]*A.優(yōu)化函數(shù)B.梯度下降C.反向傳播D.損失函數(shù)(正確答案)145.主要用于序列標(biāo)注任務(wù)的是()[單選題]*A.序列到類別模式B.同步的序列到序列模式(正確答案)C.異步的序列到序列模式D.以上選項(xiàng)均不正確146.下列哪一個(gè)神經(jīng)網(wǎng)絡(luò)模型更適合于自然語言處理()[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)CNNB.循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(正確答案)C.BP神經(jīng)網(wǎng)絡(luò)模型D.Hopfield神經(jīng)網(wǎng)格模型147.下面哪種方法沒辦法直接應(yīng)用于自然語言處理的任務(wù)?[單選題]*A.去語法模型B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.卷積神經(jīng)網(wǎng)絡(luò)D.主成分分析(PCA)(正確答案)148.對于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,則下列敘述正確的是(____)。[單選題]*A.沒有問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練B.神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西(正確答案)C.神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變D.以上選項(xiàng)都不對149.引入激活函數(shù)的目的是()[單選題]*A.加入額外的計(jì)算單元B.加快計(jì)算速度C.增加神經(jīng)網(wǎng)絡(luò)模型的非線性(正確答案)D.方便反向傳播計(jì)算150.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的是()[單選題]*A.神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量B.神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C.訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個(gè)很耗時(shí)的過程(正確答案)D.只能用于分類任務(wù)151.LSTM網(wǎng)絡(luò)引入門控機(jī)制來控制信息傳遞的路徑,其中輸入門的作用是()[單選題]*A.控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)需要遺忘多少信息B.控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)有多少信息需要保存C.控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存(正確答案)D.控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)152.在一個(gè)神經(jīng)網(wǎng)絡(luò)里,知道每一個(gè)神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是(____)。[單選題]*A.隨機(jī)賦值,祈禱他們是正確的B.搜索所有權(quán)重和偏差的組合,直到得到最佳值C.賦予一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重(正確答案)D.以上說法都不正確153.公司對外提供數(shù)據(jù)時(shí),應(yīng)根據(jù)《國家電網(wǎng)有限公司關(guān)于數(shù)據(jù)對外開放的指導(dǎo)意見》(國家電網(wǎng)互聯(lián)〔2020〕675號)有關(guān)要求,執(zhí)行()的數(shù)據(jù)開放策略。[單選題]*A.差異化(正確答案)B.一致化C.最大化D.最小化154.大數(shù)據(jù)應(yīng)用評價(jià)與成果管理不包括[單選題]*A.應(yīng)用成效評估、工作評價(jià)B.適用頻率C.增加經(jīng)濟(jì)效益D.論文數(shù)量(正確答案)155.營銷客戶檔案等重要數(shù)據(jù)建議按()存放一份完整全量數(shù)據(jù),生命周期為永久。[單選題]*A.天(正確答案)B.年C.月D.星期156.公司大數(shù)據(jù)應(yīng)用需求與立項(xiàng)管理遵循(),嚴(yán)格落實(shí)項(xiàng)目制管理要求,主要包括需求征集、評審、儲(chǔ)備、立項(xiàng)和計(jì)劃編制與調(diào)整等工作。[單選題]*A.數(shù)字化項(xiàng)目管理規(guī)范(正確答案)B.大數(shù)據(jù)應(yīng)用需求C.分級分類管理D.互聯(lián)網(wǎng)部管轄157.下列哪項(xiàng)不屬于數(shù)據(jù)共享管理的范疇()?[單選題]*A.數(shù)據(jù)目錄B.數(shù)據(jù)內(nèi)容(正確答案)C.數(shù)據(jù)共享負(fù)面清單D.數(shù)據(jù)歸集管理158.對納入()的數(shù)據(jù),互聯(lián)網(wǎng)部組織制定數(shù)據(jù)使用審批程序,數(shù)據(jù)使用方提出申請,經(jīng)數(shù)據(jù)責(zé)任部門審批授權(quán)后方可使用。[單選題]*A.數(shù)據(jù)共享負(fù)面清單(正確答案)B.數(shù)據(jù)風(fēng)險(xiǎn)清單C.數(shù)據(jù)保密清單D.數(shù)據(jù)共享清單159.機(jī)房照明一般要求有(____)[單選題]*A.正常照明B.保證照明C.事故照明D.以上都是(正確答案)160.需加強(qiáng)國家秘密、企業(yè)秘密、個(gè)人信息、()等重點(diǎn)領(lǐng)域的數(shù)據(jù)合規(guī)管理[單選題]*A.他人信息B.個(gè)人秘密C.知識(shí)產(chǎn)權(quán)(正確答案)D.公共信息161.數(shù)據(jù)中臺(tái)由()、()、()、()、()五大板塊組成,采用總部和省市公司兩級部署模式構(gòu)建。[單選題]*A.貼源層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理(正確答案)B.貼源層、應(yīng)用層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理C.服務(wù)層、共享層、應(yīng)用層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理D.服務(wù)層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理162.公司大數(shù)據(jù)應(yīng)用()管理主要包括項(xiàng)目啟動(dòng)、開發(fā)和實(shí)施、問題處置等工作[單選題]*A.開發(fā)實(shí)施(正確答案)B.立項(xiàng)檢查C.成果驗(yàn)收D.開發(fā)流程163.假冒網(wǎng)絡(luò)管理員,騙取用戶信任,然后獲取密碼口令信息的攻擊方式被稱為(____)。[單選題]*A.密碼猜解攻擊B.社會(huì)工程攻擊(正確答案)C.緩沖區(qū)溢出攻擊D.網(wǎng)絡(luò)監(jiān)聽攻擊164.在“十三五”重點(diǎn)任務(wù)——(七)重點(diǎn)跨領(lǐng)域技術(shù)中將()列為一項(xiàng)需要重點(diǎn)發(fā)展的技術(shù)[單選題]*A.電網(wǎng)安全控制與電力大數(shù)據(jù)技術(shù)B.面向互聯(lián)網(wǎng)+的營銷大數(shù)據(jù)運(yùn)營技術(shù)C.電測與計(jì)量一體化支撐關(guān)鍵技術(shù)D.先進(jìn)計(jì)算與電力大數(shù)據(jù)技術(shù)(正確答案)165.下列模型屬于考慮詞語位置關(guān)系的是()o[單選題]*A.詞向量模型(正確答案)B.詞袋模型C.詞的分布式表示D.TF-IDF166.下列不屬于數(shù)據(jù)科學(xué)項(xiàng)目主要角色的是()。[單選題]*A.項(xiàng)目發(fā)起人B.項(xiàng)目經(jīng)理C.操作員D.驗(yàn)收人員(正確答案)167.假定使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點(diǎn)存在錯(cuò)誤?,F(xiàn)在如果使用一個(gè)二次核函數(shù),多項(xiàng)式階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)使用較大的C(C趨于無窮),則()。[單選題]*A.仍然能正確分類數(shù)據(jù)(正確答案)B.不能正確分類C不確定D.以上均不正確168.在邏輯回歸輸出與目標(biāo)對比的情況下,下列評估指標(biāo)不適用的是()。[單選題]*A.AUC-ROCB.準(zhǔn)確度C.LoglossD.均方誤差(正確答案)169.假設(shè)正在訓(xùn)練一個(gè)LSTM網(wǎng)絡(luò),有一個(gè)10000詞的詞匯表,并且使用一個(gè)激活值維度為100的LSTM塊,在每一個(gè)時(shí)間步中,F(xiàn)u的維度是()o[單選題]*A.1B.100(正確答案)C.300D.10000170.關(guān)于嶺回歸,下列說法錯(cuò)誤的是()。[單選題]*A屬于線性回歸B使用L2正規(guī)項(xiàng)C使用L1正規(guī)項(xiàng)(正確答案)D基于最小二乘法171.下列操作屬于預(yù)剪枝的是()。[單選題]*A.信息增益B.計(jì)算最好的特征切分點(diǎn)C.限制樹模型的深度(正確答案)D.可視化樹模型172.()負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。[單選題]*A.NameNodeB.JobTrackerC.DataNode(正確答案)D.SecondaryNameNode173.基于數(shù)據(jù)集劃分方式的不同,評估方法可以分為三種,下列錯(cuò)誤的是()[單選題]*A.交叉驗(yàn)證法B.自助法C.過濾法(正確答案)D.留出法174.在支持向量機(jī)中,核函數(shù)的主要作用是()o[單選題]*A.

將低維空間中線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分(正確答案)B.

將高維空間中線性不可分的數(shù)據(jù)映射到低維空間,使其線性可分C.

將高維空間中線性可分的數(shù)據(jù)映射到低維空間,使其線性不可分D.

將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分175._____是用來度量樣本集合純度的常用指標(biāo)。[單選題]*A.基尼系數(shù)B.離散度C.信息熵(正確答案)D.可決系數(shù)176.()屬于深度學(xué)習(xí)框架。[單選題]*A.TensorflowB.CaffeC.PyTorchD.以上答案都正確(正確答案)177.國家支持開發(fā)利用數(shù)據(jù)提升公共服務(wù)的(),應(yīng)當(dāng)充分考慮老年人、殘疾人的需求,避免對老年人、殘疾人的日常生活造成障礙。[單選題]*A.數(shù)據(jù)化服務(wù)B.智能化服務(wù)(正確答案)C.智能化水平D.數(shù)據(jù)智能化178.(__)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來完成學(xué)習(xí)任務(wù)。[單選題]*A.支持向量機(jī)B.貝葉斯分類器C.神經(jīng)網(wǎng)絡(luò)D.集成學(xué)習(xí)(正確答案)179.神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括以下哪些步驟*A.將數(shù)據(jù)向量化(正確答案)B.將數(shù)據(jù)值標(biāo)準(zhǔn)化(正確答案)C.處理缺失值(正確答案)D.將數(shù)據(jù)值轉(zhuǎn)化為浮點(diǎn)數(shù)或整數(shù)(正確答案)180.在深度學(xué)習(xí)中采用梯度下降方法往往達(dá)不到最優(yōu)解,而是在以下哪些情況下停止了。*A.鞍點(diǎn)(正確答案)B..局部極值點(diǎn)(正確答案)C..高原(plateau)點(diǎn)(正確答案)D..早停點(diǎn)(正確答案)181.數(shù)據(jù)分析服務(wù)目錄的服務(wù)產(chǎn)品類別包含()*A.場景應(yīng)用(正確答案)B.分析報(bào)告(正確答案)C.算法模型(正確答案)D.分析數(shù)據(jù)集(正確答案)182.NodeManager的內(nèi)存和CPU的數(shù)量,是:通過:()選項(xiàng)進(jìn)行配置。*A.Yarn.scheduler.capacity.root.Queuemaximum-capacityB.yarn.nodemanager.resource.cpu-vcore(正確答案)C.yarn.nodemanager.vmem-pmom-ratio(正確答案)D.yarn.nodemanager.resource.memory-mb(正確答案)183.有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的說法,以下哪些說法是正確的?(____)。*A.RNN的隱層神經(jīng)元的輸入包括其歷史各個(gè)時(shí)間點(diǎn)的輸出B.RNN比較擅長處理時(shí)序數(shù)據(jù),例如文本的分析(正確答案)C.在各個(gè)時(shí)間點(diǎn),RNN的輸入層與隱層之間、隱層與輸出層之間以及相鄰時(shí)間點(diǎn)之間的隱層權(quán)重是共享的,因?yàn)椴煌瑫r(shí)刻對應(yīng)同一個(gè)網(wǎng)絡(luò)(正確答案)D.RNN的損失函數(shù)度量所有時(shí)刻的輸入與理想輸出的差異,需要使用梯度下降法調(diào)整參數(shù)不斷降低損失函數(shù)(正確答案)184.RNN網(wǎng)絡(luò)的激活函數(shù)選用雙曲正切而不是Sigmod的原因有(____)。*A.使用Sigmod函數(shù)容易出現(xiàn)梯度消失(正確答案)B.Sigmod的導(dǎo)數(shù)形式較為復(fù)雜(正確答案)C.雙曲正切更簡單D.Sigmoid函數(shù)實(shí)現(xiàn)較為復(fù)雜185.當(dāng)圖像分類的準(zhǔn)確率不高時(shí),可以考慮以下哪種方法提高準(zhǔn)確率。*A.數(shù)據(jù)增強(qiáng)(正確答案)B.調(diào)整超參數(shù)(正確答案)C.使用預(yù)訓(xùn)練網(wǎng)絡(luò)參數(shù)(正確答案)D.減少數(shù)據(jù)集186.下列關(guān)于ROC曲線和AUC說法正確的是:*A.TPR=(TP)/(TP+FN)(正確答案)B.FPR=(FP)/(TP+FN)(正確答案)C.ROC曲線的縱軸是“真正確率”(正確答案)D.ROC曲線的橫軸是“假正確率”(正確答案)187.通過技術(shù)創(chuàng)新和管理變革交叉賦能,完成以客戶為中心的快速迭代與創(chuàng)新,實(shí)現(xiàn)公司在客戶、電網(wǎng)等核心業(yè)務(wù)能力提升及資源聚合。*A.技術(shù)創(chuàng)新(正確答案)B.管理變革(正確答案)C.模式創(chuàng)新D.政策變革188.在決策樹基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回,這三種情形分別是(__)。*A.當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無需劃分(正確答案)B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無法劃分(正確答案)C.當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分(正確答案)D.當(dāng)前結(jié)點(diǎn)包含的樣本不屬于同一類別,不可劃分189.下面哪些方法有助于解決深度網(wǎng)絡(luò)的梯度消失問題()*A.增加網(wǎng)絡(luò)深度B.使用Sigmoid激活函數(shù)C.使用ReLU激活函數(shù)(正確答案)D.采用BatchNormalization(正確答案)190.關(guān)于數(shù)據(jù)中臺(tái)架構(gòu)原則,以下說法正確的是()。*A.模型統(tǒng)一(正確答案)B.資源匯聚(正確答案)C.同源維護(hù)(正確答案)D.共建共享(正確答案)191.去除噪聲數(shù)據(jù)的方法有哪些?*A.分箱(正確答案)B.回歸(正確答案)C.離群點(diǎn)分析(正確答案)D.特征提取192.神經(jīng)網(wǎng)絡(luò)可以按()*A.學(xué)習(xí)方式分類(正確答案)B.網(wǎng)絡(luò)結(jié)構(gòu)分類(正確答案)C.網(wǎng)絡(luò)的協(xié)議類型分類D.網(wǎng)絡(luò)的活動(dòng)方式分類(正確答案)193.下面哪些情況可能導(dǎo)致神經(jīng)網(wǎng)絡(luò)訓(xùn)練失敗*A.梯度消失(正確答案)B.梯度爆炸(正確答案)C.激活單元消失(正確答案)D.鞍點(diǎn)(正確答案)194.下列哪些方法是常見解決分類模型之類別不平衡問題的方法。*A.欠采樣(正確答案)B.過采樣(正確答案)C.強(qiáng)化學(xué)習(xí)D.生成對抗網(wǎng)絡(luò)(正確答案)195.對于正交屬性空間中的樣本點(diǎn),若存在一個(gè)超平面對所有樣本進(jìn)行恰當(dāng)?shù)谋磉_(dá),則這樣的超平面應(yīng)具有(__)和(__)的性質(zhì)。*A.最近重構(gòu)性(正確答案)B.最大可分性(正確答案)C.最遠(yuǎn)重構(gòu)性D.最小可分性196.下面關(guān)于池化的描述中,正確的的說法有哪些?*A.池化方法也可以自定義(正確答案)B.池化在CNN中沒有增加可訓(xùn)練的參數(shù),但減少較多的計(jì)算量,加快模型訓(xùn)練時(shí)間(正確答案)C.池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化D.在人臉識(shí)別中采用較多池化的原因是為了獲得人臉部的高層特征(正確答案)197.深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成中,把卷積層放在前面,全連接層放在后面。以下說法正確的是?*A.用卷積層提取特征(正確答案)B.pooling的下采樣能夠降低overfitting(正確答案)C.全連接層只能有一層D.激活函數(shù)relu可以用到卷積層(正確答案)198.公司業(yè)務(wù)中臺(tái)由下列哪些中臺(tái)組成*A.客戶服務(wù)業(yè)務(wù)中臺(tái)(正確答案)B.電網(wǎng)資源業(yè)務(wù)中臺(tái)(正確答案)C.財(cái)務(wù)管理業(yè)務(wù)中臺(tái)(正確答案)D.項(xiàng)目管理業(yè)務(wù)中臺(tái)(正確答案)199.下面哪些情況可能導(dǎo)致神經(jīng)網(wǎng)絡(luò)訓(xùn)練失敗。*A.梯度消失(正確答案)B.梯度爆炸(正確答案)C.激活單元死亡(正確答案)D.鞍點(diǎn)(正確答案)200.門循環(huán)單元網(wǎng)絡(luò)(GRU)主要有哪兩個(gè)門限函數(shù)組成()。*A.重置門(正確答案)B.遺忘門C.激活門D.更新門(正確答案)201.以下對于Transformer的說法中,正確的是*A.Transformer中有三種不同的mask機(jī)制:inputspaddingmask、lookaheadmask和outputspaddingmask(正確答案)B.layernormalization和batchnormalization都是樣本歸一化方法,他們在計(jì)算時(shí)都是用同一個(gè)均值和方差。C.Self-Attention中,必須要做輸入特征向量線性變換(正確答案)D.位置編碼可以通過自定義函數(shù)來轉(zhuǎn)換,也可以通過lookup方式讓模型自主學(xué)習(xí)位置編碼(正確答案)202.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享。*A.卷積神經(jīng)網(wǎng)絡(luò)(正確答案)B.循環(huán)神經(jīng)網(wǎng)絡(luò)(正確答案)C.全連接神經(jīng)網(wǎng)絡(luò)D.Softmax層203.與全連接的DNN,CNN的優(yōu)勢有(____)。*A.參數(shù)更少(正確答案)B.泛化更好(正確答案)C.訓(xùn)練更快(正確答案)D.更容易搭建204.從形式語言表達(dá)能力而言,規(guī)則可分為兩類:(__)和(__)。*A.命題規(guī)則(正確答案)B.一階規(guī)則(正確答案)C.原子命題D.邏輯連接詞205.參考數(shù)據(jù)用于對其他數(shù)據(jù)進(jìn)行分類,通常是靜態(tài),并有一個(gè)有限的可選值范圍,下列哪些數(shù)據(jù)屬于參考數(shù)據(jù)()。*A.組織機(jī)構(gòu)B.電壓等級(正確答案)C.物料D.合同類型(正確答案)206.各單位要從責(zé)任、管理和技術(shù)上夯實(shí)基礎(chǔ),完善數(shù)據(jù)安全風(fēng)險(xiǎn)防控體系,確保安全合規(guī)地____、____、____數(shù)據(jù)。*A.公開B.使用(正確答案)C.交互(正確答案)D.共享(正確答案)207.支持創(chuàng)建的數(shù)據(jù)標(biāo)簽類型有:()。*A.規(guī)則標(biāo)簽(正確答案)B.組合標(biāo)簽(正確答案)C.手工標(biāo)簽(正確答案)D.實(shí)時(shí)標(biāo)簽(正確答案)208.下列關(guān)于交叉驗(yàn)證法描述正確的是(__)。*A.交叉驗(yàn)證法先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集(正確答案)B.交叉驗(yàn)證法將數(shù)據(jù)集劃分成的k個(gè)子集應(yīng)盡可能保持?jǐn)?shù)據(jù)分布的一致性(正確答案)C.通常把交叉驗(yàn)證法稱為k折交叉驗(yàn)證(正確答案)D.假定數(shù)據(jù)集D中包含m個(gè)樣本,若令交叉驗(yàn)證法中的系數(shù)k=m,則得到了交叉驗(yàn)證法的一個(gè)特例:自助法209.當(dāng)圖像分類的準(zhǔn)確率不高時(shí),可以考慮以下哪種方法提高準(zhǔn)確率*A.數(shù)據(jù)增強(qiáng)(正確答案)B.調(diào)整超參數(shù)(正確答案)C.使用預(yù)訓(xùn)練網(wǎng)絡(luò)參數(shù)(正確答案)D.減少數(shù)據(jù)集210.以下有關(guān)生成對抗網(wǎng)絡(luò)的說法正確的是()。*A.生成器可以由Autoencoder實(shí)現(xiàn)(正確答案)B.生成器用來產(chǎn)生帶有隨機(jī)噪聲的一定分布數(shù)據(jù)和真實(shí)樣本數(shù)據(jù)的映射關(guān)系,判別器用來區(qū)別實(shí)際數(shù)據(jù)和生成器產(chǎn)生的數(shù)據(jù)(正確答案)C.生成器和判別器需要交替訓(xùn)練,不斷增加兩者的性能,直至達(dá)到某種博弈的平衡(正確答案)D.生成器和判別器的代價(jià)函數(shù)在訓(xùn)練過程中是同時(shí)優(yōu)化的211.下列關(guān)于嵌入式選擇描述正確的是(__)。*A.嵌入式選擇是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體(正確答案)B.嵌入式選擇在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇(正確答案)C.對于嵌入式選擇,特征選擇過程與學(xué)習(xí)器訓(xùn)練過程在同一個(gè)優(yōu)化過程中完成(正確答案)D.嵌入式特征選擇方法直接針對給定學(xué)習(xí)器進(jìn)行優(yōu)化212.以下那種神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)中引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)*A.LeNetB.Transformer(正確答案)C.AlexNetD.ResNets(正確答案)213.以下關(guān)于數(shù)據(jù)中臺(tái)的描述,正確的是()。*A.數(shù)據(jù)中臺(tái)是企業(yè)級數(shù)據(jù)能力共享平臺(tái)。(正確答案)B.數(shù)據(jù)中臺(tái)將業(yè)務(wù)生產(chǎn)資料轉(zhuǎn)變?yōu)閿?shù)據(jù)生產(chǎn)力,通過數(shù)據(jù)整合、提純加工、數(shù)據(jù)可視化推動(dòng)數(shù)據(jù)價(jià)值釋放,反哺業(yè)務(wù),實(shí)現(xiàn)數(shù)據(jù)增值、賦能新業(yè)務(wù)。(正確答案)C.數(shù)據(jù)中臺(tái)通過實(shí)現(xiàn)各類型數(shù)據(jù)資源全量納管、處理分析,推動(dòng)數(shù)據(jù)業(yè)務(wù)化。(正確答案)D.國網(wǎng)數(shù)據(jù)中臺(tái)采用總部和省市公司兩級部署模式構(gòu)建。(正確答案)214.假設(shè)在一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)中,批量梯度下降花費(fèi)了大量時(shí)間時(shí)來找到一組參數(shù)值,使成本函數(shù)小。以下哪些方法可以幫助找到值較小的參數(shù)值?*A.令所有權(quán)重值初始化為0B.嘗試調(diào)整學(xué)習(xí)率(正確答案)C.嘗試mini-batch梯度下降(正確答案)D.嘗試對權(quán)重進(jìn)行更好的隨機(jī)初始化(正確答案)215.數(shù)據(jù)使用環(huán)節(jié),應(yīng)結(jié)合數(shù)據(jù)業(yè)務(wù)場景采用()等技術(shù)手段實(shí)現(xiàn)差異化防護(hù),遵循最小授權(quán)原則訪問和處理個(gè)人信息和企業(yè)重要數(shù)據(jù)。*A.脫敏(正確答案)B.水印(正確答案)C.審計(jì)(正確答案)D.加密216.下面梯度下降說法正確的是?*A.隨機(jī)梯度下降是梯度下降中常用的一種(正確答案)B.梯度下降包括隨機(jī)梯度下降和批量梯度下降(正確答案)C.梯度下降算法速度快且可靠D.隨機(jī)梯度下降是深度學(xué)習(xí)算法當(dāng)中常用的優(yōu)化算法之一(正確答案)217.在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況比如正樣本為10w條數(shù)據(jù),負(fù)樣本只有1w條數(shù)據(jù),以下最合適的處理方法是*A.將負(fù)樣本重復(fù)10次生成10w樣本量打亂順序參與分類(正確答案)B.直接進(jìn)行分類可以最大限度利用數(shù)據(jù)C.從10w正樣本中隨機(jī)抽取1w參與分類(正確答案)D.將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程(正確答案)218.關(guān)于Hbase存儲(chǔ)模型的描述正確的是:()。*A.即使是:key值相同,qualifier也相同的多個(gè)KeyValue也可能有:多個(gè),此時(shí)使用時(shí)間戳來區(qū)分(正確答案)B.同一個(gè)key值可以關(guān)聯(lián)多個(gè)value(正確答案)C.keyvalue中期有:時(shí)間戳,類型等關(guān)鍵信息(正確答案)D.每一個(gè)keyvalue都有:一個(gè)qualifier標(biāo)識(shí)(正確答案)219.CNN常見的Loss函數(shù)包括以下哪個(gè)()。*A.softmax_loss(正確答案)B.sigmoid_loss(正確答案)C.Contrastive_Loss(正確答案)D.siamese_loss220.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題?*A.增加更多的數(shù)據(jù)(正確答案)B.使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)(正確答案)C.使用歸納性更好的架構(gòu)(正確答案)D.正則化數(shù)據(jù)(正確答案)221.Feigenbaum等人在著名的《人工智能手冊》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)和(_)四種。*A.深度學(xué)習(xí)B.示教學(xué)習(xí)(正確答案)C.類比學(xué)習(xí)(正確答案)D.歸納學(xué)習(xí)(正確答案)222.數(shù)據(jù)分析服務(wù)目錄的共享程度包含()*A.完全共享(正確答案)B.有條件共享(正確答案)C.不共享(正確答案)D.其他223.對涉及負(fù)面清單中個(gè)人信息等敏感數(shù)據(jù)的共享應(yīng)用,應(yīng)采取數(shù)據(jù)*A.共享B.數(shù)據(jù)水印(正確答案)C.訪問授權(quán)(正確答案)D.安全審計(jì)(正確答案)224.深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性()。*A.計(jì)算簡單(正確答案)B.非線性(正確答案)C.具有飽和區(qū)D.幾乎處處可微(正確答案)225.深度學(xué)習(xí)中,以下哪些方法可以降低模型過擬合?*A.增加更多的樣本(正確答案)B.Dropout(正確答案)C.增大模型復(fù)雜度,提高在訓(xùn)練集上的效果D.增加參數(shù)懲罰(正確答案)226.根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可大致分為(___)和(___)。*A.監(jiān)督學(xué)習(xí)(正確答案)B.訓(xùn)練集C.無監(jiān)督學(xué)習(xí)(正確答案)D.測試集227.深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性?*A.計(jì)算簡單(正確答案)B.非線性(正確答案)C.具有飽和區(qū)D.幾乎處處可微(正確答案)228.國家大數(shù)據(jù)發(fā)展戰(zhàn)略,認(rèn)真落實(shí)國務(wù)院國資委加強(qiáng)合規(guī)管理、建設(shè)法治央企工作部署,緊扣“________”的要求*A.穩(wěn)(正確答案)B.進(jìn)(正確答案)C.育(正確答案)D.開(正確答案)229.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過引入(__)和(__)而得*A.層級結(jié)構(gòu)(正確答案)B.高維映射(正確答案)C.降維

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論