【答案】《數(shù)據(jù)智能與應用》(浙江大學)章節(jié)期末慕課答案_第1頁
【答案】《數(shù)據(jù)智能與應用》(浙江大學)章節(jié)期末慕課答案_第2頁
【答案】《數(shù)據(jù)智能與應用》(浙江大學)章節(jié)期末慕課答案_第3頁
【答案】《數(shù)據(jù)智能與應用》(浙江大學)章節(jié)期末慕課答案_第4頁
【答案】《數(shù)據(jù)智能與應用》(浙江大學)章節(jié)期末慕課答案_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費閱讀

付費下載

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

【答案】《數(shù)據(jù)智能與應用》(浙江大學)章節(jié)期末慕課答案有些題目順序不一致,下載后按鍵盤ctrl+F進行搜索數(shù)據(jù)智能之起源第一章單元測試1.單選題:任何一列都不可再分的數(shù)據(jù)為下列哪種數(shù)據(jù)?

選項:

A、結(jié)構化數(shù)據(jù)

B、半結(jié)構化數(shù)據(jù)

C、無結(jié)構數(shù)據(jù)

D、文本數(shù)據(jù)

答案:【結(jié)構化數(shù)據(jù)】2.多選題:在《大數(shù)據(jù)時代》中所提到的大數(shù)據(jù)三個特征為()?

選項:

A、全面而非抽樣

B、效率而非精確

C、相關而非因果

D、種類而非數(shù)量

答案:【全面而非抽樣;效率而非精確;相關而非因果】3.多選題:下列哪些是深度學習框架?

選項:

A、TensorFlow

B、Jupyter

C、PyTorch

D、Scikit-learn

答案:【TensorFlow;PyTorch】4.單選題:隨著互聯(lián)網(wǎng)多媒體應用的出現(xiàn),非結(jié)構化數(shù)據(jù)將占有更大的比重。

選項:

A、正確

B、錯誤

答案:【正確】5.單選題:大數(shù)據(jù)是人們在大規(guī)模數(shù)據(jù)的基礎上做到的事情,這些事情是在小規(guī)模數(shù)據(jù)的基礎上無法完成的。

選項:

A、正確

B、錯誤

答案:【正確】數(shù)據(jù)智能之發(fā)展第二章單元測試1.單選題:《人工智能北京共識》于2019年5月25日發(fā)布,提出各個參與方應遵循有益于人類共同命運構建和社會發(fā)展的幾條原則?

選項:

A、10

B、15

C、20

D、25

答案:【15】2.單選題:大數(shù)據(jù)產(chǎn)生的萌芽階段為:()

選項:

A、19世紀90年代到20世紀初

B、20世紀90年代到21世紀初

C、21世紀初到2010年

D、2011年至今

答案:【20世紀90年代到21世紀初】3.多選題:下列屬于數(shù)據(jù)智能的超強魔力的是:()

選項:

A、描述性分析

B、診斷性分析

C、預測性分析

D、指令性分析

答案:【描述性分析;診斷性分析;預測性分析;指令性分析】4.單選題:機器學習的最佳場景是大數(shù)據(jù)。

選項:

A、正確

B、錯誤

答案:【正確】5.單選題:“深度學習”概念是杰弗里?辛頓及他的學生魯斯蘭?薩拉赫丁諾夫于2005年提出的。

選項:

A、正確

B、錯誤

答案:【錯誤】數(shù)據(jù)智能之利器第三章單元測試1.單選題:卷積神經(jīng)網(wǎng)絡中,原始圖像大小為32x32,卷積核大小為3x3,步長(stride)為2,補邊(padding)為0,則卷積結(jié)果大小為()

選項:

A、29x29

B、14x14

C、15x15

D、16x16

答案:【15x15】2.單選題:以下屬于分類算法的是()

選項:

A、K-Means

B、DBSCAN

C、邏輯回歸

D、線性回歸

答案:【邏輯回歸】3.多選題:以下可以展示層級化信息的可視化方法的是()

選項:

A、等高線圖

B、旭日圖

C、樹圖

D、小提琴圖

答案:【旭日圖;樹圖】4.多選題:以下屬于帶有正則化的回歸算法的是()

選項:

A、最小二乘回歸

B、Lasso回歸

C、Ridge回歸(嶺回歸)

D、Elastic-Net回歸(彈性網(wǎng)回歸)

答案:【Lasso回歸;Ridge回歸(嶺回歸);Elastic-Net回歸(彈性網(wǎng)回歸)】5.單選題:LSTM可以緩解RNN梯度消失/梯度爆炸的問題。

選項:

A、正確

B、錯誤

答案:【正確】數(shù)據(jù)智能之應用第四章單元測試1.單選題:隨機森林是哪種類型的學習算法?

選項:

A、有監(jiān)督

B、無監(jiān)督

C、半監(jiān)督

D、以上均不是

答案:【有監(jiān)督】2.單選題:在新冠肺炎傳播模型中,患者的傳染能力與什么因素無關?

選項:

A、患者確診前一個月的活動軌跡

B、患者確診前一個月的手機使用頻率

C、患者確診前一個月的接觸人數(shù)

D、與這些因素都有關

答案:【患者確診前一個月的手機使用頻率】3.多選題:目標檢測領域的常見算法有()

選項:

A、FasterR-CNN

B、FCN

C、ICNet

D、MaskR-CNN

答案:【FasterR-CNN;MaskR-CNN】4.單選題:協(xié)議自動化逆向依據(jù)方法進行分類可以分為基于流量數(shù)據(jù)的逆向和基于程序分析的逆向,由于工控協(xié)議為二進制協(xié)議,缺少文本協(xié)議所具有的分隔符和關鍵字等要素,所以不適合使用基于流量的方法進行逆向。

選項:

A、正確

B、錯誤

答案:【正確】5.單選題:樣本失衡時,可以使用ROC曲線評價分類器的性能好壞。

選項:

A、正確

B、錯誤

答案:【正確】期末考試數(shù)據(jù)智能與應用期末考試1.單選題:2020年開展的第七次全國人口普查,體現(xiàn)了舍恩伯格提出的大數(shù)據(jù)特征中的哪一項?

選項:

A、全面而非抽樣

B、效率而非精確

C、相關而非因果

D、種類而非數(shù)量

答案:【全面而非抽樣】2.單選題:下面哪一項不是“大數(shù)據(jù)”區(qū)別于“小數(shù)據(jù)”的四個關鍵特征之一?

選項:

A、數(shù)據(jù)量大

B、數(shù)據(jù)類型多

C、數(shù)據(jù)來源廣泛

D、數(shù)據(jù)價值高

答案:【數(shù)據(jù)來源廣泛】3.單選題:以下最可能是機器學習的發(fā)展趨勢的是()。

選項:

A、尋找適用于任何數(shù)據(jù)集及分析要求的機器學習技術

B、向著結(jié)構越來越復雜的機器學習模型發(fā)展

C、尋求現(xiàn)有機器學習技術及分析過程的可解釋性

D、發(fā)展逐漸趨于停滯

答案:【尋求現(xiàn)有機器學習技術及分析過程的可解釋性】4.單選題:在大數(shù)據(jù)時代,數(shù)據(jù)能夠在各行各業(yè)得以放心使用主要是由()確保的。

選項:

A、數(shù)據(jù)存儲能力

B、數(shù)據(jù)收集能力

C、數(shù)據(jù)的可靠性

D、數(shù)據(jù)分析能力

答案:【數(shù)據(jù)的可靠性】5.單選題:在大數(shù)據(jù)上使用簡單的算法,與在小數(shù)據(jù)上使用復雜的算法,更有可能出現(xiàn)下列哪種效果?

選項:

A、前者效果更好

B、后者效果更好

C、兩者效果類似

D、不具備可比性

答案:【后者效果更好】6.單選題:以下屬于利用深度學習方法處理時序數(shù)據(jù)的是()。

選項:

A、利用KNN根據(jù)用戶在平臺的行為序列判斷對某電商平臺用戶是否是網(wǎng)球愛好者

B、通過CNN根據(jù)一張256x256大小的全彩圖片判斷其中是否包含貓

C、利用DNN根據(jù)花瓣顏色、尺寸等一系列特征判斷其是否為玫瑰花

D、利用RNN根據(jù)一段單人朗讀錄音判斷朗讀者是否為女性

答案:【利用RNN根據(jù)一段單人朗讀錄音判斷朗讀者是否為女性】7.單選題:以下對聚類算法描述正確的是()。

選項:

A、聚類算法必須已知全部樣本的標注

B、一般來說,同一聚類簇中的樣本間的相似度比不同聚類簇間樣本的相似度更高

C、聚類算法必須已知樣本將分成幾類

D、一般來說,不同的聚類方法得到的聚類結(jié)果是完全相同的

答案:【一般來說,同一聚類簇中的樣本間的相似度比不同聚類簇間樣本的相似度更高】8.單選題:下列不屬于過擬合原因的是()。

選項:

A、特征維度過多

B、模型假設過于復雜

C、訓練數(shù)據(jù)過多

D、噪聲過多

答案:【訓練數(shù)據(jù)過多】9.單選題:在新冠肺炎的接觸模型中,疫情在空間上的傳播近似呈現(xiàn)()。

選項:

A、線性分布

B、指數(shù)分布

C、冪律分布

D、多項式分布

答案:【冪律分布】10.單選題:在各種大數(shù)據(jù)應用領域下,對于隱私方面的擔憂主要表現(xiàn)為()。

選項:

A、個人信息被識別與暴露

B、大數(shù)據(jù)分析的錯誤結(jié)果

C、惡意廣告的推送

D、病毒的侵入

答案:【個人信息被識別與暴露】11.單選題:導致模型遭受竊取攻擊的因素包括()。

選項:

A、模型過擬合

B、模型結(jié)構

C、模型類型

D、以上都是

答案:【以上都是】12.單選題:對抗攻擊發(fā)生在模型生命周期的()。

選項:

A、訓練階段

B、測試階段

C、應用階段

D、以上都是

答案:【測試階段】13.單選題:以下對聚類算法描述正確的是()。

選項:

A、聚類算法必須已知全部樣本的標注

B、一般來說,同一聚類簇中的樣本間的相似度比不同聚類簇間樣本的相似度更高

C、聚類算法必須已知樣本將分成幾類

D、一般來說,不同的聚類方法得到的聚類結(jié)果是完全相同的

答案:【一般來說,同一聚類簇中的樣本間的相似度比不同聚類簇間樣本的相似度更高】14.單選題:下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡中Dropout的類似效果()。

選項:

A、Boosting

B、Bagging

C、Stacking

D、Mapping

答案:【Bagging】15.單選題:大數(shù)據(jù)的特點不包括()。

選項:

A、實時性

B、單一性

C、真實性

D、規(guī)模性

答案:【單一性】16.單選題:對線下零售行業(yè)這一應用領域而言,做好大數(shù)據(jù)分析應用的前提是()。

選項:

A、提升服務質(zhì)量

B、增加營業(yè)時間

C、開展優(yōu)惠促銷

D、增加數(shù)據(jù)來源

答案:【增加數(shù)據(jù)來源】17.單選題:關于弱平穩(wěn)性,下列說法錯誤的是()。

選項:

A、具有強平穩(wěn)性的序列一定具有弱平穩(wěn)性

B、弱平穩(wěn)性不涉及高階矩(>2)

C、均值函數(shù)是常數(shù)函數(shù)

D、協(xié)方差函數(shù)僅與時間差相關

答案:【具有強平穩(wěn)性的序列一定具有弱平穩(wěn)性】18.單選題:典型的工業(yè)控制系統(tǒng)網(wǎng)絡拓撲不包括以下哪一層網(wǎng)絡結(jié)構()。

選項:

A、管理層

B、監(jiān)控層

C、控制層

D、現(xiàn)場層

答案:【現(xiàn)場層】19.單選題:小紅和小剛經(jīng)常寫信分享生活,但是小紅、小剛之間需要郵差小明傳遞信息,為了防止小明偷看信件具體內(nèi)容,那么小紅、小剛可以使用下列哪種隱私保護方法()。

選項:

A、匿名化方法

B、對稱加密方法

C、非對稱加密方法

D、差分隱私方法

答案:【非對稱加密方法】20.單選題:以下哪一項不是Github的特色?

選項:

A、提供訂閱、討論組、文本渲染、在線文件編輯器、協(xié)作圖譜報表、代碼片段分享等功能

B、網(wǎng)站提供社交網(wǎng)絡功能,用戶可以通過復刻(fork)他人項目的形式參與開發(fā)

C、允許用戶在不登陸的情況下,對在線倉庫進行修改

D、只支持Git作為唯一的版本庫格式進行托管

答案:【允許用戶在不登陸的情況下,對在線倉庫進行修改】21.單選題:下列哪種方法屬于常見的信息保隱私技術且具有較好的數(shù)據(jù)保真度()。

選項:

A、K匿名方法

B、對稱加密方法

C、差分隱私方法

D、L多樣性方法

答案:【對稱加密方法】22.單選題:下列常見的保隱私技術中,哪一個技術是在用戶端加入噪聲且具有較強的隱私保護能力()。

選項:

A、同態(tài)加密

B、安全多方計算

C、集中式差分隱私

D、本地差分隱私

答案:【本地差分隱私】23.單選題:卷積神經(jīng)網(wǎng)絡中,輸入圖片為RGB3個通道,每個通道大小為32x32,即輸入大小為32x32x3,單個卷積核大小為5x5x3,卷積核個數(shù)為6,步長為1,無補邊,則輸出的大小為()。

選項:

A、27x27x3

B、14x14x3

C、14x14

D、27x27x6

答案:【27x27x6】24.單選題:可以對數(shù)據(jù)進行降維的可視化處理方法是()。

選項:

A、TSNE

B、直方圖

C、散點圖

D、熱力圖

答案:【TSNE】25.單選題:以下關于神經(jīng)網(wǎng)絡的說法中,正確的是()。

選項:

A、增加網(wǎng)絡層數(shù),總能減小訓練集錯誤率

B、減小網(wǎng)絡層數(shù),總能減小測試集錯誤率

C、增加網(wǎng)絡層數(shù),可能增加測試集錯誤率

D、以上都不正確

答案:【增加網(wǎng)絡層數(shù),可能增加測試集錯誤率】26.單選題:下列哪一項在神經(jīng)網(wǎng)絡中引入了非線性?

選項:

A、隨機梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、正則化

答案:【修正線性單元(ReLU)】27.單選題:已知:大腦是有很多個叫做神經(jīng)元的東西構成,神經(jīng)網(wǎng)絡是對大腦的簡單的數(shù)學表達。每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡,可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡,我們用梯度下降方法不斷更新模型。給定上述關于神經(jīng)網(wǎng)絡的描述,什么情況下神經(jīng)網(wǎng)絡模型被稱為深度學習模型?

選項:

A、加入更多層,使神經(jīng)網(wǎng)絡的深度增加

B、有維度更高的數(shù)據(jù)

C、當這是一個圖形識別的問題時

D、有卷積運算操作

答案:【加入更多層,使神經(jīng)網(wǎng)絡的深度增加】28.單選題:隨機森林的數(shù)據(jù)集的選取是()的。

選項:

A、無放回

B、有放回

C、都含有

D、不確定

答案:【有放回】29.單選題:假設我們擁有一個已完成訓練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡模型,訓練所用的數(shù)據(jù)集由汽車和卡車的照片構成,而訓練目標是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含少量的一種車(福特野馬),而目標變?yōu)槎ㄎ卉囕v在照片中的位置,下面哪種方法可行?

選項:

A、除去神經(jīng)網(wǎng)絡中的最后一層,凍結(jié)所有層然后重新訓練

B、對神經(jīng)網(wǎng)絡中的最后幾層進行微調(diào),同時將最后一層(分類層)更改為回歸層

C、使用新的數(shù)據(jù)集重新訓練模型

D、所有答案均不對

答案:【對神經(jīng)網(wǎng)絡中的最后幾層進行微調(diào),同時將最后一層(分類層)更改為回歸層】30.單選題:在一個神經(jīng)網(wǎng)絡中,下面哪種方法可以用來處理過擬合?

選項:

A、Dropout

B、分批歸一化(BatchNormalization)

C、正則化(regularization)

D、都可以

答案:【都可以】31.多選題:當前主要機器學習在發(fā)展過程中的挑戰(zhàn)主要包括()。

選項:

A、硬件計算能力瓶頸

B、數(shù)據(jù)質(zhì)量參差不齊

C、投入科研經(jīng)費不足

D、數(shù)據(jù)標注代價昂貴

答案:【硬件計算能力瓶頸;數(shù)據(jù)質(zhì)量參差不齊;數(shù)據(jù)標注代價昂貴】32.多選題:Scikit-learn是基于以下哪幾項進行構建的?

選項:

A、NumPy

B、SciPy

C、Matplotlib

D、PyTorch

答案:【NumPy;SciPy;Matplotlib】33.多選題:下列屬于常用的過濾法的是()。

選項:

A、方差選擇

B、相關系數(shù)

C、卡方檢驗

D、互信息

答案:【方差選擇;相關系數(shù);卡方檢驗;互信息】34.多選題:下列屬于數(shù)據(jù)智能道德規(guī)范范疇的是()。

選項:

A、數(shù)據(jù)收集

B、數(shù)據(jù)壟斷

C、算法黑箱

D、主觀歧視

答案:【數(shù)據(jù)收集;數(shù)據(jù)壟斷;算法黑箱;主觀歧視】35.多選題:下列關于大數(shù)據(jù)說法正確的有哪些?

選項:

A、錯誤性是大數(shù)據(jù)本身固有的。

B、大數(shù)據(jù)不僅不注重精確性,而且無法實現(xiàn)精確性。

C、在基本用途完成之后,數(shù)據(jù)的價值依然存在。

D、由于數(shù)據(jù)可以被再利用,因此數(shù)據(jù)應該永久被保存。

答案:【大數(shù)據(jù)不僅不注重精確性,而且無法實現(xiàn)精確性。;在基本用途完成之后,數(shù)據(jù)的價值依然存在?!?6.多選題:關于非平穩(wěn)的數(shù)據(jù),下列說法正確的是()。

選項:

A、服從相同的分布

B、肯定不能使用同一個的模型進行監(jiān)測

C、統(tǒng)計特性(均值、方差等)發(fā)生了變化

D、變量間可能存在長期穩(wěn)定的關系

答案:【統(tǒng)計特性(均值、方差等)發(fā)生了變化;變量間可能存在長期穩(wěn)定的關系】37.多選題:下面哪些屬于常見的處理時間序列的模型?

選項:

A、RNN循環(huán)神經(jīng)網(wǎng)絡

B、ARIMA移動平均自回歸模型

C、LDA隱狄利克雷分布

D、HMM隱馬爾可夫模型

答案:【RNN循環(huán)神經(jīng)網(wǎng)絡;ARIMA移動平均自回歸模型;HMM隱馬爾可夫模型】38.多選題:下列屬于數(shù)據(jù)智能的陷阱的是()。

選項:

A、數(shù)據(jù)造假

B、采樣不當

C、結(jié)論不客觀

D、描述性分析

答案:【數(shù)據(jù)造假;采樣不當;結(jié)論不客觀】39.多選題:相比標準神經(jīng)網(wǎng)絡DNN,循環(huán)神經(jīng)網(wǎng)絡RNN處理序列數(shù)據(jù)的優(yōu)勢是()。

選項:

A、RNN可以處理不同長度的序列數(shù)據(jù)

B、RNN可以讓數(shù)據(jù)中不同位置的特征可以共享

C、RNN可以對數(shù)據(jù)進行預處理減少計算量

D、RNN可以緩解模型的欠擬合

答案:【RNN可以處理不同長度的序列數(shù)據(jù);RNN可以讓數(shù)據(jù)中不同位置的特征可以共享】40.多選題:LightGBM是一個梯度Boosting框架,它具有以下優(yōu)勢()。

選項:

A、更快

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論