數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第1頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第2頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第3頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第4頁
數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

數(shù)據(jù)工程智慧樹知到課后章節(jié)答案2023年下同濟(jì)大學(xué)

同濟(jì)大學(xué)

第一章測試

1.下列哪個數(shù)據(jù)庫不屬于NoSQL數(shù)據(jù)庫?

A:RedisB:BigtableC:0racleD:Neo4J

答案:0racle

2.MongoDB屬于哪類NoSQL數(shù)據(jù)庫?

A:列數(shù)據(jù)庫B:圖數(shù)據(jù)庫C:文檔數(shù)據(jù)庫D:鍵值數(shù)據(jù)庫

答案:文檔數(shù)據(jù)庫

3.關(guān)系數(shù)據(jù)庫中的參照完整性主要通過()實現(xiàn)。

A:審計B:外鍵C:關(guān)鍵字D:主鍵

答案:外鍵;主鍵

4.在關(guān)系數(shù)據(jù)庫中,為了保證數(shù)據(jù)的一致性,事務(wù)處理必須保證具有哪些特性?

()

A:一致性B:持久性C:隔離性D:原子性

答案:一致性;持久性;隔離性;原子性

5.下面哪些是NoSQL數(shù)據(jù)庫的特點?

A:可用性強B:模式靈活C:高可擴(kuò)展D:嚴(yán)格的模式定義

答案:可用性強;模式靈活;高可擴(kuò)展

6.大數(shù)據(jù)價值挖掘是一個從數(shù)據(jù)到信息,再由信息到知識的凝練過程。

A:對B:錯

答案:對

7.NoSQL數(shù)據(jù)庫是對SQL數(shù)據(jù)庫的否定,可以完全代替SQL數(shù)據(jù)庫。

A:對B:錯

答案:錯

8.在并行和分布式數(shù)據(jù)庫中,共享內(nèi)存架構(gòu)的每個處理器都有自己的磁盤,所

有處理器共享一個內(nèi)存空間。

A:錯B:對

答案:對

9.關(guān)系數(shù)據(jù)庫采取了強一致性約束,符合CAP理論中的C和Po

A:錯B:對

答案:錯

10.關(guān)系數(shù)據(jù)庫的實體完整性主要通過()實現(xiàn)。

A:訪問控制B:審計C:主鍵D:關(guān)系表

答案:主鍵

第二章測試

1.OLAP一般運行于業(yè)務(wù)數(shù)據(jù)庫上,OLTP則一般運行于數(shù)據(jù)倉庫上。

A:錯B:對

答案:錯

2.數(shù)據(jù)清洗是剔除數(shù)據(jù)里的異常,使數(shù)據(jù)集成為現(xiàn)實世界的準(zhǔn)確、沒有重復(fù)表

示的過程。

A:對B:錯

答案:對

3.聯(lián)邦數(shù)據(jù)庫模式不適宜進(jìn)行需要在很多的數(shù)據(jù)源之間進(jìn)行通訊和數(shù)據(jù)交換的

數(shù)據(jù)集成。

A:對B:錯

答案:對

4.列存儲數(shù)據(jù)對排序操作和數(shù)據(jù)壓縮有較好的支持。

A:對B:錯

答案:對

5.在數(shù)據(jù)倉庫中,ETL操作包括()o

A:加載B:抽取C:轉(zhuǎn)換D:傳輸

答案:加載;抽取;轉(zhuǎn)換

6.數(shù)據(jù)源之間的異構(gòu)性主要包括()o

A:數(shù)據(jù)模式的異構(gòu)性B:數(shù)據(jù)類型的異構(gòu)性C:通訊協(xié)議異構(gòu)性D:數(shù)據(jù)管理系

統(tǒng)的異構(gòu)性

答案:數(shù)據(jù)模式的異構(gòu)性;數(shù)據(jù)類型的異構(gòu)性;通訊協(xié)議異構(gòu)性;數(shù)據(jù)管理系統(tǒng)

的異構(gòu)性

7.下列哪些技術(shù)可以用于在大數(shù)據(jù)使用過程中保護(hù)用戶隱私?

A:同態(tài)加密B:聯(lián)邦數(shù)據(jù)庫C:內(nèi)存數(shù)據(jù)庫D:差分隱私

答案:同態(tài)加密;聯(lián)邦數(shù)據(jù)庫;差分隱私

8.下列那一項不屬于數(shù)據(jù)清理中的數(shù)據(jù)異常?

A:覆蓋類異常B:語義類異常C:語法類異常D:插入類異常

答案:插入類異常

9.在數(shù)據(jù)庫中,規(guī)定了員工表的工資字段必須大于0。如果某個員工的工資<0,

則屬于()。

A:語義類異常B:詞法錯誤C:不規(guī)則取值D:語法類異常

答案:語義類異常

10.下列哪一項不是大數(shù)據(jù)管理的新挑戰(zhàn)()。

A:高性能數(shù)據(jù)服務(wù)要求B:數(shù)據(jù)規(guī)模大C:私保護(hù)D:多源、異構(gòu)、跨領(lǐng)域

答案:數(shù)據(jù)規(guī)模大

第三章測試

1.下列關(guān)于不同的簇類型的說法中,不正確的是()。

A:在明顯分離的簇中,同簇中的對象之間的距離要大于異簇的對象B:在基于

鄰近度的簇中,度量方式通常是最近鄰或連通度C:在基于密度的簇中,簇

通常是高密度的區(qū)域D:在基于中心的簇中,簇的中心通常叫質(zhì)心,即簇中

所有點的平均值

答案:在明顯分離的簇中,同簇中的對象之間的距離要大于異簇的對象

2.以下哪些選項是K-均值聚類面臨的問題?

A:貪心算法存在的問題B:K的選擇具有挑戰(zhàn)性C:難以處理噪聲、異常值D:

關(guān)于數(shù)據(jù)的球形假設(shè)(到聚類中心的距離)

答案:貪心算法存在的問題;K的選擇具有挑戰(zhàn)性;難以處理噪聲、異常值;關(guān)

于數(shù)據(jù)的球形假設(shè)(到聚類中心的距離)

3.凝聚層次聚類中,定義簇間的相似度的方法有()。

A:MIN(單鏈)B:Ward方法C:MAX(全鏈)D:組平均

答案:MIN(單鏈);Ward方法;MAX(全鏈);組平均

4.DBSCAN算法的缺點包括?

A:對輸入?yún)?shù)敏感B:對于高維問題,密度定義是個比較麻煩的問題C:易受

到噪聲和異常值的影響D:當(dāng)簇的密度變化太大時,不能很好的處理

答案:對輸入?yún)?shù)敏感;對于高維問題,密度定義是個比較麻煩的問題;當(dāng)簇的

密度變化太大時,不能很好的處理

5.CHAMELEON算法的優(yōu)點包括:()。

A:復(fù)雜度低,適合在大規(guī)模數(shù)據(jù)集應(yīng)用B:能夠有效地聚類空間數(shù)據(jù)C:對噪

聲和異常數(shù)據(jù)不敏感D:能識別具有不同形狀、大小和密度的簇

答案:能夠有效地聚類空間數(shù)據(jù);對噪聲和異常數(shù)據(jù)不敏感;能識別具有不同

形狀、大小和密度的簇

6.同一組數(shù)據(jù)通過不同聚類算法得到的簇的個數(shù)是相同的0

A:錯B:對

答案:錯

7.相似度的度量方式隨著數(shù)據(jù)對象的屬性類型改變而改變。

A:錯B:對

答案:對

8.全鏈在處理大小不同的簇時,可能使大的簇破裂。

A:錯B:對

答案:對

9.DBSCAN聚類結(jié)果受參數(shù)影響較小。

A:錯B:對

答案:錯

10.使用KMEANS、DBSCAN等多種聚類算法對同一數(shù)據(jù)集進(jìn)行聚類時,可能

會得到不同的分組數(shù)(類數(shù)),分組數(shù)較多的聚類算法一般是比較好的。

A:對B:錯

答案:錯

第四章測試

1.在貝葉斯定理的公式當(dāng)中,哪一個是先驗概率?

A:P(B|A)B:P(B)C:P(A)D:P(A|B)

答案:P(A)

2.在電視游戲節(jié)目中,參賽者選擇三個門之一;一扇門的后面有獎,而另兩

扇的后面沒有獎。參賽者選擇一扇門后,游戲節(jié)目主持人將打開其余的一

扇門,并顯示門后沒有任何獎金。然后,主持人詢問參賽者是將自己的選

擇切換到另一扇未打開的門,還是將STICK切換到其原始選擇。這對參賽

者來說切換們是有利的。

A:錯B:對

答案:對

3.貝葉斯決策是由先驗概率和類條件概率,推導(dǎo)后驗概率,然后利用這個概率

進(jìn)行決策。

A:對B:錯

答案:對

4.關(guān)于決策樹算法的描述正確的是()。

A:決策樹剪枝的目的是為了降低決策樹算法的過擬合B:決策樹可以看成一個

If-then規(guī)則的集合。C:在決策樹算法中,每個內(nèi)部結(jié)點表示在一個特征或

屬性;每個分支代表這個特征或?qū)傩栽谀硞€值域上的輸出;每個葉結(jié)點代表

一種類別。D:在決策樹的各個結(jié)點上以信息增益為準(zhǔn)則,選擇劃分后信息

增益最大的屬性作為劃分屬性,遞歸地構(gòu)建決策樹。

答案:決策樹可以看成一個If-then規(guī)則的集合。

5.決策樹中屬性選擇的方法有()o

A:信息值B:信息增益C:GINI系數(shù)D:信息增益率

答案:信息增益;GINI系數(shù);信息增益率

6.對于信息增益,決策樹分裂節(jié)點,下面說法正確的是()

1.純度高的節(jié)點需要更多的信息去區(qū)分

2.信息增益可以用"1比特-焙”獲得

3.如果選擇一個屬性具有許多歸類值,那么這個信息增益是有偏差的

A:1B:3

C:2D:2和3

答案:2和3

7.SVM中的泛化誤差代表什么?

A:分類超平面與支持向量的距離B:SVM中的誤差閾值C:SVM對新數(shù)據(jù)的預(yù)

測準(zhǔn)確度

答案:SVM對新數(shù)據(jù)的預(yù)測準(zhǔn)確度

8.若參數(shù)C(costparameter)被設(shè)為無窮,下面哪種說法是正確的?

A:軟間隔SVM分類器將正確分類數(shù)據(jù)B:在如此高的誤分類懲罰下,存在軟

間隔分類超平面C:只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確

分類

答案:只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類

9.怎樣理解“硬間隔”?

A:SVM只允許極小誤差B:SVM不允許有誤差

C:SVM允許分類時出現(xiàn)一定范圍的誤差

答案:SVM只允許極小誤差

10.VM算法的最小時間復(fù)雜度是0(4),基于此,以下哪種規(guī)格的數(shù)據(jù)集并

不適該算法?

A:不受數(shù)據(jù)集大小影響B(tài):大數(shù)據(jù)集C:小數(shù)據(jù)集D:中等數(shù)據(jù)集

答案:大數(shù)據(jù)集

第五章測試

1.梯度下降算法的正確步驟是什么?

a.計算預(yù)測值和真實值之間的誤差

b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值

c.把輸入傳入網(wǎng)絡(luò),得到輸出值

d.用隨機(jī)值初始化權(quán)重和偏差

e.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差

A:cbaedB:abcdeC:edcbaDidcaeb

答案:dcaeb

2.已知:大腦是有很多個叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的

數(shù)學(xué)表達(dá)。-每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來

形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度

下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)

模型被稱為深度學(xué)習(xí)模型?

A:有維度更高的數(shù)據(jù)B:當(dāng)這是一個圖形識別的問題時C:加入更多層,使神

經(jīng)網(wǎng)絡(luò)的深度增加

答案:加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加

3.訓(xùn)練CNN時,可以對輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能

力。

A:對B:錯

答案:對

4.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?

A:BoostingB:MappingC:BaggingD:Stacking

答案:Bagging

5.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

A:卷積函數(shù)B:隨機(jī)梯度下降C:修正線性單元(ReLU)

答案:修正線性單元(ReLU)

6.多對一RNN架構(gòu)可以應(yīng)用于以下哪些任務(wù)?

A:語音中的性別識別(輸入音頻剪輯并輸出表明說話者性別的標(biāo)簽)BT情感

分類(輸入一段文字并輸出0/1表示正面或負(fù)面情緒)C:語音識別(輸入

一個音頻輸出一段字幕)D:圖像分類(輸入圖像輸出標(biāo)簽)

答案:語音中的性別識別(輸入音頻剪輯并輸出表明說話者性別的標(biāo)簽)力青

感分類(輸入一段文字并輸出0/1表示正面或負(fù)面情緒)

7.您正在訓(xùn)練RNN,發(fā)現(xiàn)您的權(quán)重和激活都具有NaN的值(“非數(shù)字”)。以

下哪項最可能是此問題的原因?

A:在sigmoid激活函數(shù)當(dāng)中z太大B:梯度爆炸問題C:在ReLU激活函數(shù)當(dāng)中

z太大D:梯度消失問題

答案:梯度爆炸問題

8.為了使RNN更容易訓(xùn)練,需要選取更好的激活函數(shù),如Relu激活函數(shù)。

ReLU函數(shù)的左側(cè)導(dǎo)數(shù)為0,右側(cè)導(dǎo)數(shù)恒為1,這就避免了梯度爆炸問題的

發(fā)生。

A:對B:錯

答案:錯

9.RNN會發(fā)生梯度消失的問題,產(chǎn)生這樣的問題的原因是RNN在算是會有激

活函數(shù)導(dǎo)數(shù)的累乘,如果取tanh或sigmoid函數(shù)作為激活函數(shù)的話,那么

必然是一堆小數(shù)在做乘法,結(jié)果就是越乘越小。隨著時間序列的不斷深入,

小數(shù)的累乘就會導(dǎo)致梯度越來越小直到接近于0,這就是“梯度消失”現(xiàn)象。

A:錯B:對

答案:對

10.假設(shè)你正在訓(xùn)練LSTM。你有10000個單詞的詞匯,并且正在使用具有

100維激活的LSTM。每步當(dāng)中的維數(shù)是多少?

A:100B:300C:1000D:l

答案:100

第六章測試

1.數(shù)據(jù)可視化有哪些主要分支方向?

A:信息可視化B:科學(xué)可視化

C:可視分析D:統(tǒng)計數(shù)據(jù)可視化

答案:信息可視化;科學(xué)可視化

;可視分析

2.信息可視化主要是針對什么類型數(shù)據(jù)的?

A:科學(xué)數(shù)據(jù)B:圖形數(shù)據(jù)C:統(tǒng)計數(shù)據(jù)D:抽象數(shù)據(jù)

答案:抽象數(shù)據(jù)

3.下列選項中哪一項不屬于可視化的基本設(shè)計準(zhǔn)則。()

A:設(shè)計能夠高效傳達(dá)信息的可視化

B:設(shè)計能夠直觀傳遞信息的可視化C:設(shè)計能夠讓人賞心悅目的可視化D:設(shè)

計能夠正確表達(dá)信息的可視化

答案:設(shè)計能夠直觀傳遞信息的可視化

4.謊言因子是設(shè)計用來度量可視化中什么設(shè)計指標(biāo)的方法?

A:可視化美觀程度的度量方法B:可視化呈現(xiàn)數(shù)據(jù)時夸張程度的度量方法

C:可視化表達(dá)信息效率的度量方法

答案:可視化呈現(xiàn)數(shù)據(jù)時夸張程度的度量方法

5.以下哪一種交互不屬于常見的可視化交互類型。

A:過濾B:編碼C:定向D:選擇

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論