南開19秋學(xué)期(1709、1803、1809、1903、1909)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)【標(biāo)準(zhǔn)答案】_第1頁
南開19秋學(xué)期(1709、1803、1809、1903、1909)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)【標(biāo)準(zhǔn)答案】_第2頁
南開19秋學(xué)期(1709、1803、1809、1903、1909)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)【標(biāo)準(zhǔn)答案】_第3頁
南開19秋學(xué)期(1709、1803、1809、1903、1909)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)【標(biāo)準(zhǔn)答案】_第4頁
南開19秋學(xué)期(1709、1803、1809、1903、1909)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)【標(biāo)準(zhǔn)答案】_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

19秋學(xué)期(1709、1803、1809、1903、1909)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)-0003試卷總分:100得分:0一、單選題(共20道試題,共40分)1.為了解決任何復(fù)雜的分類問題,使用的感知機(jī)結(jié)構(gòu)應(yīng)至少包含()個隱含層。A.1B.2C.3D.42.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()A.關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B.聚類C.分類D.自然語言處理3.只有非零值才重要的二元屬性被稱作:(),其中購物籃數(shù)據(jù)就屬于這種屬性。A.計數(shù)屬性B.離散屬性C.非對稱的二元屬性#對稱屬性4.變量之間的關(guān)系一般可以分為確定性關(guān)系與()。A.非確定性關(guān)系B.線性關(guān)系C.函數(shù)關(guān)系D.相關(guān)關(guān)系5.BFR聚類是用于處理數(shù)據(jù)集()的k-means變體。A.大B.中C.小D.所有6.例如將工資收入屬性值映射到[-1,1]或者[0,1]內(nèi)屬于數(shù)據(jù)變換中的()A.簡單函數(shù)變換B.規(guī)范化C.屬性構(gòu)造D.連續(xù)屬性離散化7.數(shù)據(jù)質(zhì)量檢驗(yàn)的主要任務(wù)就是檢查原始數(shù)據(jù)中是否存在“臟數(shù)據(jù)”,概括性來說,臟數(shù)據(jù)不包括以下()A.普通值B.異常值C.不一致的值D.重復(fù)值8.層次聚類適合規(guī)模較()的數(shù)據(jù)集A.大B.中C.小D.所有9.某商品的產(chǎn)量(X,件)與單位成本(Y,元/件)之間的回歸方程為^Y=100-1.2X,這說明()。A.產(chǎn)量每增加一臺,單位成本增加100元B.產(chǎn)量每增加一臺,單位成本減少1.2元C.產(chǎn)量每增加一臺,單位成本平均減少1.2元D.產(chǎn)量每增加一臺,單位平均增加100元10.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個關(guān)聯(lián)規(guī)則。A.4B.5C.6D.711.根據(jù)映射關(guān)系的不同可以分為線性回歸和()。A.對數(shù)回歸B.非線性回歸C.邏輯回歸D.多元回歸12.多層感知機(jī)是由()層神經(jīng)元組成。A.二B.三C.大于等于二層D.大于等于三層13.通過構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍,則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()A.簡單函數(shù)變換B.規(guī)范化C.屬性構(gòu)造D.連續(xù)屬性離散化14.單層感知機(jī)是由()層神經(jīng)元組成。A.一B.二C.三D.四15.比如一張表,從業(yè)務(wù)上講,一個用戶應(yīng)該只會有一條記錄,那么如果某個用戶出現(xiàn)了超過一條的記錄,這就產(chǎn)生了()A.異常值B.不一致的值C.重復(fù)值D.缺失值16.我們需要對已生成的樹()進(jìn)行剪枝,將樹變得簡單,從而使它具有更好的泛化能力。A.自上而下B.自下而上C.自左而右D.自右而左17.一元線性回歸中,真實(shí)值與預(yù)測值的差稱為樣本的()。A.誤差B.方差C.測差D.殘差18.以下哪一項(xiàng)不是特征工程的子問題()A.特征創(chuàng)建B.特征提取C.特征選擇D.特征識別19.對于k近鄰法,下列說法錯誤的是()。A.不具有顯式的學(xué)習(xí)過程B.適用于多分類任務(wù)C.k值越大,分類效果越好D.通常采用多數(shù)表決的分類決策規(guī)則20.聚類的最簡單最基本方法是()。A.劃分聚類B.層次聚類C.密度聚類D.距離聚類二、多選題(共10道試題,共20分)1.多層感知機(jī)的學(xué)習(xí)過程包含()。A.信號的正向傳播B.信號的反向傳播C.誤差的正向傳播D.誤差的反向傳播2.Apriori算法的計算復(fù)雜度受()影響。A.支持度閾值B.項(xiàng)數(shù)C.事務(wù)數(shù)D.事務(wù)平均寬度3.什么情況下結(jié)點(diǎn)不用劃分()A.當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同C.當(dāng)前結(jié)點(diǎn)包含的樣本集為空D.還有子集不能被基本正確分類4.聚類的主要方法有()。A.劃分聚類B.層次聚類C.密度聚類D.距離聚類5.下列選項(xiàng)是BFR的對象是()A.廢棄集B.臨時集C.壓縮集D.留存集6.關(guān)聯(lián)規(guī)則的評價度量主要有:()。A.支持度B.置信度C.準(zhǔn)確率D.錯誤率7.數(shù)據(jù)科學(xué)具有哪些性質(zhì)()A.有效性B.可用性C.未預(yù)料D.可理解8.系統(tǒng)日志收集的基本特征有()A.高可用性B.高可靠性C.可擴(kuò)展性D.高效率9.相關(guān)性的分類,按照相關(guān)的方向可以分為()。A.正相關(guān)B.負(fù)相關(guān)C.左相關(guān)D.右相關(guān)10.距離度量中的距離可以是()A.歐式距離B.曼哈頓距離C.Lp距離D.Minkowski距離三、判斷題(共20道試題,共40分)1.多層感知機(jī)的學(xué)習(xí)能力有限,只能處理線性可分的二分類問題。A.對B.錯2.階躍函數(shù)具有不光滑、不連續(xù)的特點(diǎn)。A.對B.錯3.標(biāo)準(zhǔn)BP算法是在讀取全部數(shù)據(jù)集后,對參數(shù)進(jìn)行統(tǒng)一更新的算法。A.對B.錯4.剪枝是決策樹學(xué)習(xí)算法對付“過擬合”的主要手段A.對B.錯5.為了盡可能正確分類訓(xùn)練樣本,結(jié)點(diǎn)劃分過程將不斷重復(fù),有時會造成決策樹分支過少,以致于把訓(xùn)練集自身的一些特點(diǎn)當(dāng)作所有數(shù)據(jù)都具有的一般性質(zhì)而導(dǎo)致過擬合A.對B.錯6.當(dāng)訓(xùn)練集較大的時候,標(biāo)準(zhǔn)BP算法通常會更快的獲得更好的解。A.對B.錯7.方差過小的特征對數(shù)據(jù)的區(qū)分能力強(qiáng)A.對B.錯8.利用K近鄰法進(jìn)行分類時,使用不同的距離度量所確定的最近鄰點(diǎn)都是相同的。A.對B.錯9.兩個對象越相似,他們的相異度就越高。A.對B.錯10.給定一個數(shù)據(jù)集,如果存在某個超平面S能夠?qū)?shù)據(jù)集的部分正實(shí)例點(diǎn)和負(fù)實(shí)例點(diǎn)正確的劃分到超平面的兩側(cè),則稱該數(shù)據(jù)集是線性可分?jǐn)?shù)據(jù)集。A.對B.錯11.一般而言,信息增益越大,則意味著使用屬性a來進(jìn)行劃分所獲得的“純度提升越大”,因此我們可用信息增益來進(jìn)行決策樹的最優(yōu)特征選擇。A.對B.錯12.決策樹學(xué)習(xí)的算法通常是一個遞歸地選擇最優(yōu)特征,并根據(jù)該特征對訓(xùn)練數(shù)據(jù)進(jìn)行分割,使得各個子數(shù)據(jù)集有一個最好的分類的過程,這一過程對應(yīng)著特征空間的劃分,也對應(yīng)著決策樹的構(gòu)建A.對B.錯13.K-means聚類是發(fā)現(xiàn)給定數(shù)據(jù)集的K個簇的算法。A.對B.錯14.增加神經(jīng)元的個數(shù),無法提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練精度。A.對B.錯15.神經(jīng)網(wǎng)絡(luò)中誤差精度的提高可以通過增加隱含層中的神經(jīng)元數(shù)目來實(shí)現(xiàn)。A.對B.錯16.莖葉圖失去原始數(shù)據(jù)的信息,而直方圖保留原始數(shù)據(jù)的信息。A.對B.錯17.當(dāng)特征為

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論