21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)0_第1頁(yè)
21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)0_第2頁(yè)
21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)0_第3頁(yè)
21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)0_第4頁(yè)
21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)0_第5頁(yè)
已閱讀5頁(yè),還剩6頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)BFR聚類是用于處理數(shù)據(jù)集()的k-means變體。A:大B:中C:小D:所有答案:A考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含()A:1,2,3,4B:1,2,3,5C:1,2,4,5D:1,3,4,5答案:C以下哪一項(xiàng)不是特征選擇常見的方法()A:過濾式B:封裝式C:嵌入式D:開放式答案:D例如將工資收入屬性值映射到[-1,1]或者[0,1]內(nèi)屬于數(shù)據(jù)變換中的()A:簡(jiǎn)單函數(shù)變換B:規(guī)范化C:屬性構(gòu)造D:連續(xù)屬性離散化答案:B對(duì)于k近鄰法,下列說法錯(cuò)誤的是()。A:不具有顯式的學(xué)習(xí)過程B:適用于多分類任務(wù)C:k值越大,分類效果越好D:通常采用多數(shù)表決的分類決策規(guī)則答案:C手肘法的核心指標(biāo)是()。A:SESB:SSEC:RMSED:MSE答案:B在k近鄰法中,選擇較小的k值時(shí),學(xué)習(xí)的“近似誤差”會(huì)(),“估計(jì)誤差”會(huì)()。A:減小,減小B:減小,增大C:增大,減小D:增大,增大答案:B變量之間的關(guān)系一般可以分為確定性關(guān)系與()。A:非確定性關(guān)系B:線性關(guān)系C:函數(shù)關(guān)系D:相關(guān)關(guān)系答案:A某商品的產(chǎn)量(X,件)與單位成本(Y,元/件)之間的回歸方程為^Y=100-1.2X,這說明()。A:產(chǎn)量每增加一臺(tái),單位成本增加100元B:產(chǎn)量每增加一臺(tái),單位成本減少1.2元C:產(chǎn)量每增加一臺(tái),單位成本平均減少1.2元D:產(chǎn)量每增加一臺(tái),單位平均增加100元答案:C層次聚類對(duì)給定的數(shù)據(jù)進(jìn)行()的分解。A:聚合B:層次C:分拆D:復(fù)制答案:B下列兩個(gè)變量之間的關(guān)系中,哪個(gè)是函數(shù)關(guān)系()。A:人的性別和他的身高B:人的工資與年齡C:正方形的面積和邊長(zhǎng)D:溫度與濕度答案:C通過變量標(biāo)準(zhǔn)化計(jì)算得到的回歸方程稱為()。A:標(biāo)準(zhǔn)化回歸方程B:標(biāo)準(zhǔn)化偏回歸方程C:標(biāo)準(zhǔn)化自回歸方程D:標(biāo)準(zhǔn)化多回歸方程答案:A以下屬于關(guān)聯(lián)分析的是()A:CPU性能預(yù)測(cè)B:購(gòu)物籃分析C:自動(dòng)判斷鳶尾花類別D:股票趨勢(shì)建模答案:B單層感知機(jī)模型屬于()模型。A:二分類的線性分類模型B:二分類的非線性分類模型C:多分類的線性分類模型D:多分類的非線性分類模型答案:A以下哪一項(xiàng)不屬于數(shù)據(jù)變換()A:簡(jiǎn)單函數(shù)變換B:規(guī)范化C:屬性合并D:連續(xù)屬性離散化答案:C層次聚類適合規(guī)模較()的數(shù)據(jù)集A:大B:中C:小D:所有答案:C維克托?邁爾-舍恩伯格在《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》一書中,持續(xù)強(qiáng)調(diào)了一個(gè)觀點(diǎn):大數(shù)據(jù)時(shí)代的到來,使我們無法人為地去發(fā)現(xiàn)數(shù)據(jù)中的奧妙,與此同時(shí),我們更應(yīng)該注重?cái)?shù)據(jù)中的相關(guān)關(guān)系,而不是因果關(guān)系。其中,數(shù)據(jù)之間的相關(guān)關(guān)系可以通過以下哪個(gè)算法直接挖掘()A:K-meansB:BayesNetworkC:C4.5D:Apriori答案:D根據(jù)映射關(guān)系的不同可以分為線性回歸和()。A:對(duì)數(shù)回歸B:非線性回歸C:邏輯回歸D:多元回歸答案:B數(shù)據(jù)質(zhì)量檢驗(yàn)的主要任務(wù)就是檢查原始數(shù)據(jù)中是否存在“臟數(shù)據(jù)”,概括性來說,臟數(shù)據(jù)不包括以下()A:普通值B:異常值C:不一致的值D:重復(fù)值答案:A在一元線性回歸中,通過最小二乘法求得的直線叫做回歸直線或()。A:最優(yōu)回歸線B:最優(yōu)分布線C:最優(yōu)預(yù)測(cè)線D:最佳分布線答案:A層次聚類的方法是()A:聚合方法B:分拆方法C:組合方法D:比較方法答案:A,Bk近鄰法的基本要素包括()。A:距離度量B:k值的選擇C:樣本大小D:分類決策規(guī)則答案:A,B,D對(duì)于多層感知機(jī),()層擁有激活函數(shù)的功能神經(jīng)元。A:輸入層B:隱含層C:輸出層答案:B,CApriori算法的計(jì)算復(fù)雜度受()影響。A:支持度閾值B:項(xiàng)數(shù)C:事務(wù)數(shù)D:事務(wù)平均寬度答案:A,B,C,D系統(tǒng)日志收集的基本特征有()A:高可用性B:高可靠性C:可擴(kuò)展性D:高效率答案:A,B,CK-means聚類中K值選取的方法是()。A:密度分類法B:手肘法C:大腿法D:隨機(jī)選取答案:A,B多層感知機(jī)的學(xué)習(xí)過程包含()。A:信號(hào)的正向傳播B:信號(hào)的反向傳播C:誤差的正向傳播D:誤差的反向傳播答案:A,D什么情況下結(jié)點(diǎn)不用劃分()A:當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別B:當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同C:當(dāng)前結(jié)點(diǎn)包含的樣本集為空D:還有子集不能被基本正確分類答案:A,B,C下面例子屬于分類的是()A:檢測(cè)圖像中是否有人臉出現(xiàn)B:對(duì)客戶按照貸款風(fēng)險(xiǎn)大小進(jìn)行分類C:識(shí)別手寫的數(shù)字D:估計(jì)商場(chǎng)客流量答案:A,B,C距離度量中的距離可以是()A:歐式距離B:曼哈頓距離C:Lp距離D:Minkowski距離答案:A,B,C,D增加神經(jīng)元的個(gè)數(shù),無法提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練精度。A:對(duì)B:錯(cuò)答案:B一個(gè)人的身高與體重之間具有函數(shù)關(guān)系。A:對(duì)B:錯(cuò)答案:B可信度是對(duì)關(guān)聯(lián)規(guī)則的準(zhǔn)確度的衡量。A:對(duì)B:錯(cuò)答案:A給定一組點(diǎn),使用點(diǎn)之間的距離概念,將點(diǎn)分組為若干簇,不同簇的成員可以相同。A:對(duì)B:錯(cuò)答案:BK均值(K-Means)算法是密度聚類。A:對(duì)B:錯(cuò)答案:B具有雙隱層的感知機(jī)足以用于解決任何復(fù)雜的分類問題。A:對(duì)B:錯(cuò)答案:A當(dāng)維度增加時(shí),特征空間的體積增加得很快,使得可用的數(shù)據(jù)變得稠密。A:對(duì)B:錯(cuò)答案:B集中趨勢(shì)能夠表明在一定條件下數(shù)據(jù)的獨(dú)特性質(zhì)與差異A:對(duì)B:錯(cuò)答案:B給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會(huì)發(fā)生。A:對(duì)B:錯(cuò)答案:B數(shù)據(jù)科學(xué)運(yùn)用科學(xué)方法分析數(shù)據(jù),位于幾個(gè)學(xué)科的交叉點(diǎn)并利用領(lǐng)域特定的知識(shí),使大數(shù)據(jù)的分析成為可能。A:對(duì)B:錯(cuò)答案:ABFR聚類簇的坐標(biāo)可以與空間的坐標(biāo)保持一致。A:對(duì)B:錯(cuò)答案:B剪枝是決策樹學(xué)習(xí)算法對(duì)付“過擬合”的主要手段A:對(duì)B:錯(cuò)答案:A決策樹還可以表示給定特征條件下類的條件概率分布,這一概率分布定義在特征空間的一個(gè)劃分上,將特征空間分為互不相交的單元或區(qū)域,并在每個(gè)單元定義一個(gè)類的概率分布就構(gòu)成了一個(gè)條件概率分布A:對(duì)B:錯(cuò)答案:AK-means聚類是發(fā)現(xiàn)給定數(shù)據(jù)集的K個(gè)簇的算法。A:對(duì)B:錯(cuò)答案:A數(shù)據(jù)分析師的任務(wù):用模型來回答具體問題,了解數(shù)據(jù),其來源和結(jié)構(gòu)A:對(duì)B:錯(cuò)答案:B特征的信息增益越大,則其越不重要。A:對(duì)B:錯(cuò)答案:B貝葉斯定理是概率論中的一個(gè)結(jié)果,它與隨機(jī)變量的條件概率以及聯(lián)合概率分布有關(guān)。A:對(duì)B:錯(cuò)答案:A給定一個(gè)數(shù)據(jù)集,如果存在某個(gè)超平

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論