數(shù)據(jù)倉庫與數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年濟南大學_第1頁
數(shù)據(jù)倉庫與數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年濟南大學_第2頁
數(shù)據(jù)倉庫與數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年濟南大學_第3頁
數(shù)據(jù)倉庫與數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年濟南大學_第4頁
數(shù)據(jù)倉庫與數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年濟南大學_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

付費下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

數(shù)據(jù)倉庫與數(shù)據(jù)挖掘智慧樹知到期末考試答案+章節(jié)答案2024年濟南大學在決策樹中,隨著樹中結(jié)點數(shù)變得太?,即使模型的訓練誤差還在繼續(xù)減低,但是檢驗誤差開始增?,這是出現(xiàn)了模型擬合不?的問題。()

答案:錯DBSCAN是相對抗噪聲的,并且能夠處理任意形狀和??的簇。()

答案:對聚類(clustering)是這樣的過程:它找出描述并區(qū)分數(shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使?模型預測類標記未知的對象類。()

答案:錯下?屬于維歸約常?的線性代數(shù)技術(shù)的有:()

答案:主成分分析###奇異值分解數(shù)據(jù)挖掘的預測建模任務主要包括哪??類問題?()

答案:分類###回歸下?屬于數(shù)據(jù)集的?般特性的有:()

答案:分辨率###維度###稀疏性以下哪些學科和數(shù)據(jù)挖掘有密切聯(lián)系?()

答案:??智能###統(tǒng)計關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是:()

答案:OLAP的特點在于事務量?,但事務內(nèi)容?較簡單且重復率?.考慮下?的頻繁3-項集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個項,采?合并策略,由候選產(chǎn)?過程得到4-項集不包含()

答案:1,2,4,5數(shù)據(jù)倉庫是隨著時間變化的,下?的描述不正確的是()

答案:數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;下面不屬于創(chuàng)建新屬性的相關(guān)方法的是

(

)

答案:特征修改以下哪種方法不屬于特征選擇的標準方法(

)

答案:抽樣假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對屬性income的73600元將被轉(zhuǎn)化為(

)

答案:0.716什么是KDD?()

答案:數(shù)據(jù)挖掘與知識發(fā)現(xiàn)下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術(shù)(

答案:餅圖簡單地將數(shù)據(jù)對象集劃分成不重疊的?集,使得每個數(shù)據(jù)對象恰在?個?集中,這種聚類類型稱作()

答案:劃分聚類以下哪些分類?法可以較好地避免樣本的不平衡問題,()

答案:KNN考慮兩隊之間的?球?賽:隊0和隊1。假設(shè)65%的?賽隊0勝出,剩余的?賽隊1獲勝。隊0獲勝的?賽中只有30%是在隊1的主場,?隊1取勝的?賽中75%是主場獲勝。如果下?場?賽在隊1的主場進?隊1獲勝的概率為()

答案:0.4678使用交互式的和可視化的技術(shù),對數(shù)據(jù)進行探索屬于數(shù)據(jù)挖掘的哪一類任務?()

答案:探索性數(shù)據(jù)分析定量屬性可以是整數(shù)值或者是連續(xù)值。()

答案:對序列數(shù)據(jù)沒有時間戳。()

答案:對模式為對數(shù)據(jù)集的全局性總結(jié),它對整個測量空間的每?點做出描述;模型則對變量變化空間的?個有限區(qū)域做出描述。()

答案:錯SVM是這樣?個分類器,他尋找具有最?邊緣的超平?,因此它也經(jīng)常被稱為最?邊緣分類器(minimalmarginclassifier)()

答案:錯對于SVM分類算法,待分樣本集中的?部分樣本不是?持向量,移去或者減少這些樣本對分類結(jié)果沒有影響。()

答案:對在評價不平衡類問題分類的度量?法有如下?種()

答案:F1度量###精度(precision)###召回率(recall)###真正率(turepositiverate,TPR)()這些數(shù)據(jù)特性都是對聚類分析具有很強影響的。

答案:?維性###稀疏性###規(guī)模###噪聲和離群點下列度量不具有反演性的是()

答案:興趣因?下面哪個不屬于數(shù)據(jù)的屬性類型(

)

答案:相異某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()

答案:關(guān)聯(lián)規(guī)則發(fā)現(xiàn)在圖集合中發(fā)現(xiàn)?組公共?結(jié)構(gòu),這樣的任務稱為()

答案:頻繁?圖挖掘下列選項中將兩個簇的鄰近度定義為不同簇的所有點對的平均逐對鄰近度,而且是?種凝聚層次聚類的是()。

答案:組平均如果允許?條記錄觸發(fā)多條分類規(guī)則,把每條被觸發(fā)規(guī)則的后件看作是對相應類的?次投票,然后計票確定測試記錄的類標號,稱為()

答案:?序規(guī)則關(guān)于OLAP的特性,下?正確的是:(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性()

答案:(1)(2)(3)(4)(5)關(guān)于OLAP和OLTP的說法,下列不正確的是:()

答案:OLAP事務量?,但事務內(nèi)容?較簡單且重復率?.先驗原理可以表述為:如果?個項集是頻繁的,那包含它的所有項集也是頻繁的。()

答案:錯關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿?最??持度的所有項集代表的規(guī)則。()

答案:錯下?哪些屬于可視化?維數(shù)據(jù)技術(shù)()

答案:矩陣###Chernoff臉###星形坐標###平?坐標系利?Apriori算法計算頻繁項集可以有效降低計算頻繁集的時間復雜度。在以下的購物籃中產(chǎn)??持度不?于3的候選3-項集,在候選2-項集中需要剪枝的是ID項集1?包、?奶2?包、尿布、啤酒、雞蛋3?奶、尿布、啤酒、可樂4?包、?奶、尿布、啤酒5?包、?奶、尿布、可樂()

答案:啤酒、?奶###啤酒、?包通過數(shù)據(jù)挖掘過程所推倒出的關(guān)系和摘要經(jīng)常被稱為:()

答案:模式###模型?個對象的離群點得分是該對象周圍密度的逆。這是基于()的離群點定義。

答案:密度在基于規(guī)則分類器的中,依據(jù)規(guī)則質(zhì)量的某種度量對規(guī)則排序,保證每?個測試記錄都是由覆蓋它的“最好的”規(guī)格來分類,這種?案稱為()

答案:基于規(guī)則的排序?案在基本K均值算法?,當鄰近度函數(shù)采?()的時候,合適的質(zhì)?是簇中各點的中位數(shù)。()

答案:曼哈頓距離以下哪些算法是基于規(guī)則的分類器()

答案:C4.5下?購物籃能夠提取的3-項集的最?數(shù)量是多少ID購買項1?奶,啤酒,尿布2?包,?油,?奶3?奶,尿布,餅?4?包,?油,餅?5啤酒,餅?,尿布6?奶,尿布,?包,?油7?包,?油,尿布8啤酒,尿布9?奶,尿布,?包,?油10啤酒,餅?()

答案:3Web數(shù)據(jù)挖掘是通過數(shù)據(jù)庫仲的?些屬性來預測另?個屬性,它在驗證?戶提出的假設(shè)過程中提取信息.()

答案:錯特征提取技術(shù)并不依賴于特定的領(lǐng)域。()

答案:錯將原始數(shù)據(jù)進?集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務?()

答案:數(shù)據(jù)預處理以下哪個聚類算法不屬于基于?格的聚類算法()

答案:BIRCH以下屬于定量的屬性類型是:()

答案:相異以下是哪?個聚類算法的算法流程:①構(gòu)造k-最近鄰圖。②使?多層圖劃分算法劃分圖。③repeat:合并關(guān)于相對互連性和相對接近性??,最好地保持簇的?相似性的簇。④until:不再有可以合并的簇。()

答案:Chameleon用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務?(

)

答案:根據(jù)內(nèi)容檢索Bayes法是一種在已知后驗概率與類條件概率的情況下的模式分類方法,待分樣本的分類結(jié)果取決于各類域中樣本的全體。()

答案:錯分類和回歸都可用于預測,分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。()

答案:對在聚類分析當中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。()

答案:錯簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個數(shù)據(jù)對象恰在一個子集中,這種聚類類型稱作()

答案:劃分聚類只有非零值才重要的二元屬性被稱作:()

答案:非對稱的二元屬性下面哪個不屬于數(shù)據(jù)的屬性類型:()

答案:相異如果?個對象不強屬于任何簇,那么該對象是基于聚類的離群點。()

答案:對DSS主要是基于數(shù)據(jù)倉庫.聯(lián)機數(shù)據(jù)分析和數(shù)據(jù)挖掘技術(shù)的應?。()

答案:對數(shù)據(jù)倉庫系統(tǒng)的組成部分包括數(shù)據(jù)倉庫,倉庫管理,數(shù)據(jù)抽取,分析?具等四個部分.()

答案:錯分類和回歸都可?于預測,分類的輸出是離散的類別值,?回歸的輸出是連續(xù)數(shù)值。()

答案:對離群點不可以是合法的數(shù)據(jù)對象或者值。()

答案:對基于鄰近度的離群點檢測?法不能處理具有不同密度區(qū)域的數(shù)據(jù)集.()

答案:對具有較?的?持度的項集具有較?的置信度。()

答案:錯?于分類的離散化?法之間的根本區(qū)別在于是否使?類信息。()

答案:對從點作為個體簇開始,每?步合并兩個最接近的簇,這是?種分裂的層次聚類?法。()

答案:錯如果規(guī)則不滿?置信度閾值,則形如的規(guī)則?定也不滿?置信度閾值,其中是X的?集。()

答案:對圖挖掘技術(shù)在社會?絡分析中扮演了重要的??。()

答案:對()都屬于簇有效性的監(jiān)督度量。

答案:熵###F度量Apriori算法的計算復雜度受___影響。()

答案:?持度閥值###項數(shù)(維度)###事務數(shù)###事務平均寬度?頻繁模式__()

答案:對異常數(shù)據(jù)項敏感###其?持度?于閾值選項中屬于聚類算法的是()

答案:K均值###Jarvis-Patrick(JP)###DBSCAN聯(lián)機分析處理包括以下哪些基本分析功能?()

答案:轉(zhuǎn)軸###切塊###切?簇有效性的?向相似性的度量包括()

答案:Rand統(tǒng)計量###Jaccard系數(shù)如下哪些是最近鄰分類器的特點()

答案:可以?產(chǎn)任意形狀的決策邊界###它使?具體的訓練實例進?預測,不必維護源?數(shù)據(jù)的模型###分類?個測試樣例開銷很?在有關(guān)數(shù)據(jù)倉庫測試,下列說法不正確的是:()

答案:在測試之前沒必要制定詳細的測試計劃.當不知道數(shù)據(jù)所帶標簽時,可以使用哪種技術(shù)促使帶同類標簽的數(shù)據(jù)與帶其他標簽的數(shù)據(jù)相分離?(

)

答案:聚類考慮值集{12243324556826},其四分位數(shù)極差是:()

答案:31在基于圖的簇評估度量表??,如果簇度量為proximity(Ci,C),簇權(quán)值為mi,那么它的類型是()

答案:基于原型的分離度如果規(guī)則集R中不存在兩條規(guī)則被同?條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為()

答案:互斥規(guī)則設(shè)X={1,2,3}是頻繁項集,則可由X產(chǎn)?__()__個關(guān)聯(lián)規(guī)則。

答案:6以下哪項關(guān)于決策樹的說法是錯誤的()

答案:決策樹算法對于噪聲的?擾?常敏感以下屬于可伸縮聚類算法的是()

答案:CURE以下兩種描述分別對應哪兩種對分類算法的評價標準?a警察抓?偷,描述警察抓的?中有多少個是?偷的標準。b描述有多少?例的?偷給警察抓了的標準。()

答案:Precision,Recall下?選項中t不是s的?序列的是()

答案:s=<{1,2},{3,4}>t=<{1},{2}>為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪?類任務?()

答案:建模描述假設(shè)12個銷售價格記錄數(shù)據(jù)已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215。使用等寬劃分時(寬度為50),15在哪個箱子里?

(

)

答案:第一個以下哪些算法是分類算法,()

答案:C4.5熵是為消除不確定性所需要獲得的信息量,投擲均勻正六?體骰?的熵是:()

答案:2.6?特下列選項中將兩個簇的鄰近度定義為兩個簇合并時導致的平?誤差的增量,而且是?種凝聚層次聚類技術(shù)。()

答案:Ward?法概念分層圖是()圖。

答案:有向無環(huán)關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項集代表的規(guī)則。()

答案:錯數(shù)據(jù)倉庫是隨著時間變化的,下面的描述不正確的是()

答案:數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;以下哪些學科和數(shù)據(jù)挖掘有密切聯(lián)系?()

答案:統(tǒng)計###人工智能建立一個模型,通過這個模型根據(jù)已知的變量值來預測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務?()

答案:預測建模圖挖掘技術(shù)在社會網(wǎng)絡分析中扮演了重要的角色。()

答案:對商業(yè)智能系統(tǒng)與?般交易系統(tǒng)之間在系統(tǒng)設(shè)計上的主要區(qū)別在于:后者把結(jié)構(gòu)強加于商務之上,?旦系統(tǒng)設(shè)計完畢,其程序和規(guī)則不會輕易改變;?前者則是?個學習型系統(tǒng),能?動適應商務不斷變化的要求。()

答案:對離散屬性不總是具有有限個值。()

答案:對尋找模式和規(guī)則主要是對數(shù)據(jù)進??擾,使其符合某種規(guī)則以及模式。()

答案:錯數(shù)據(jù)倉庫中間層OLAP服務器只能采?關(guān)系型OLAP()

答案:錯K均值是?種產(chǎn)?劃分聚類的基于密度的聚類算法,簇的個數(shù)由算法?動地確定。()

答案:錯OLAP技術(shù)側(cè)重于把數(shù)據(jù)庫中的數(shù)據(jù)進?分析、轉(zhuǎn)換成輔助決策信息,是繼數(shù)據(jù)庫技術(shù)發(fā)展之后迅猛發(fā)展起來的?種新技術(shù)。()

答案:對數(shù)據(jù)挖掘的主要任務是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從?能更好的完成描述數(shù)據(jù)、預測數(shù)據(jù)等任務。()

答案:對數(shù)據(jù)挖掘的?標不在于數(shù)據(jù)采集策略,?在于對于已經(jīng)存在的數(shù)據(jù)進?模式的發(fā)掘()

答案:對噪聲和偽像是數(shù)據(jù)錯誤這?相同表述的兩種叫法。()

答案:錯可視化技術(shù)對于分析的數(shù)據(jù)類型通常不是專?性的。()

答案:錯分類模型的誤差?致分為兩種:訓練誤差(trainingerror)和泛化誤差(generalizationerror).()

答案:對Bayes法是?種在已知后驗概率與類條件概率的情況下的模式分類?法,待分樣本的分類結(jié)果取決于各類域中樣本的全體。()

答案:錯給定由兩次運?K均值產(chǎn)?的兩個不同的簇集,誤差的平?和最?的那個應該被視為較優(yōu)。()

答案:錯利?先驗原理可以幫助減少頻繁項集產(chǎn)?時需要探查的候選項個數(shù)()。

答案:對在聚類分析當中,簇內(nèi)的相似性越?,簇間的差別越?,聚類的效果就越差。()

答案:錯下?列出的條?中,哪些是數(shù)據(jù)倉庫的基本特征:()

答案:數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的###數(shù)據(jù)倉庫是?向主題的###數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的在現(xiàn)實世界的數(shù)據(jù)中,元組在某些屬性上缺少值是常有的。描述處理該問題的各種?法有:()

答案:使?最可能的值填充空缺值###忽略元組###使??個全局常量填充空缺值###使?與給定元組屬同?類的所有樣本的平均值###使?屬性的平均值填充空缺值數(shù)據(jù)挖掘算法的組件包括:()

答案:模型或模型結(jié)構(gòu)###評分函數(shù)###數(shù)據(jù)管理策略###優(yōu)化和搜索?法下表是?個購物籃,假定?持度閾值為40%,其中____是頻繁閉項集。TID項1abc2abcd3bce4acde5de()

答案:de###abc對于數(shù)據(jù)挖掘中的原始數(shù)據(jù),存在的問題有:()

答案:不完整###維度?###含噪聲###重復###不?致在聚類分析當中,哪項技術(shù)可以處理任意形狀的簇。()

答案:Chameleon###MIN(單鏈)?葉斯信念?絡(BBN)有如下哪些特點?()

答案:構(gòu)造?絡費時費?###對模型的過分問題?常魯棒下列屬于不同的有序數(shù)據(jù)的有:()

答案:時序數(shù)據(jù)###時間序列數(shù)據(jù)###序列數(shù)據(jù)###空間數(shù)據(jù)數(shù)據(jù)倉庫在技術(shù)上的?作過程是?()

答案:數(shù)據(jù)的表現(xiàn)###數(shù)據(jù)的抽取###存儲和管理###數(shù)據(jù)倉庫設(shè)計OLAM技術(shù)?般簡稱為”數(shù)據(jù)聯(lián)機分析挖掘”,下?說法正確的是:()

答案:OLAM服務器通過?戶圖形借?接收?戶的分析指令,在元數(shù)據(jù)的知道下,對超級??體作?定的操作.假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70,問題:使用按箱平均值平滑方法對上述數(shù)據(jù)進行平滑,箱的深度為3。第二個箱子的值為(

)

答案:18.3下列哪種不屬于數(shù)據(jù)預處理的方法?()

答案:估計遺漏值一所大學內(nèi)的各年紀人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人。則年級屬性的眾數(shù)是

()

答案:一年級考慮值集{1、2、3、4、5、90},其截斷均值(p=20%)是()

答案:3.5下?哪個屬于映射數(shù)據(jù)到新的空間的?法?()

答案:傅?葉變換非零值非常重要的二元屬性被稱作(

)

答案:非對稱的二元屬性O(shè)LAP技術(shù)的核?是:()

答案:多維分析;決策樹中不包含?下哪種結(jié)點,()

答案:外部結(jié)點(externalnode)建立一個模型,通過這個模型根據(jù)已知的變量值來預測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務?(

)

答案:預測建模有關(guān)數(shù)據(jù)倉庫的開發(fā)特點,不正確的描述是:()

答案:數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā);檢測?元正態(tài)分布中的離群點,屬于異常檢測中的基于()的離群點檢測。

答案:統(tǒng)計?法通過聚集多個分類器的預測來提?分類準確率的技術(shù)稱為()

答案:組合(ensemble)不純性度量中Gini計算公式為(其中c是類的個數(shù))()

答案:ABIRCH是?種()

答案:聚類算法如果對屬性值的任?組合,R中都存在?條規(guī)則加以覆蓋,則稱規(guī)則集R中的規(guī)則為()

答案:窮舉規(guī)則下列__()__不是將主觀信息加?到模式發(fā)現(xiàn)任務中的?法。

答案:與同?時期其他數(shù)據(jù)對?以下哪個聚類算法不是屬于基于原型的聚類()

答案:CLIQUE對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對分類結(jié)果沒有影響。()

答案:對以下屬于分類器評價或比較尺度的有:()

答案:預測準確度###計算復雜度###模型描述的簡潔度SVM是這樣一個分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimalmarginclassifier)()

答案:錯聚類(clustering)是這樣的過程:它找出描述并區(qū)分數(shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預測類標記未知的對象類。()

答案:錯在聚類分析當中,()等技術(shù)可以處理任意形狀的簇。

答案:MIN(單鏈)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論