(新版)《大數(shù)據(jù)挖掘技術(shù)》易考易錯(cuò)高頻考試題庫300道(含答案)_第1頁
(新版)《大數(shù)據(jù)挖掘技術(shù)》易考易錯(cuò)高頻考試題庫300道(含答案)_第2頁
(新版)《大數(shù)據(jù)挖掘技術(shù)》易考易錯(cuò)高頻考試題庫300道(含答案)_第3頁
(新版)《大數(shù)據(jù)挖掘技術(shù)》易考易錯(cuò)高頻考試題庫300道(含答案)_第4頁
(新版)《大數(shù)據(jù)挖掘技術(shù)》易考易錯(cuò)高頻考試題庫300道(含答案)_第5頁
已閱讀5頁,還剩83頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1一、單選題1.在CBD商圈,以下哪款手機(jī)的滲透率最高A、華為B、小米C、三星D、蘋果答案:D2.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語言處理答案:A3.考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含()A、1,2,3,4B、1,2,3,5C、1,2,4,5D、1,3,4,5答案:C4.OnRetDW系統(tǒng)建模采用的是()。A、星形模型B、雪花模型C、事實(shí)星座模型D、關(guān)系數(shù)據(jù)庫模型答案:A5.視頻業(yè)務(wù)流程可以分為播放準(zhǔn)備階段和播放階段,其中屬于播放階段KQI指標(biāo)有()A、停頓次數(shù)B、視頻播放等待時(shí)長(zhǎng)C、初始緩沖成功率D、初始緩沖時(shí)長(zhǎng)答案:A6.先按課程號(hào)升序排列,再按成績(jī)降序排列檢索出選課表中的所有信息,下面SQL語句正確的是______。A、SELECT*FROM選課表ORDERBY課程號(hào),成績(jī);B、SELECT*FROM選課表GROUPBY課程號(hào),成績(jī);C、SELECT*FROM選課表ORDERBY課程號(hào),成績(jī)DESC;D、SELECT*FROM選課表ORDERBY課程號(hào)DESC,成績(jī);答案:C7.下列不是智能的特征的是()A、具有儲(chǔ)存空間B、具有學(xué)習(xí)能力C、具有記憶與思維的能力D、具有自適應(yīng)能力答案:A8.樸素貝葉斯算法是一種()數(shù)據(jù)挖掘算法。A、關(guān)聯(lián)分析B、預(yù)測(cè)C、分類D、聚類答案:C9.考慮值集{12243324556826},其四分位數(shù)極差是:A、31B、24C、55D、3答案:A10.通過代碼”fromsklearn.clusterimportKMeans”引入Kmeans模塊,生成模型對(duì)象“kmeans=KMeans(_clusters=2)”后,對(duì)于數(shù)據(jù)X訓(xùn)練時(shí)要調(diào)用的方法是()。A、kmaens.fit()B、kmeans.fit()C、kmaens.train()D、kmeans.train()答案:B11.以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()A、冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響B(tài)、子樹可能在決策樹中重復(fù)多次C、決策樹算法對(duì)于噪聲的干擾非常敏感D、尋找最佳決策樹是NP完全問題答案:C12.個(gè)人信息的收集、處理和利用應(yīng)當(dāng)遵循()的原則,不得違反法律、法規(guī)的規(guī)定和雙方的約定收集、處理和利用個(gè)人信息。()A、正規(guī)、合法、必要B、合法、正當(dāng)、必要C、合法、合規(guī)、正當(dāng)D、合法、合理、合規(guī)答案:B13.下面選項(xiàng)中t不是s的子序列的是()A、S=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>B、S=<{2,4},{3,5,6},{8}>t=<{2},{8}>C、S=<{1,2},{3,4}>t=<{1},{2}>D、S=<{2,4},{2,4}>t=<{2},{4}>答案:C14.以下哪個(gè)指標(biāo)不是手機(jī)上網(wǎng)感知指標(biāo)A、TCP一二次握手時(shí)延B、TCP二三次握手時(shí)延C、ARPUD、ERAB建立成功率答案:C15.有關(guān)樸素貝葉斯分類算法的敘述中正確的是()A、樸素貝葉斯分類算法是一種精確的分類算法B、采用樸素貝葉斯分類算法將一個(gè)樣本分到某個(gè)類別中,表示它100%屬于該類別C、樸素貝葉斯分類算法是一種基于概率的分類算法D、以上都不對(duì)答案:C16.運(yùn)行以下代碼Fromsklearn.datasetsimportload_irisIris_data=load_iris()Iris_data.data.shape輸出結(jié)果為(150,4)。則表示iris數(shù)據(jù)集包括樣本特征數(shù)為()。A、600B、150C、4D、154答案:C17.以下關(guān)于大數(shù)據(jù)應(yīng)用說法錯(cuò)誤的是()。A、大數(shù)據(jù)起源互聯(lián)網(wǎng),目前處于成熟期;B、目前金融、電信、零售、公共服務(wù)等領(lǐng)域在積極的探索和應(yīng)用大數(shù)據(jù);C、互聯(lián)網(wǎng)是大數(shù)據(jù)的發(fā)源地;D、互聯(lián)網(wǎng)上形成了多種相對(duì)成熟的應(yīng)用模式。答案:A18.在SQL語句中,可使用的通配符“%(百分號(hào))”表示______。A、一個(gè)字符B、純數(shù)字C、計(jì)算百分?jǐn)?shù)D、0到多個(gè)字符答案:D19.當(dāng)時(shí)間序列數(shù)據(jù)點(diǎn)的一階差分近似為一常數(shù),可配合以下哪種預(yù)測(cè)模型()A、直線B、二次拋物線C、三次拋物線D、指數(shù)曲線答案:A20.在基于規(guī)則分類器的中,依據(jù)規(guī)則質(zhì)量的某種度量對(duì)規(guī)則排序,保證每一個(gè)測(cè)試記錄都是由覆蓋它的“最好的”規(guī)格來分類,這種方案稱為A、基于類的排序方案B、基于規(guī)則的排序方案C、基于度量的排序方案D、基于規(guī)格的排序方案。答案:B21.為支撐市場(chǎng)營(yíng)銷,除下述哪個(gè)用戶終端特征識(shí)別外,均能用于提高批開用戶的VoLTE轉(zhuǎn)化成功率A、軟件版本B、軟開關(guān)狀態(tài)識(shí)別C、VoLTE版本D、芯片版本答案:D22.根據(jù)聚類形成的簇的特點(diǎn),如果有交集的簇之間必然存在包含關(guān)系,這種聚類稱為()。A、重疊聚類B、層次型聚類C、劃分型聚類D、以上均不是答案:B23.在Scikit-learn模塊下,不同分類模型在預(yù)測(cè)時(shí),調(diào)用的方法名稱()。A、相同B、視情況而定C、不知道D、不同答案:A24.下列哪項(xiàng)不是物聯(lián)網(wǎng)端到端業(yè)務(wù)質(zhì)量關(guān)鍵性能指標(biāo)()A、業(yè)務(wù)傳輸速率B、TCP重傳率C、TCP亂序率D、http首包響應(yīng)時(shí)延答案:D25.假設(shè)檢驗(yàn)中,拒絕域的邊界稱為()A、臨界值B、臨界點(diǎn)C、置信水平D、邊際值答案:A26.《數(shù)據(jù)安全法》發(fā)布執(zhí)行時(shí)間()。A、2021年9月1日;B、2021年10月1日;C、2021年11月1日D、2021年12月1日答案:A27.要求滿足連接條件的記錄,以及連接條件左側(cè)表中的記錄都包含在結(jié)果中,應(yīng)使用______。A、左連接B、右連接C、內(nèi)部連接D、完全連接答案:A28.向量x=[1,2,3,4,5,0]的L1范數(shù)是多少A、5B、15C、6D、55答案:B29.下列哪些數(shù)據(jù)不可以直接作為網(wǎng)絡(luò)結(jié)構(gòu)評(píng)估的數(shù)據(jù)源()A、仿真柵格電平預(yù)測(cè)值B、ATU數(shù)據(jù)C、MR數(shù)據(jù)D、話統(tǒng)答案:D30.最小最大規(guī)范化方法MinMaxScaler屬于python中的哪個(gè)包()。A、numpyB、scipyC、pandasD、sklearn答案:D31.下列不屬于分類方法的是()A、決策樹算法B、貝葉斯算法C、人工神經(jīng)網(wǎng)絡(luò)D、K均值算法答案:D32.無線網(wǎng)性能劣化可能導(dǎo)致以下哪個(gè)指標(biāo)出現(xiàn)問題?()A、小區(qū)RTT下行時(shí)延B、TCP一二次握手時(shí)延C、服務(wù)器側(cè)下行RTTD、小區(qū)RTT上行時(shí)延答案:A33.OLAP的基本操作不包括()。A、上鉆B、下鉆C、切片D、平移答案:D34.在抽樣方法中,當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是:A、有放回的簡(jiǎn)單隨機(jī)抽樣B、無放回的簡(jiǎn)單隨機(jī)抽樣C、分層抽樣D、漸進(jìn)抽樣答案:D35.下面關(guān)于構(gòu)建模型樹的說法中,錯(cuò)誤的是()。A、如果當(dāng)前結(jié)點(diǎn)t所關(guān)聯(lián)的數(shù)據(jù)集Dt中樣本個(gè)數(shù)小于給定閾值或者Dt中樣本的目標(biāo)屬性取值的標(biāo)準(zhǔn)差小于給定閾值,則將該結(jié)點(diǎn)標(biāo)記為葉子節(jié)點(diǎn)B、創(chuàng)建一個(gè)結(jié)點(diǎn)t,與結(jié)點(diǎn)t關(guān)聯(lián)的數(shù)據(jù)集記為DtC、在選擇分類屬性時(shí),應(yīng)選擇時(shí)SDR值最小的屬性D、SDR代表誤差的期望減少答案:C36.Zookeeper是Hadoop和()的重要組件A、HiveB、HBASEC、MapReduceD、HDFS答案:B37.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)()A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則答案:A38.下述哪個(gè)參數(shù)用于UE從GSM/UMTS網(wǎng)絡(luò)重選到LTE網(wǎng)絡(luò)過程中的位置更新請(qǐng)求A、GUTIB、OldGUTIC、PTMSI/RAID、OldPTMSI/RAI答案:A39.IP地址表示什么A、本地broadcastB、直接multicastC、本地networkD、本地loopback答案:A40.()是一種松散耦合的服務(wù)和應(yīng)用之間標(biāo)準(zhǔn)的集成方式。A、E.SB;B、D.MC、ODSD、E.TL答案:A41.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)據(jù)規(guī)約是在以下哪個(gè)步驟的任務(wù)()A、頻繁模式挖掘B、分類和預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘答案:C42.Python在調(diào)用efficient-apriori包中的apriori函數(shù)進(jìn)行挖掘關(guān)聯(lián)規(guī)則時(shí),第二個(gè)返回值是()。A、最小置信度B、最小支持度C、關(guān)聯(lián)規(guī)則D、頻繁項(xiàng)集答案:C43.在SQL中,創(chuàng)建數(shù)據(jù)庫用的命令是()A、CREATESCHEMAB、CREATETABLEC、CREATEVIEWD、CREATEDATABASE答案:D44.把多維空間劃分成組屬于數(shù)據(jù)挖掘的哪一類任務(wù)A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則答案:B45.某項(xiàng)目預(yù)計(jì)運(yùn)行5年后的凈現(xiàn)值為4500萬元,如折現(xiàn)率為16%,其終值應(yīng)為()萬元(說明:結(jié)果保留兩位小數(shù))A、8045.86B、6996.21C、9451.54D、7000.02答案:C46.TCP/IP協(xié)議按照從底層到高層的順序,除了應(yīng)用層之外,每一層都有與其相對(duì)應(yīng)的PDU(ProtocolDataUnit,協(xié)議數(shù)據(jù)單元),依次為()A、Bit、Segment、Packet、FrameB、Bit、Frame、Packet、SegmentC、Packet、Bit、Frame、SegmentD、Bit、Packet、Frame、Segment答案:B47.下列哪個(gè)描述是正確的?()A、分類和聚類都是有監(jiān)督的學(xué)習(xí)B、分類和聚類都是無監(jiān)督的學(xué)習(xí)C、分類是有監(jiān)督的學(xué)習(xí),聚類是無監(jiān)督的學(xué)習(xí)D、分類是無監(jiān)督的學(xué)習(xí),聚類是有監(jiān)督的學(xué)習(xí)答案:C48.已知x=[1,2,3],執(zhí)行語句x.append(4)之后,x的值是()A、[1,2,3,4]B、[4]C、[1,2,3]D、4答案:A49.對(duì)于任一個(gè)頻繁項(xiàng)集X和它的一個(gè)非空真子集Y,S=X-Y,規(guī)則S→Y成立的條件是()。A、confidence(→S)≥minconfB、confidence(→Y)<minconfC、confidence(→S)<minconfD、confidence(S→Y)≥minconf答案:D50.用于將Python程序打包成可執(zhí)行文件的工具是()A、Panda3DB、cocos2dC、pipD、PyInstaller答案:D51.bootstrap數(shù)據(jù)是什么意思?()A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本答案:C52.Python中Pandas的Series對(duì)象中查看數(shù)據(jù)集中有多少個(gè)觀察值,采用哪個(gè)命令A(yù)、headB、infoC、shapeD、columns答案:B53.模型把數(shù)據(jù)學(xué)習(xí)的太徹底,以至于把噪聲數(shù)據(jù)的特征也學(xué)習(xí)到了,這樣就會(huì)導(dǎo)致在后期測(cè)試的時(shí)候不能夠很好地識(shí)別數(shù)據(jù),模型泛化能力太差,這是()的原因A、欠擬合B、泛化誤差C、過擬合D、經(jīng)驗(yàn)誤差答案:C54.數(shù)據(jù)中心側(cè)的數(shù)據(jù)流轉(zhuǎn)方式未為()A、D.XP;B、E.SPC、OGGD、E.TL答案:D55.決策樹分類方法中,ID3算法使用的分裂準(zhǔn)則是:()A、信息增益B、增益比率C、基尼指數(shù)D、分類錯(cuò)誤率答案:A56.有關(guān)OnRetDw系統(tǒng)的敘述中正確的是()A、OnRetDW系統(tǒng)是一個(gè)實(shí)現(xiàn)在線交易的系統(tǒng)B、OnRetDW系統(tǒng)是一個(gè)可以完成任意商品信息分析的系統(tǒng)C、OnRetDW系統(tǒng)是一個(gè)面向特定主題的數(shù)據(jù)倉庫系統(tǒng)D、以上都不對(duì)答案:C57.Hbase是哪種數(shù)據(jù)庫?A、關(guān)系型數(shù)據(jù)庫B、Nosql數(shù)據(jù)庫C、網(wǎng)狀數(shù)據(jù)庫D、層次數(shù)據(jù)庫答案:B58.人工智能的目的是讓機(jī)器能夠()A、具有完全的智能B、完全和人腦一樣考慮問題C、完全替代人D、模擬、延伸和擴(kuò)展人的智能答案:D59.在sklearn中構(gòu)建復(fù)合評(píng)估器時(shí),如果想對(duì)所有特征進(jìn)行不同的變換,然后將多種變換的所得的結(jié)果組合成新的特征數(shù)據(jù),可以使用哪個(gè)轉(zhuǎn)換器()A、ColumnTransformerB、FeatureUnionC、PipelineD、Impute答案:B60.當(dāng)你輸入hadoopfsck/造成“connectionrefusedjavaexception’”時(shí),系統(tǒng)究竟發(fā)生了什么?A、datanode出現(xiàn)故障B、resoucemanger出現(xiàn)故障C、nodemanger出現(xiàn)故障D、Namenode出現(xiàn)故障答案:D61.在建立線性回歸(LinearRegression)之前我們可以利用何種方法挑選重要屬性,以降低模型的復(fù)雜度?A、皮爾森相關(guān)系數(shù)B、卡方檢定C、T-檢定D、Z-Score答案:A62.某牙膏廠原來生產(chǎn)兩面針?biāo)幬镅栏?現(xiàn)在又增加牙刷生產(chǎn),這屬于()A、同心多元化B、水平多元化C、集團(tuán)多元化D、相關(guān)多元化答案:B63.對(duì)于開通4G業(yè)務(wù)的用戶,如果需要使用VoLTE業(yè)務(wù),是否需要更換手機(jī)卡,是否需要更換VoLTE終端?A、不需要更換手機(jī)卡,需要使用VoLTE終端B、不需要更換手機(jī)卡,不需要使用VoLTE終端C、需要更換手機(jī)卡,需要使用VoLTE終端D、需要更換手機(jī)卡,不需要使用VoLTE終端答案:A64.用于分類與回歸應(yīng)用的主要算法有()。A、RBF神經(jīng)網(wǎng)絡(luò)、K均值法、決策樹B、Apriori算法、HotSpot算法C、K均值法、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯答案:D65.關(guān)于python說法錯(cuò)誤的是()A、python字典中的“健”可以是元組B、python集合中元素不允許重復(fù)C、python字典中的“值”不允許重復(fù)D、python集合中的元素可以是列表答案:D66.能夠完全匹配字符串“back”和“back-end”的正則表達(dá)式包括()A、r“\w{4}-\w{3}|\w{4}”B、r“\w{4}|\w{4}-\w{3}”C、r“\S±\S+|\S+”D、r“\w*\b-\b\w*|\w*”答案:B67.在CBD商圈,以下哪類APP流量占比最高A、即時(shí)通信B、音樂C、下載D、視頻答案:A68.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有()A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒B、可以處理冗余特征C、訓(xùn)練ANN是一個(gè)很耗時(shí)的過程D、至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)答案:A69.支持向量機(jī)是一種二分類模型,其基本模型定義為特征空間上的間隔最大的(),其學(xué)習(xí)策略便是間隔最大化,最終可轉(zhuǎn)化為一個(gè)凸二次規(guī)劃問題的求解。A、環(huán)形分類器B、線性分類器C、回歸分類器D、非線性分類器答案:B70.在有指導(dǎo)的數(shù)據(jù)挖掘中,有關(guān)測(cè)試集的說法錯(cuò)誤的是()A、測(cè)試集和訓(xùn)練集是相互聯(lián)系的B、測(cè)試集是用以測(cè)試模型的數(shù)據(jù)集C、通常測(cè)試集大約占總樣本的三分之一D、K-次交叉驗(yàn)證中,測(cè)試集只有1個(gè),訓(xùn)練集有K-1個(gè)答案:A71.給定df是一個(gè)DataFrame對(duì)象,對(duì)df所有字段進(jìn)行描述性統(tǒng)計(jì),可以利用的方法為()。A、df.mean()B、df.statistics()C、df.summary()D、df.describe()答案:D72.在一元回歸分析中,用r表示因變量對(duì)自變量的相關(guān)系數(shù),當(dāng)|r|接近1時(shí),說明因變量與自變量之間的線性關(guān)系就好。A、FB、T答案:B73.在基于圖的簇評(píng)估度量表里面,如果簇度量為proximity(Ci,C),簇權(quán)值為mi,那么它的類型是()。A、基于圖的凝聚度B、基于原型的凝聚度C、基于原型的分離度D、基于圖的凝聚度和分離度答案:C74.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:()A、1B、2.6C、3.2D、3.8答案:B75.關(guān)于OLAP和OLTP的說法,下列不正確的是:A、OLAP事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高.B、OLAP的最終數(shù)據(jù)來源與OLTP不一樣.C、OLTP面對(duì)的是決策人員和高層管理人員.D、OLTP以應(yīng)用為核心,是應(yīng)用驅(qū)動(dòng)的.答案:A76.以下關(guān)于列表操作的描述,錯(cuò)誤的是:A、通過append方法可以向列表添加元素B、通過extend方法可以將另一個(gè)列表中的元素逐一添加到列表中C、通過insert(index,object)方法在指定位置index前插入元素objectD、通過add方法可以向列表添加元素答案:D77.MME和HSS之間是什么接口()A、SGsB、S1-MMEC、SgiD、S6a答案:D78.運(yùn)行以下代碼”importmatplotlib.pyplotasplt”引入plt后,要繪制餅狀圖,需要利用的函數(shù)為()。A、plt.hist()B、plt.pie()C、plt.plot()D、plt.bar()答案:B79.可以對(duì)按季度匯總的銷售數(shù)據(jù)進(jìn)行(),來觀察按月匯總的數(shù)據(jù)。A、上卷B、下鉆C、切片D、切塊答案:B80.一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級(jí)200人,二年級(jí)160人,三年級(jí)130人,四年級(jí)110人。則年級(jí)屬性的眾數(shù)是:A、一年級(jí)B、二年級(jí)C、三年級(jí)D、四年級(jí)答案:A81.下面關(guān)于time庫引用不正確的是()A、from*importtimeB、importtimeC、fromtimeimport*D、fromtimeimportstrftime答案:A82.只有非零值才重要的二元屬性被稱作A、計(jì)數(shù)屬性B、離散屬性C、非對(duì)稱的二元屬性D、對(duì)稱屬性答案:C83.Zookeeper是A、集群協(xié)調(diào)服務(wù)B、分布式應(yīng)用C、AB都不對(duì)D、AB都對(duì)答案:D84.以下()不是影響聚類算法結(jié)果的主要因素。A、已知類別的樣本的質(zhì)量B、聚類結(jié)束條件C、描述屬性的選取D、對(duì)象的相似性度量答案:A85.使用交互式的和可視化的技術(shù),對(duì)數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則答案:A86.一個(gè)對(duì)象的離群點(diǎn)得分是該對(duì)象周圍密度的逆。這是基于()的離群點(diǎn)定義。A、概率B、鄰近度C、密度D、聚類答案:C87.下面哪個(gè)Python庫不能用于提取網(wǎng)頁信息?A、BeautifulSoupB、lxmlC、requestsD、re答案:C88.已知:D={123:'Tom','age':18,'score':[91,92,93]}Print(d[123][1],d['age'],d['score'][-1])輸出的結(jié)果是:A、T,18,91B、o,18,91C、T,18,92D、o,18,93答案:D89.數(shù)據(jù)挖掘技術(shù)包括三個(gè)主要的部分()A、數(shù)據(jù)、模型、技術(shù)B、算法、技術(shù)、領(lǐng)域知識(shí)C、數(shù)據(jù)、建模能力、算法與技術(shù)D、建模能力、算法與技術(shù)、領(lǐng)域知識(shí)答案:C90.下面關(guān)于Jarvis-Patrick(JP)聚類算法的說法不正確的是()。A、JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。B、JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇。C、JP聚類是基于SNN相似度的概念。D、JP聚類的基本時(shí)間復(fù)雜度為O(m)。答案:D91.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:A、粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;B、數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;C、數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;D、粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.答案:C92.()是在貝葉斯算法的基礎(chǔ)上進(jìn)行了相應(yīng)的簡(jiǎn)化,即假定給定目標(biāo)值時(shí)屬性之間相互條件獨(dú)立A、貝葉斯定理B、貝葉斯統(tǒng)計(jì)C、樸素貝葉斯方法D、貝葉斯分類器答案:C93.關(guān)于Python字符串下列說法錯(cuò)誤的是()A、字符應(yīng)該視為長(zhǎng)度為1的字符串B、字符串以\0標(biāo)志字符串的結(jié)束C、既可以用單引號(hào),也可以使用雙引號(hào)創(chuàng)建字符串D、在三引號(hào)字符串中可以包含換行回車等特殊字符答案:B94.東北人養(yǎng)了一只雞和一頭豬。一天雞問豬:"主人呢?"豬說:"出去買蘑菇了。"雞聽了撒丫子就跑。豬說:"你跑什么?"雞叫道:“有本事主人買粉條的時(shí)候你小子別跑!"以上對(duì)話體現(xiàn)了數(shù)據(jù)分析方法中的()A、關(guān)聯(lián)B、聚類C、分類D、自然語言處理答案:A95.TAU請(qǐng)求次數(shù)為統(tǒng)計(jì)一定的時(shí)間粒度及網(wǎng)元粒度下,ProcedureType為()的S1-MME接口XDR的個(gè)數(shù)A、2B、3C、4D、5答案:D96.ISIS和OSPF路由協(xié)議的的相同點(diǎn)不包括A、距離矢量協(xié)議B、鏈路狀態(tài)協(xié)議C、建立鄰居關(guān)系D、運(yùn)行SPF算法答案:A97.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?()A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈答案:B98.下列代碼實(shí)現(xiàn)()功能X=list(range(20))Forindex,valueinenumerate(x):ifvalue==3:x[index]=5A、判斷列表x中是否含3、5B、輸出列表中3、5C、將列表x中值為3的元素修改為5D、將列表x中任意3個(gè)值修改為5答案:C99.考慮這么一種情況:一個(gè)對(duì)象碰巧與另一個(gè)對(duì)象相對(duì)接近,但屬于不同的類,因?yàn)檫@兩個(gè)對(duì)象一般不會(huì)共享許多近鄰,所以應(yīng)該選擇()的相似度計(jì)算方法。A、平方歐幾里德距離B、余弦距離C、直接相似度D、共享最近鄰答案:D100.以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()A、冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響B(tài)、子樹可能在決策樹中重復(fù)多次C、決策樹算法對(duì)于噪聲的干擾非常敏感D、尋找最佳決策樹是答案:C101.對(duì)于DBSCAN,參數(shù)Eps固定,當(dāng)MinPts取值較大時(shí),會(huì)導(dǎo)致()A、能很好的區(qū)分各類簇B、只有高密度的點(diǎn)的聚集區(qū)劃為簇,其余劃為噪聲C、低密度的點(diǎn)的聚集區(qū)劃為簇,其余的劃為噪聲D、無影響答案:B102.下列請(qǐng)求報(bào)頭中,可以記載用戶信息實(shí)現(xiàn)模擬登錄的是()。A、User-AgentB、CookieC、ConnectionD、Host答案:A103.eSRVCC方案相對(duì)于SRVCC方案的增強(qiáng)在于減少了切換時(shí)長(zhǎng),eSRVCC切換時(shí)長(zhǎng)小于()A、20msB、40msC、160msD、300ms答案:D104.蘋果的FaceID基于3D結(jié)構(gòu)光技術(shù),硬件上不需要()A、點(diǎn)發(fā)射器B、紅外發(fā)射器C、紅外攝像頭D、數(shù)據(jù)線答案:D105.用戶使用小包傳輸?shù)臄?shù)據(jù)業(yè)務(wù)時(shí),哪項(xiàng)指標(biāo)對(duì)用戶感知的影響較明顯?A、首包時(shí)延B、響應(yīng)成功率C、下載速率D、登陸成功率答案:A106.下列哪種()算法不能從現(xiàn)有數(shù)據(jù)中挖掘類似群體A、指數(shù)平滑法B、K-means算法C、K-medoids算法D、CLARANS算法答案:A107.下列哪個(gè)協(xié)議可提供“ping”和“traceroute”這樣的故障診斷功能A、ICMPB、IGMPC、ARPD、RARP答案:A108.已知x=[1,2,3],執(zhí)行語句x.append(4)之后,x的值是什么?A、[1,2,3,4]B、[4]C、[1,2,3]D、4答案:A109.k均值聚類的目標(biāo)是()。A、最大化質(zhì)心距離B、最小化簇內(nèi)距離的平方和C、最大化簇間距離D、簇的大小基本一致答案:B110.有產(chǎn)品表,其結(jié)構(gòu)為:產(chǎn)品(產(chǎn)品號(hào),名稱,規(guī)格說明,單價(jià)),查詢單價(jià)在600元以上主機(jī)板和硬盤的正確命令是______。A、SELECT*FROM產(chǎn)品WHERE單價(jià)>600AND(名稱='主機(jī)板'AND名稱='硬盤');B、SELECI*FROM產(chǎn)品WHERE單價(jià)>600AND(名稱='主機(jī)板'OR名稱='硬盤');C、SELECT*FROM產(chǎn)品ON單價(jià)>600AND(名稱='主機(jī)板'AND名稱='硬盤');D、SELECT*FROM產(chǎn)品ON單價(jià)>600AND(名稱='主機(jī)板'OR名稱='硬盤');答案:B111.下列屬于間接數(shù)據(jù)挖掘的是()A、分類B、估值C、聚集D、預(yù)言答案:C112.頻繁項(xiàng)集、頻繁閉項(xiàng)集、最大頻繁項(xiàng)集之間的關(guān)系是:()A、頻繁項(xiàng)集頻繁閉項(xiàng)集=最大頻繁項(xiàng)集B、頻繁項(xiàng)集=頻繁閉項(xiàng)集最大頻繁項(xiàng)集C、頻繁項(xiàng)集頻繁閉項(xiàng)集最大頻繁項(xiàng)集D、頻繁項(xiàng)集=頻繁閉項(xiàng)集=最大頻繁項(xiàng)集答案:C113.關(guān)于性能度量不正確的是()A、性能度量是衡量模型泛化能力的評(píng)價(jià)標(biāo)準(zhǔn),反映了任務(wù)需求B、在對(duì)比不同模型的能力時(shí),使用不同的性能度量會(huì)導(dǎo)致不同的評(píng)判結(jié)果,這就意味著模型的“好壞”是相對(duì)的C、回歸任務(wù)最常用的性能度量是“均方誤差”D、性能度量實(shí)用意義不大答案:D114.關(guān)于K均值和DBSCAN的比較,以下說法不正確的是()。A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象。B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇。答案:A115.大數(shù)據(jù)背景下,數(shù)據(jù)支撐業(yè)務(wù)的目的是()A、建立數(shù)據(jù)科學(xué)B、完成數(shù)據(jù)應(yīng)用C、配備數(shù)據(jù)硬件D、吸納數(shù)據(jù)人才答案:B116.使用交互式的和可視化的技術(shù),對(duì)數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則答案:A117.OLAM技術(shù)一般簡(jiǎn)稱為”數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說法正確的是:A、OLAP和OLAM都基于客戶機(jī)/服務(wù)器模式,只有后者有與用戶的交互性;B、由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.C、基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.D、OLAM服務(wù)器通過用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操作.答案:D118.sklearn庫中提供()實(shí)現(xiàn)KNN算法A、k-NearerNeighborClassifierB、KNeighborsClassifierC、KNeighborClassifierD、k-NearestNeighborsClassifier答案:B119.下面哪項(xiàng)是集中性能管理面向終端專題()A、2/3G高流量小區(qū)遷移B、終端在網(wǎng)質(zhì)量評(píng)估分析C、客戶投訴溯源分析D、網(wǎng)絡(luò)實(shí)時(shí)性能監(jiān)控答案:D120.在上題中,屬于定量的屬性類型是:A、標(biāo)稱B、序數(shù)C、區(qū)間D、相異答案:C二、多選題1.關(guān)于Python內(nèi)存管理,下列說法正確的是()A、變量不必事先聲明B、變量無須先創(chuàng)建和賦值而直接使用C、變量無須指定類型D、可以使用del釋放資源答案:ACD2.以下哪些數(shù)據(jù)挖掘工具是開源的()A、KNIMEB、SPSSC、WEKAD、Orange答案:ACD3.以下哪些學(xué)科和數(shù)據(jù)挖掘有密切聯(lián)系?()A、統(tǒng)計(jì)B、計(jì)算機(jī)組成原理C、礦產(chǎn)挖掘D、人工智能答案:AD4.根據(jù)《中國(guó)移動(dòng)大數(shù)據(jù)安全管控分類分級(jí)實(shí)施指南》,以下哪些數(shù)據(jù)屬于B類數(shù)據(jù)A、短信、彩信、話音等通信內(nèi)容B、用戶通訊錄、好友列表、群組列表等用戶資料數(shù)據(jù)C、用戶上網(wǎng)訪問內(nèi)容D、即時(shí)通信內(nèi)容答案:ABCD5.以下哪個(gè)用戶上網(wǎng)流程不屬于業(yè)務(wù)面A、網(wǎng)絡(luò)附著B、TCP握手C、承載建立D、TAU更新答案:ACD6.關(guān)聯(lián)規(guī)則的評(píng)價(jià)指標(biāo)A、均方誤差B、均方根誤差C、支持度D、置信度答案:CD7.下列對(duì)ID3算法的描述,正確的是()A、每個(gè)節(jié)點(diǎn)的分支度都不相同B、使用InformationGain作為節(jié)點(diǎn)分割的依據(jù)C、可以處理數(shù)值型態(tài)的字段D、方法處理空值的字段答案:ABD8.用于分類與回歸應(yīng)用的主要算法有A、決策樹B、BP神經(jīng)網(wǎng)絡(luò)C、貝葉斯D、K均值答案:ABC9.在集團(tuán)公司四維十輪網(wǎng)絡(luò)質(zhì)量評(píng)估體系中,評(píng)估共享單車業(yè)務(wù)感知的主要指標(biāo)包括:A、共享單車業(yè)務(wù)響應(yīng)成功率(%)B、共享單車業(yè)務(wù)響應(yīng)時(shí)延(ms)C、共享單車業(yè)務(wù)下載速率(kbps)D、共享單車業(yè)務(wù)解鎖時(shí)延(ms)答案:AB10.以下sklearn中的模型,哪些是解決回歸分析的?()A、LinearRegressionB、SVRC、LogisticRegressionD、Ridge答案:ABD11.針對(duì)涉及多張表的取數(shù)需求,SQL查詢中至少因包含的關(guān)鍵字為A、selectB、joinC、createD、format答案:AB12.TD-LTE室內(nèi)覆蓋面臨的挑戰(zhàn)()A、覆蓋場(chǎng)景復(fù)雜多樣B、信號(hào)頻段較高,覆蓋能力差C、雙流模式對(duì)室分系統(tǒng)工程改造要求較高D、與WLAN系統(tǒng)存在復(fù)雜的互干擾問題答案:ABCD13.關(guān)于數(shù)據(jù)范式描述準(zhǔn)確的是:A、經(jīng)驗(yàn)科學(xué)是第一范式,主要研究模型是科學(xué)實(shí)驗(yàn);B、理論科學(xué)是第二范式,主要研究模型是數(shù)學(xué)模型;C、計(jì)算科學(xué)是第三范式,主要研究模型是計(jì)算機(jī)仿真和模擬,第三范式是“人腦+電腦”,人腦是主角;D、數(shù)據(jù)密集型科學(xué)是第四范式,的主要研究模型是數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí),特別是機(jī)器學(xué)習(xí),第四范式是“電腦+人腦”,電腦是主角。答案:ABCD14.貝葉斯信念網(wǎng)絡(luò)(BBN)有如下哪些特點(diǎn),A、構(gòu)造網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力B、正確模型的過分問題非常魯棒C、貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)D、網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩答案:AB15.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)?A、矩陣B、平行坐標(biāo)系C、星形坐標(biāo)D、散布圖E、Chernoff臉答案:ABCE16.確定一個(gè)投資方案可行的必要條件是()。A、凈現(xiàn)值大于零B、現(xiàn)值指數(shù)大于1C、投資回收期小于1年D、內(nèi)部報(bào)酬率較高答案:AB17.TD-LTE異系統(tǒng)切換步驟A、測(cè)量B、切換判決C、切換準(zhǔn)備D、切換執(zhí)行答案:ABCD18.下面那個(gè)TCP/IP傳輸層協(xié)議提供了端到端面向事務(wù)的高效連接服務(wù)A、IPB、TCPC、UDPD、ICMP答案:ABD19.屬于分裂的層次聚類算法有A、二分K均值B、MSTC、ChameleonD、組平均答案:AB20.下列對(duì)學(xué)生的描述屬性中,標(biāo)稱屬性的屬性是:A、婚姻狀況B、頭發(fā)顏色C、身高D、學(xué)號(hào)答案:ABD21.針對(duì)咪咕游戲業(yè)務(wù)提供市場(chǎng)營(yíng)銷支撐,可以從哪些維度入手分析A、游戲用戶識(shí)別B、熱點(diǎn)游戲識(shí)別C、質(zhì)差用戶識(shí)別D、價(jià)值區(qū)域識(shí)別答案:ABD22.以下關(guān)于非頻繁模式說法,正確的是()A、其支持度小于閾值B、都是不讓人感興趣的C、包含負(fù)模式和負(fù)相關(guān)模式D、對(duì)異常數(shù)據(jù)項(xiàng)敏感答案:AD23.以下各項(xiàng)均是針對(duì)數(shù)據(jù)倉庫的不同說法,你認(rèn)為正確的有()A、數(shù)據(jù)倉庫就是數(shù)據(jù)庫B、數(shù)據(jù)倉庫是一切商業(yè)智能系統(tǒng)的基礎(chǔ)C、數(shù)據(jù)倉庫是面向業(yè)務(wù)的,支持聯(lián)機(jī)事務(wù)處理(OLTP)D、數(shù)據(jù)倉庫支持決策而非事務(wù)處理E、數(shù)據(jù)倉庫的主要目標(biāo)就是幫助分析,做長(zhǎng)期性的戰(zhàn)略制定答案:BCDE24.在作邏輯回歸時(shí),如果區(qū)域這個(gè)變量,當(dāng)Region=A時(shí)Y取值均為1,無法確定是否出現(xiàn)的是哪個(gè)問題?A、共線性B、異常值C、擬完全分離(Quasi-completeseparation)D、缺失值答案:ABD25.Hadoop集群可以運(yùn)行的3個(gè)模式?A、單機(jī)(本地)模式B、偽分布式模式C、全分布式模式D、安全模式答案:ABC26.智能翻譯可以實(shí)現(xiàn)的功能為()A、多種語言翻譯B、語音翻譯C、方言翻譯D、拍照翻譯答案:ABCD27.偽分布模式中的注意點(diǎn)?A、偽分布式適用于開發(fā)和測(cè)試環(huán)境B、所有守護(hù)進(jìn)程都在同一臺(tái)機(jī)器上運(yùn)行C、守護(hù)進(jìn)程在不同的機(jī)器上運(yùn)行D、偽分布模式不能用于開發(fā)分布式代碼答案:AB28.層次聚類的聚類方式有()A、凝聚方式聚類B、分解方式聚類C、Q型聚類D、R型聚類答案:AB29.Weka是著名的開源機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘軟件,高級(jí)用戶可以通過哪些方式調(diào)用其分析組件A、Java編程B、命令行C、智能客服D、遠(yuǎn)程接口答案:AB30.以下關(guān)于CART和C5.0的說法,錯(cuò)誤的是:A、CART中的輸入變量和輸出變量可以是分類型也可以是數(shù)值型,而C5.0中的輸出變量只能是分類型B、CART能建立多叉樹,而C5.0只能建立二叉樹。C、CART以Gini系數(shù)和方差為基礎(chǔ)選擇最佳分組變量和分割點(diǎn),而C5.0則以信息熵為基礎(chǔ)計(jì)算信息增益率。D、CART只依據(jù)訓(xùn)練樣本集通過近似正態(tài)分布進(jìn)行剪枝,而C5.0依據(jù)檢驗(yàn)樣本集進(jìn)行剪枝答案:BD31.數(shù)據(jù)挖掘算法的組件包括:()A、模型或模型結(jié)構(gòu)B、評(píng)分函數(shù)C、優(yōu)化和搜索方法D、數(shù)據(jù)管理策略答案:ABCD32.文本挖掘的工具有()A、SPPTextMiningB、IBMDB2intelligentMinerC、SASTextMinerD、SPSSTextMining答案:BCD33.完全競(jìng)爭(zhēng)性的市場(chǎng)具有()等特點(diǎn)。A、任一企業(yè)無法操縱市場(chǎng)B、少數(shù)企業(yè)可以影響交易數(shù)量C、多個(gè)競(jìng)爭(zhēng)企業(yè)同時(shí)存在D、企業(yè)必須采取隨行就市定價(jià)法答案:ACD34.()這些數(shù)據(jù)特性都是對(duì)聚類分析具有很強(qiáng)影響的。A、高維性B、規(guī)模C、稀疏性D、噪聲和離群點(diǎn)答案:ABCD35.移動(dòng)網(wǎng)信令XDR包括以下哪些內(nèi)容A、移動(dòng)網(wǎng)通用信息B、公共信息C、信令信息D、通用業(yè)務(wù)信息答案:BC36.Attach成功率的指標(biāo)來源可能是A、網(wǎng)管系統(tǒng)B、網(wǎng)優(yōu)平臺(tái)C、集中性能平臺(tái)D、大數(shù)據(jù)平臺(tái)答案:ABCD37.以下哪個(gè)分布是右偏分布()A、均勻分布B、卡方分布C、F分布D、對(duì)數(shù)正態(tài)分布答案:BCD38.在PTN構(gòu)建的承載網(wǎng)絡(luò)中,經(jīng)常會(huì)用到鏈路聚合技術(shù)來實(shí)現(xiàn)對(duì)端口的保護(hù)和擴(kuò)大鏈路帶寬。使用U2000網(wǎng)管進(jìn)行監(jiān)控工作時(shí),經(jīng)常會(huì)發(fā)現(xiàn)有LAG_MEMBER_DOWN告警上報(bào),則觸發(fā)該告警上報(bào)的原因有A、端口的物理連接不可用B、聚合組端口運(yùn)行了LACP,但LACP報(bào)文收發(fā)不正常C、端口誤碼越限D(zhuǎn)、聚合組端口有環(huán)回設(shè)置答案:ABCD39.下列關(guān)于QOS的描述正確的是()A、EPS是在HSS和PCRF中簽約QOSB、HSS里可以簽約用戶建立的所有承載的QOSC、在GPRS系統(tǒng)中,Qos簽約在HLR中,對(duì)于每個(gè)PDP上下文,都要分配各自相應(yīng)的QosD、如果默認(rèn)承載的Qos不能滿足某種業(yè)務(wù)的需求,UE需要為其請(qǐng)求建立一個(gè)專有承載,由PGW基于PCRF授予的Qos參數(shù)來決定分配給專有承載的Qos,所以沒有必要在HSS里簽約專有承載的Qos答案:ACD40.對(duì)于一個(gè)二分類問題,現(xiàn)在已經(jīng)建立好了模型,該模型通過設(shè)置概率估計(jì)的閾值輸出0或1。初始時(shí)設(shè)概率估計(jì)閾值為0.5,超過0.5判別為1,否則就判別為0;如果現(xiàn)在用另一個(gè)大于0.5的閾值,那么模型評(píng)估指標(biāo)將發(fā)生什么變化()A、模型分類的召回率會(huì)降低或不變B、模型分類的召回率會(huì)升高C、模型分類精確率(Precision)會(huì)升高或不變D、模型分類精確率(Precision)會(huì)發(fā)生變化,但不能確定是升高還是降低答案:AD41.下面給出的t檢驗(yàn)的結(jié)果,()表明接受原假設(shè),顯著性水平為0.05。A、0.000B、0.039C、0.092D、0.124答案:CD42.利用中文文本繪制詞云時(shí),需要在anaoncda的基礎(chǔ)上安裝哪些工具包()。A、MatplotlibB、WordcloudC、Scikit-learnD、Jieba答案:BD43.以下算法中對(duì)缺失值敏感的有()A、Logistic回歸B、SVM算法C、CART決策樹D、樸素貝葉斯答案:AB44.數(shù)據(jù)預(yù)處理方法主要有()?A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)變換D、數(shù)據(jù)歸約答案:ABCD45.以下哪些學(xué)科和數(shù)據(jù)挖掘有密切聯(lián)系?()A、統(tǒng)計(jì)B、計(jì)算機(jī)組成原理C、礦產(chǎn)挖掘D、人工智能答案:AD46.在聚類分析當(dāng)中,可以處理任意形狀的簇的方法包括:A、MIN(單鏈)B、ChameleonC、MAX(全鏈)D、組平均答案:AB47.層次聚類主要有()類型A、凝集層次聚類B、凝聚層次聚類C、分散層次聚類D、分裂層次聚類答案:BD48.概率分析中,應(yīng)計(jì)算出()表明該風(fēng)險(xiǎn)因素的風(fēng)險(xiǎn)程度。A、變異系數(shù)B、期望值C、方差D、標(biāo)準(zhǔn)差答案:ABCD49.我們可以用哪種方式來避免決策樹過度擬合的問題?()A、利用修剪法來限制樹的深度B、利用盆栽法規(guī)定每個(gè)節(jié)點(diǎn)下的最小的記錄數(shù)C、利用逐步回歸法來刪除部分?jǐn)?shù)據(jù)D、目前并無適合的方法來處理這問題答案:AB50.大數(shù)據(jù)四大特征:A、速度快B、數(shù)據(jù)量大C、價(jià)值密度低D、類型多答案:ABCD51.聚類分析的應(yīng)用有()A、聚類分析可以作為其它算法的預(yù)處理步驟B、可以作為一個(gè)獨(dú)立的工具來獲得數(shù)據(jù)的分布情況,聚類分析是獲得數(shù)據(jù)分布情況的有效方法C、聚類分析可以完成孤立點(diǎn)挖掘D、客戶價(jià)值分析答案:ABCD52.《實(shí)時(shí)業(yè)務(wù)質(zhì)量監(jiān)控保障》落地手冊(cè)中提出的實(shí)時(shí)數(shù)據(jù)處理架構(gòu),給出了哪些參考架構(gòu)A、基于開源框架的流數(shù)據(jù)處理架構(gòu)B、基于自主研發(fā)的精簡(jiǎn)XDR架構(gòu)C、基于MPP數(shù)據(jù)庫架構(gòu)D、基于Spark框架架構(gòu)答案:AB53.貨幣時(shí)間價(jià)值用相對(duì)值來表示時(shí),在數(shù)量上應(yīng)當(dāng)理解為扣除()后的社會(huì)平均利潤(rùn)率。A、時(shí)間因素B、通貨膨脹因素C、純粹利率D、風(fēng)險(xiǎn)因素答案:BD54.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()A、矩陣B、平行坐標(biāo)系C、星形坐標(biāo)D散布圖D、Chernoff臉答案:ABCD55.XDR共享審核記錄中,至少包括以下哪些共享信息A、系統(tǒng)名稱B、使用數(shù)據(jù)用途C、共享數(shù)據(jù)類型D、共享數(shù)據(jù)范圍答案:ABCD56.從復(fù)雜度及價(jià)值高低兩個(gè)維度,可以將數(shù)據(jù)分析分為()A、描述性分析(DescriptiveAnalytics)B、診斷性分析(DiagnosticAnalytics)C、預(yù)測(cè)性分析(PredictiveAnalytics)D、規(guī)范性分析(PrescriptiveAnalytics)答案:ABCD57.按照性質(zhì),預(yù)測(cè)方法大致可分為()。A、定性預(yù)測(cè)B、情景預(yù)測(cè)C、時(shí)間序列預(yù)測(cè)D、回歸預(yù)測(cè)答案:ACD58.下列哪些指標(biāo)用于評(píng)估分類模型()A、AccuracyB、PrecisionC、MSED、Recall答案:ABD59.視頻播放準(zhǔn)備階段的KQI指標(biāo)包含______A、視頻播放成功率B、視頻首幀顯示時(shí)長(zhǎng)C、初始緩沖成功率D、視頻首次卡頓時(shí)長(zhǎng)答案:ABCD60.下列對(duì)于IP地址的描述正確的是A、主機(jī)部分全為“1”的IP址址稱為有限廣播B、0.x.y.z表示本網(wǎng)絡(luò)的指定主機(jī)C、一個(gè)A類網(wǎng)的IP址址x.0.0.0表示x這個(gè)網(wǎng)絡(luò)D、IP地址~55屬于保留地址答案:BCD61.檢索所有姓“張”、姓“田”的學(xué)生信息,可以使用的SQL語句有______。A、SELECT*FROMstudentWHEREstudent_nameLIKE('張%'OR'田%');B、SELECT*FROMstudentWHERESUBSTRING(student_name,1,1)in('張','田');C、SELECT*FROMstudentWHERESUBSTRING(student_name,1,1)='張'ORSUBSTRING(student_name,1,1)='田';D、SELECT*FROMstudentWHEREstudent_nameLIKE'張%'ORstudent_nameLIKE'田%';答案:BCD62.DBSCAN根據(jù)點(diǎn)的密度將點(diǎn)分為三類:()A、稠密區(qū)域內(nèi)部的點(diǎn)B、各樣本歸于最近的類中心點(diǎn)C、稠密區(qū)域邊緣上的點(diǎn)D、稀疏區(qū)域中的點(diǎn)答案:ACD63.GPRS/EDGE網(wǎng)絡(luò)的QoS包括哪幾項(xiàng)A、優(yōu)先等級(jí)Serviceprecedence(priority)B、可靠性等級(jí)ReliabilityC、延時(shí)等級(jí)delayD、峰值吞吐量等級(jí)PeakThroughputE、平均吞吐量等級(jí)AverageThroughput答案:ABCDE64.天貓分析人員希望通過聚類方法定位代商家刷信用級(jí)別的違規(guī)者,以下那種操作不應(yīng)該進(jìn)行()A、對(duì)變量進(jìn)行標(biāo)準(zhǔn)化B、對(duì)變量進(jìn)行百分位秩或Turkey正態(tài)性轉(zhuǎn)換C、對(duì)變量進(jìn)行因子分析或聚類分析D、對(duì)變量進(jìn)行分箱處理答案:BD65.聯(lián)機(jī)分析處理包括()基本分析功能。A、聚類B、切片C、轉(zhuǎn)軸D、切塊答案:BCD66.下列屬于互聯(lián)網(wǎng)普惠金融會(huì)造成的現(xiàn)象的是()A、消費(fèi)數(shù)據(jù)加持人工智能,解決了個(gè)人征信問題B、互聯(lián)網(wǎng)金融徹底改變了消費(fèi)習(xí)慣,用戶使用支付寶和微信就能完成99%的支持場(chǎng)景,中國(guó)進(jìn)入無現(xiàn)金社會(huì)C、支付寶旗下的天宏基金成為最大的貨幣基金D、用戶的零錢自動(dòng)轉(zhuǎn)余額寶,銀行短期存款消失,攬儲(chǔ)壓力山大答案:ABCD67.以下屬于聚類算法的是()。A、K均值B、DBSCANC、AprioriD、Jarvis-Patrick(JP)答案:ABD68.電子元器件:A、電子管B、晶體管C、小規(guī)模中規(guī)模集成電路D、大規(guī)?;虺笠?guī)模集成電路答案:ABCD69.關(guān)于CHAID算法,以下正確的是A、CHAID算法是一種決策樹算法B、CHAID的輸入變量和輸出變量只能是分類型變量C、CHAID只能建立二叉樹D、CHAID算法從統(tǒng)計(jì)顯著性檢驗(yàn)角度確定了當(dāng)前最佳分組變量和分割點(diǎn)。答案:AD70.打點(diǎn)模型把視頻業(yè)務(wù)分為接入階段與播放階段。其中接入階段又被細(xì)分為()A、初始緩沖準(zhǔn)備階段B、初始緩沖階段C、播放階段D、播放準(zhǔn)備階段答案:AB71.隨機(jī)對(duì)比實(shí)驗(yàn)的調(diào)查方法的優(yōu)點(diǎn)是()A、能夠測(cè)算實(shí)驗(yàn)誤差B、可以提高實(shí)驗(yàn)結(jié)果的可靠性C、可以節(jié)省分析過程和時(shí)間D、費(fèi)用開支小答案:AB72.常見的特征選擇方式包括()A、過濾法B、嵌入法C、包裝法D、主成分分析答案:ABC73.集中性能“四輪驅(qū)動(dòng)”包含以下業(yè)務(wù)()A、家寬業(yè)務(wù)B、集客業(yè)務(wù)C、新業(yè)務(wù)D、移動(dòng)業(yè)務(wù)答案:ABCD74.營(yíng)銷觀念是營(yíng)銷過程中如何處理()利益關(guān)系。A、企業(yè)B、員工C、顧客D、社會(huì)答案:ACD75.下邊屬于數(shù)據(jù)基本類型的是:A、數(shù)值B、字符串C、字典D、集合答案:AB76.以下選項(xiàng)能成為子查詢返回結(jié)果的是______。A、一個(gè)表B、一個(gè)值C、一列數(shù)據(jù)D、一個(gè)表達(dá)式#答案:ABC77.決策樹算法很容易出現(xiàn)過擬合,我們通常會(huì)使用一些剪枝手段來改善這一現(xiàn)象。對(duì)于sklearn.tree.DecisionTreeClassifier模型,下面這些參數(shù)哪些能起到剪枝的作用()A、criterionB、max_depthC、min_samples_splitD、min_impurity_split答案:BCD78.在《中國(guó)移動(dòng)集中性能管理應(yīng)用落地手冊(cè)-居民區(qū)4G&寬帶網(wǎng)絡(luò)能力全景分析》中,居民區(qū)常駐用戶識(shí)別模型是A、基于信令識(shí)別用戶常駐居民區(qū)B、基于MR打點(diǎn)法識(shí)別用戶常駐居民區(qū)C、基于語音話單識(shí)別用戶常駐居民區(qū)D、基于用戶寬帶開戶信息識(shí)別答案:ABCD79.在有關(guān)數(shù)據(jù)倉庫測(cè)試,下列說法中正確的是()A、在完成數(shù)據(jù)倉庫的實(shí)施過程中,需要對(duì)數(shù)據(jù)倉庫進(jìn)行各種測(cè)試.測(cè)試工作中要包括單元測(cè)試和系統(tǒng)測(cè)試B、當(dāng)數(shù)據(jù)倉庫的每個(gè)單獨(dú)組件完成后,就需要對(duì)他們進(jìn)行單元測(cè)試C、系統(tǒng)的集成測(cè)試需要對(duì)數(shù)據(jù)倉庫的所有組件進(jìn)行大量的功能測(cè)試和回歸測(cè)試D、在測(cè)試之前可以不制定詳細(xì)的測(cè)試計(jì)劃,測(cè)試過程中實(shí)時(shí)調(diào)整。答案:ABC80.關(guān)于DPI采集的xDRID,下面說法不正確的是?()A、一個(gè)信令流程或業(yè)務(wù)傳輸過程生成一個(gè)XDR_IDB、不同接口的xDRID不同C、一個(gè)XDR_ID可能對(duì)應(yīng)同一信令流程中的多條原始消息記錄D、同一用戶的XDRID永遠(yuǎn)相同答案:BD三、判斷題1.表達(dá)式(i**2foriinrange(100))的結(jié)果是個(gè)元組。A、正確B、錯(cuò)誤答案:B2.Bayes法是一種在已知后驗(yàn)概率與類條件概率的情況下的模式分類方法,待分樣本的分類結(jié)果取決于各類域中樣本的全體。()A、正確B、錯(cuò)誤答案:B3.k-means聚類算法無論對(duì)離散型屬性,還是對(duì)連續(xù)型屬性具有較好的聚類效果。A、正確B、錯(cuò)誤答案:B4.決策樹的后剪枝是通過在完全生長(zhǎng)的樹上剪去分枝實(shí)現(xiàn)的,通過刪除節(jié)點(diǎn)的分支來剪去樹節(jié)點(diǎn)。A、正確B、錯(cuò)誤答案:A5.從點(diǎn)作為個(gè)體簇開始,每一步合并兩個(gè)最接近的簇,這是一種分裂的層次聚類方法。A、正確B、錯(cuò)誤答案:B6.數(shù)據(jù)倉庫系統(tǒng)的組成部分包括數(shù)據(jù)倉庫,倉庫管理,數(shù)據(jù)抽取,分析工具等四個(gè)部分.()A、正確B、錯(cuò)誤答案:B7.基于鄰近度的離群點(diǎn)檢測(cè)方法不能處理具有不同密度區(qū)域的數(shù)據(jù)集。A、正確B、錯(cuò)誤答案:A8.K-均值聚類算法是一種基于原型的、根據(jù)距離劃分組的算法。A、正確B、錯(cuò)誤答案:A9.樸素貝葉斯分類基于貝葉斯定理的一種分類方法。A、正確B、錯(cuò)誤答案:A10.內(nèi)連接查詢INNERJOIN可以獲得兩個(gè)表中連接字段值相等的所有記錄。A、正確B、錯(cuò)誤答案:A11.SVM是這樣一個(gè)分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimalmarginclassifier)A、正確B、錯(cuò)誤答案:B12.聚類(clustering)是這樣的過程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類標(biāo)記未知的對(duì)象類。()A、正確B、錯(cuò)誤答案:B13.LF、RF算法分別為邏輯回歸算法、隨機(jī)森林算法的簡(jiǎn)稱。A、正確B、錯(cuò)誤答案:A14.啤酒和尿布的故事是聚類分析的典型案例。A、正確B、錯(cuò)誤答案:B15.數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測(cè)數(shù)據(jù)等任務(wù)。()A、正確B、錯(cuò)誤答案:A16.分類和回歸都可用于預(yù)測(cè),分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。A、正確B、錯(cuò)誤答案:A17.已知x是一個(gè)足夠大的numpy二維數(shù)組,那么語句x[0,2]=4的作用是把行下標(biāo)為0、列下標(biāo)為2的元素值改為4。A、正確B、錯(cuò)誤答案:A18.Python集合支持雙向索引。A、正確B、錯(cuò)誤答案:B19.已知x為非空列表,那么執(zhí)行語句x[0]=3之后,列表對(duì)象x的內(nèi)存地址不變。A、正確B、錯(cuò)誤答案:A20.聚類分析的過程中,聚類效果較好時(shí)屬于同一個(gè)簇的對(duì)象相似度很高,而屬于不同簇的對(duì)象相似度很低。A、正確B、錯(cuò)誤答案:A21.使用內(nèi)置函數(shù)open()打開文件時(shí),只要文件路徑正確就總是可以正確打開的。A、正確B、錯(cuò)誤答案:B22.在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。()A、正確B、錯(cuò)誤答案:B23.聚類分析可以看作是一種非監(jiān)督的分類。()A、正確B、錯(cuò)誤答案:A24.數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測(cè)數(shù)據(jù)等任務(wù)。()A、正確B、錯(cuò)誤答案:A25.已知x和y是兩個(gè)字符串,那么表達(dá)式sum((1fori,jinzip(x,y)ifi==j))可以用來計(jì)算兩個(gè)字符串中對(duì)應(yīng)位置字符相等的個(gè)數(shù)。A、正確B、錯(cuò)誤答案:A26.對(duì)于帶有else子句的循環(huán)語句,如果是因?yàn)檠h(huán)條件表達(dá)式不成立而自然結(jié)束循環(huán),則執(zhí)行else子句中的代碼。A、正確B、錯(cuò)誤答案:A27.正確于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本正確分類結(jié)果沒有影響。A、正確B、錯(cuò)誤答案:A28.信息熵給出了一種度量不確定性的方式,是用來衡量隨機(jī)變量不確定性的,熵就是信息的期望值。A、正確B、錯(cuò)誤答案:A29.在一元回歸分析中,用r表示因變量對(duì)自變量的相關(guān)系數(shù),當(dāng)|r|接近1時(shí),用回歸直線來表達(dá)因變量與自變量之間的線性關(guān)系就不準(zhǔn)確。A、正確B、錯(cuò)誤答案:B30.支持度不需要考慮前件與后件發(fā)生的順序,而置信度需要考慮。A、正確B、錯(cuò)誤答案:A31.給定由兩次運(yùn)行K均值產(chǎn)生的兩個(gè)不同的簇集,誤差的平方和最大的那個(gè)應(yīng)該被視為較優(yōu)。A、正確B、錯(cuò)誤答案:B32.已知x=‘hellowworld.’.encode(),那么表達(dá)式x.decode(‘gbk’)的值為’hellowWorld.’。A、正確B、錯(cuò)誤答案:A33.如果一個(gè)對(duì)象不強(qiáng)屬于任何簇,那么該對(duì)象是基于聚類的離群點(diǎn)。()A、正確B、錯(cuò)誤答案:A34.“大數(shù)據(jù)”是指規(guī)模超過1000TB的數(shù)據(jù)集。A、正確B、錯(cuò)誤答案:B35.re模塊中的match方法是從字符串的開頭對(duì)輸入的正則表達(dá)式進(jìn)行匹配。A、正確B、錯(cuò)誤答案:A36.關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。()A、正確B、錯(cuò)誤答案:B37.一個(gè)算法的優(yōu)劣可以用空間復(fù)雜度(SpaceComplexity)與時(shí)間復(fù)雜度(Timecomplexity)來衡量。A、正確B、錯(cuò)誤答案:A38.模型樹構(gòu)建之后,為了避免過度擬合,需要對(duì)模型樹進(jìn)行剪枝。A、正確B、錯(cuò)誤答案:A39.邊際收入是指每增加1單位銷量所帶來的總收入的增加額度。A、正確B、錯(cuò)誤答案:A40.可視化技術(shù)對(duì)于分析的數(shù)據(jù)類型通常不是專用性的。()A、正確B、錯(cuò)誤答案:B41.對(duì)于生成器對(duì)象x=(3foriinrange(5)),連續(xù)兩次執(zhí)行l(wèi)ist(x)的結(jié)果是一樣的。A、正確B、錯(cuò)誤答案:B42.K均值聚類算法,簇的個(gè)數(shù)由算法自動(dòng)地確定。()A、正確B、錯(cuò)誤答案:B43.數(shù)據(jù)規(guī)范化指將數(shù)據(jù)按比例縮放(如更換大單位),使之落入一個(gè)特定的區(qū)域(如0-1)以提高數(shù)據(jù)挖掘效率的方法。規(guī)范化的常用方法有:最大-最小規(guī)范化、零-均值規(guī)范化、小數(shù)定標(biāo)規(guī)范化。()A、正確B、錯(cuò)誤答案:A44.在K-中心點(diǎn)聚類算法中,非中心對(duì)象可以替代中心對(duì)象的條件是替代后總代價(jià)大于零。A、正確B、錯(cuò)誤答案:B45.GET請(qǐng)求是指向指定資源提交數(shù)據(jù)進(jìn)行處理請(qǐng)求,數(shù)據(jù)被包含在請(qǐng)求體中。A、正確B、錯(cuò)誤答案:A46.OLAP技術(shù)側(cè)重于把數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行分析、轉(zhuǎn)換成輔助決策信息,是繼數(shù)據(jù)庫技術(shù)發(fā)展之后迅猛發(fā)展起來的一種新技術(shù)。()A、正確B、錯(cuò)誤答案:A47.時(shí)序預(yù)測(cè)回歸預(yù)測(cè)一樣,也是用已知的數(shù)據(jù)預(yù)測(cè)未來的值,但這些數(shù)據(jù)的區(qū)別是變量所處時(shí)間的不同。()A、正確B、錯(cuò)誤答案:B48.服務(wù)器可以根據(jù)請(qǐng)求報(bào)頭中的Accept進(jìn)行判斷,以返回適當(dāng)?shù)奈募袷浇o瀏覽器。A、正確B、錯(cuò)誤答案:A49.人的血型屬于標(biāo)稱屬性。()A、正確B、錯(cuò)誤答案:A50.聚類(clustering)是這樣的過程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類標(biāo)記未知的對(duì)象類。A、正確B、錯(cuò)誤答案:B51.歸納法是一種從個(gè)別到一般的推理方法。A、正確B、錯(cuò)誤答案:A52.隨機(jī)森林中的每棵樹都不進(jìn)行剪枝,因此過擬合的風(fēng)險(xiǎn)很高。A、正確B、錯(cuò)誤答案:B53.四分位數(shù)極差(IQR)是第1個(gè)和第2個(gè)四分位數(shù)之間的距離。A、正確B、錯(cuò)誤答案:B54.利用先驗(yàn)原理可以幫助減少頻繁項(xiàng)集產(chǎn)生時(shí)需要探查的候選項(xiàng)個(gè)數(shù)。A、正確B、錯(cuò)誤答案:A55.基于鄰近度的離群點(diǎn)檢測(cè)方法不能處理具有不同密度區(qū)域的數(shù)據(jù)集。()A、正確B、錯(cuò)誤答案:A56.分類是總結(jié)已有類別對(duì)象的特點(diǎn),并根據(jù)這些特點(diǎn),進(jìn)行未知類別對(duì)象的類別預(yù)測(cè)的過程。又可稱為無監(jiān)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論