1+X大數(shù)據(jù)平臺運維(中級)理論考核試題及答案_第1頁
1+X大數(shù)據(jù)平臺運維(中級)理論考核試題及答案_第2頁
1+X大數(shù)據(jù)平臺運維(中級)理論考核試題及答案_第3頁
1+X大數(shù)據(jù)平臺運維(中級)理論考核試題及答案_第4頁
1+X大數(shù)據(jù)平臺運維(中級)理論考核試題及答案_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1+X大數(shù)據(jù)平臺運維(中級)理論考核一、單選題1.以下哪種情況容易引發(fā)HDFS負載不均問題()[單選題]。A、HDFS中存儲的文件大小不一,小文件太多B、HDFS中Block的大小設置不合理C、Data各數(shù)據(jù)節(jié)點磁盤規(guī)格和空間大小有差異√D、NameNode與DataNode節(jié)點在同一物理服務器上2.MapReduce中可能引起負載問題的原因有哪些()[單選題]。A、MapReduce需要處理的數(shù)據(jù)量過大B、數(shù)據(jù)本身的格式問題,例如:文檔格式混亂C、DataNode節(jié)點與Map節(jié)點不在一起D、Map中Key值選取和設定問題,導致Key值過于集中√3.下面哪些不是引起Spark負載不均的原因()[單選題]。A、Spark讀入的數(shù)據(jù)源是傾斜的B、Shuffle階段Key值過于集中C、在數(shù)據(jù)過濾階段需要處理的數(shù)據(jù)量差異D、Spark的運行方式差異√4.哪些不是引起Hive數(shù)據(jù)傾斜的原因?()[單選題]*A、數(shù)據(jù)在節(jié)點存儲上分布不均B、運算中Key值分布不均C、業(yè)務數(shù)據(jù)本身存在分布不均D、Hive中表數(shù)量的多少√5.Hive數(shù)據(jù)傾斜的表現(xiàn)()[單選題]。A、Hive建表后數(shù)據(jù)無法導入B、Hive無法啟動C、Hivesql語句運行異常直接退出D、Hive運算任務為報錯單長期卡在99%√6.下列大數(shù)據(jù)特點中錯誤的是()[單選題]。A、數(shù)據(jù)體量大B、數(shù)據(jù)種類多C、處理速度快D、價值密度高√7.下列不屬于數(shù)據(jù)存儲技術的是()[單選題]。A、MySQLB、Storm√C、HDFSD、HBase8.企業(yè)使用大數(shù)據(jù)平臺基于()做分析報表[單選題]。A、MongoDBB、BIC、Hive√D、SQL9.大數(shù)據(jù)存儲是指用存儲器,以()的形式,存儲采集到數(shù)據(jù)的過程[單選題]。A、數(shù)據(jù)庫/數(shù)據(jù)倉庫√B、集群C、文件系統(tǒng)D、信息系統(tǒng)10.下列()不是非關系型數(shù)據(jù)庫[單選題]。A、HBaseB、RedisC、Hive√D、MongoDB11.下列不屬于大數(shù)據(jù)項目實施工作流程的是()[單選題]。A、項目規(guī)劃階段B、數(shù)據(jù)治理階段C、項目設計階段D、系統(tǒng)運維階段√12.在大數(shù)據(jù)項目規(guī)劃階段中,()階段確認大數(shù)據(jù)項目范圍和建設目標[單選題]。A、需求調研√B、業(yè)務調研C、數(shù)據(jù)需求D、項目規(guī)劃13.數(shù)據(jù)來源評估一般在()階段進行[單選題]。A、項目規(guī)劃B、數(shù)據(jù)治理√C、項目設計D、數(shù)據(jù)應用14.在數(shù)據(jù)倉庫的數(shù)據(jù)架構中,()具有按業(yè)務場景組織數(shù)據(jù)的能力[單選題]。A、結構化數(shù)據(jù)B、列式數(shù)據(jù)√C、文檔數(shù)據(jù)D、非結構化數(shù)據(jù)15.()是檢查系統(tǒng)對非法侵入的防范能力[單選題]。A、功能測試B、性能測試C、安全測試√D、驗收測試16.下列哪項通常是集群的最主要瓶頸(c)[單選題]。A、CPUB、網(wǎng)絡C、磁盤IO√D、內(nèi)存17.非關系型數(shù)據(jù)庫不包括()[單選題]。A、HBaseB、Mapreduce√C、Neo4jD、MongoDB18.下列關于大數(shù)據(jù)中計算機存儲容量單位的說法中,錯誤的是()[單選題]。A、基本存儲容量單位是字節(jié)(Byte)B、漢字字符存儲空間要大于英文字符存儲空間C、一個英文字符需要2個字節(jié)的存儲空間√D、一個漢字字符需要2個字節(jié)的存儲空間19.啤酒和尿布的關系是大數(shù)據(jù)在()行業(yè)的典型應用[單選題]。A、醫(yī)療B、地產(chǎn)C、電商D、零售√20.如今輿情分析大數(shù)據(jù)平臺系統(tǒng)多采用()架構[單選題]。A、Lambda√B、KappaC、流式D、Unifield21.配置主機名和IP地址映射的文件位置是()[單選題]*A、/home/hostsB、/usr/local/hostsC、/etc/hostD、/etc/hosts√22.使配置的環(huán)境變量生效的命令是()[單選題]*A、vi~/.bashrcB、source~/bashrcC、cat~/.bashrcD、source~/.bashrc√23.下列哪項通常是集群的最主要瓶頸()[單選題]*A、CPUB、網(wǎng)絡C、磁盤IO√D、內(nèi)存24.下面哪個程序負責HDFS數(shù)據(jù)存儲()[單選題]*A、Datanode√B、NameNodeC、JobtrackerD、secondaryNameNode25.HDfS中的block默認保存()份[單選題]。A、3份√B、2份C、1份D、不確定26.1.Linux下啟動HDFS的命令是()[單選題]*A、HdfsB、startdfsC、start-dfs.sh√D、start-dfs.cmd27.關于SecondaryNameNode哪項是正確的?()[單選題]*A、它是NameNode的熱備B、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間√C、它對內(nèi)存沒有要求D、SecondaryNameNode應與NameNode部署到一個節(jié)點28.端口50070默認是HDFS哪個服務的端口?()[單選題]*A、NameNode√B、DataNodeC、SecondaryNameNodeD、GFS29.配置Hadoop文件參數(shù)時,配置項“dfs.replication”應該配置在哪個文件?()[單選題]*A、core-site.xmlB、hdfs-site.xml√C、mapred-site.xmlD、yarn-site.xml30.Hadoop集群的關閉命令是?()[單選題]*A、stop-dfs.shB、stop-yarn.shC、stop-all.sh√D、stop-hadoop.sh31.下列哪個程序通常與NameNode在一個節(jié)點啟動()[單選題]。A、SecondaryNameNodeB、DataNodeC、TaskTrackerD、Jobtracker√32.配置Hadoopha文件參數(shù)時,JAVA_HOME包含在哪一個配置文件中()[單選題]*A、hadoop-default.xmlB、hadoop-env.sh√C、hadoop-site.xmlD、configuration.xsl33.下列哪一個是HADOOPHA啟動的第一個進程()[單選題]*A、啟動zookeeper√B、啟動journalnodeC、在master1上執(zhí)行命令,啟動hdfs和yarnD、在master2上執(zhí)行命令,啟動yarn34.下列哪一個是zookeeper的進程()[單選題]*A.DFSZKFailoverControllerB.QuorumPeerMain√C.JournalNodeD.NodeManage35.注冊ZNode的命令是()[單選題]*A、bin/hdfszkfc-formatZK√B、sbin/hdfszkfc-formatZKC、bin/hdfszkfc-fromatZKD、sbin/hdfszkfc-fromatZK36.以下對Flume架構描述不正確的是()[單選題]*A、Flume的核心就是AgentB、Sink負責將數(shù)據(jù)發(fā)送到外部指定的目的地C、Source接收到數(shù)據(jù)之后,將數(shù)據(jù)發(fā)送給Sink√D、Channel作為一個數(shù)據(jù)緩沖區(qū)會臨時存放一些數(shù)據(jù)37.Sqoop工具接收到命令后通過任務翻譯器,將命令轉換為()[單選題]*A、MapReduce任務√B、Translate任務C、Map任務D、Reduce任務38.以下對Flume描述錯誤的是()[單選題]*A、高可用的B、高可靠的C、負責海量日志采集D、負責處理數(shù)據(jù)√39.Flume數(shù)據(jù)傳輸?shù)幕締卧牵ǎ單選題]*A、Event√B、ClientC、ChannelD、Sink40.Kafka的設計初衷不包括()[單選題]*A、處理海量日志B、用戶行為統(tǒng)計C、網(wǎng)站運營統(tǒng)計D、數(shù)據(jù)轉換√41.SparkonYarn有兩種接口模式是()[單選題]*A、Client模式和Cluster模式√B、Consumers模式和Producer模式C、Local模式和Remote模式D、Resource模式和Application模式42.當啟動一個SparkShell時,SparkShell已經(jīng)預先創(chuàng)建好一個SparkContext對象,其變量名為()[單選題]*A、sc√B、ccC、snD、nc43.RDD是含義是()[單選題]*A、彈性分布式數(shù)據(jù)集√B、彈性運算數(shù)據(jù)集C、可重復操作數(shù)據(jù)D、遠端數(shù)據(jù)定義44.以下哪個不是Spark中WorkerNode的作用()[單選題]*A、通過注冊機制向ClusterMaster匯報自身的cpu和memory等資源B、Master的指示下創(chuàng)建啟動Executor,Executor是執(zhí)行真正計算的苦力C、將資源和任務進一步分配給ExecutorD、同步資源信息、Executor狀態(tài)信息給Driver√45.以下對窄依賴描述正確的是()[單選題]*A、可以表現(xiàn)為一個父RDD的分區(qū)對應于一個子RDD的分區(qū),對輸入進行協(xié)同劃分√B、可以表現(xiàn)為多個父RDD的分區(qū)對應于一個子RDD的分區(qū),對輸入進行非協(xié)同劃分C、表現(xiàn)為存在一個父RDD的一個分區(qū)對應一個子RDD的多個分區(qū),對輸入進行非協(xié)同劃分D、表現(xiàn)為存在一個父RDD的一個分區(qū)對應一個子RDD的多個分區(qū),對輸入進行協(xié)同劃分46.Linux操作系統(tǒng)vm.swappiness參數(shù)值被設置為10,它的含義是()[單選題]*A、內(nèi)存使用量達到系統(tǒng)內(nèi)存的90%時,操作系統(tǒng)會相當頻繁地使用磁盤上的交換文件√B、內(nèi)存使用量達到系統(tǒng)內(nèi)存的10%時,操作系統(tǒng)會相當頻繁地使用磁盤上的交換文件C、內(nèi)存使用量達到系統(tǒng)內(nèi)存的90%時,操作系統(tǒng)不會地使用磁盤上的交換文件D、內(nèi)存使用量達到系統(tǒng)內(nèi)存的10%時,操作系統(tǒng)不會地使用磁盤上的交換文件47.禁用ipv6需要修改的是哪個配置文件()[單選題]*A./etc/sysctl.conf√B./etc/profileC.~/.bashrcD./etc/networks48.禁止記錄訪問時間戳需要修改什么參數(shù)()[單選題]*A、noatime和nodiratime√B、notime和nodirtimeC、atime和diratimeD、time和dirtime49.增大可打開文件描述符數(shù)目需要修改哪個配置文件()[單選題]*A、/etc/security/limits.conf√B、/etc/security/limt.confC、/etc/conf/limits.confD、/etc/conf/limit.conf50.以下對Linux下的大頁描述錯誤的是()[單選題]*A、Linux下的大頁分為標準大頁和透明大頁兩種類型B、標準大頁管理是預分配的方式C、透明大頁管理是靜態(tài)分配的方式√D、Linux系統(tǒng)默認開啟透明大頁面功能二、多選題1.大數(shù)據(jù)處理流程一般分為()。[多選題]*A、數(shù)據(jù)采集與預處理√B、數(shù)據(jù)存儲√C、數(shù)據(jù)分析與挖掘√D、數(shù)據(jù)可視化√2.大數(shù)據(jù)技術面臨的挑戰(zhàn)主要有()。[多選題]*A、可靠性√B、可用性√C、安全性√D、高效性E、可擴展性√3.下列屬于數(shù)據(jù)可視化軟件及工具的有哪些()。[多選題]*A、Echarts√B、Python中Matplotlib、pyecharts等庫包√C、R語言中ggplot2、highcharter等庫包√D、D3.js√4.大數(shù)據(jù)實施工程師的工作職責有()。[多選題]*A.負責Hadoop、Spark、Storm等大數(shù)據(jù)平臺的規(guī)劃、部署、監(jiān)控、系統(tǒng)優(yōu)化等工作,確保系統(tǒng)持續(xù)穩(wěn)定、高效運行√B.負責大數(shù)據(jù)平臺系統(tǒng)運營規(guī)范,及運營工具系統(tǒng)的設計與開發(fā)實現(xiàn)√C.負責PoC(ProofofConcept,原型驗證),在客戶業(yè)務場景下驗證大數(shù)據(jù)產(chǎn)√品的功能與性能D.與客戶溝通了解需求,在客戶業(yè)務場景下根據(jù)客戶的需求進行大數(shù)據(jù)項目實施,安裝部署大數(shù)據(jù)平臺軟件√E.深入理解系統(tǒng)平臺,為其持續(xù)優(yōu)化提供建設性意見√5.大數(shù)據(jù)運維工程師日常工作主要是()。[多選題]*A.大數(shù)據(jù)集群的構建√B.大數(shù)據(jù)集群的任務調度、監(jiān)控預警√C.大數(shù)據(jù)集群容量規(guī)劃、擴容、集群性能優(yōu)化√D.大數(shù)據(jù)系統(tǒng)日常巡檢、應急值守和故障處理√E.根據(jù)客戶需求進行大數(shù)據(jù)應用接入和對接培訓6.故障排查流程一般包括()。[多選題]*A.應急處置與故障定位√B.故障報告√C.故障檢查√D.故障診斷√7.關于H3CDataEngineBI商業(yè)智能大數(shù)據(jù)平臺說法正確的是()。[多選題]*A、采用B/S架構,純Java語言開發(fā),支持所有可部署JDK的操作系統(tǒng)√B、支持所有的有JDBC接口的數(shù)據(jù)庫√C、支持DataEngineHadoop和MPP分布式數(shù)據(jù)庫等主流大數(shù)據(jù)平臺√D、具有分布式分析能力,可快速實現(xiàn)數(shù)據(jù)可視化分析√8.元數(shù)據(jù)的內(nèi)容包括()。[多選題]*A、對數(shù)據(jù)質量的描述√B、對數(shù)據(jù)處理信息的說明√C、對數(shù)據(jù)集的描述√D、對數(shù)據(jù)轉換方法的描述√9.美國治理警察超速行駛是通過()發(fā)現(xiàn)問題的[單選題]。A、通過人工觀察B、通過對不同高速路口收費站的原始數(shù)據(jù)記錄的比對挖掘分析√C、警車上的跟蹤設備產(chǎn)生的報告進行挖掘分析D、治安監(jiān)控錄像資料匯總分析10.Hadoop集群的三大核心組件是()[多選題]*A、HDFS√B、MapReduce√C、ZookeeperD、YARN√11.下列哪個是Hadoop運行的模式:()[多選題]*A、單機版√B、偽分布式√C、分布式√D、Zookeeper12.下列哪項可以作為集群的管理?()[多選題]*A、Puppet√B、Pdsh√C、Zookeeper√D、ClouderaManager13.啟動yarn命令后會出現(xiàn)哪些進程()[多選題]*A、NameNodeB、NodeManager√C、ResourceManager√D、DataNode14.ZooKeeper的Server節(jié)點主要由哪些角色組成?()[多選題]*A、Leader√B、Follower√C、ManagerD、Learner15.Follower節(jié)點的主要功能有()[多選題]*A、向Leader發(fā)送請求√B、接收Leader消息并進行處理√C、接收Client的請求,如果為寫請求要發(fā)送給Leader進行投票√D、返回給Client結果√16.可以用幾臺機器配置高可用()[多選題]*A、1B、3√C、4D、5√17.下列哪一個不是在slave1上使用的命令()[多選題]*A、bin/hdfsnamenode-bootstrapStandbyB、sbin/hadoop-daemon.shstartnamenodeC、sbin/yarn-daemon.shstartproxyserver√D、sbin/start-dfs.sh√18.下列那些是hadoopha啟動完成的進程()[多選題]*A、NameNode√B、DFSZKFailoverController√C、JobHistoryServer√D、QuorumPeerMain√19.以下哪些屬于ETL工具()[多選題]*A、sqoop√B、Flume√C、Kafka√D、Spark20.Flume的Agent包括哪些()[多選題]*A、Source√B、Channel√C、Sink√D、Data21.以下哪些是Kafka的特性()[多選題]*A、分布式√B、高吞吐量√C、支持多分區(qū)√D、單副本22.Spark包含哪幾種模式()[多選題]*A、本地模式(local)√B、Standalone模式√C、SparkonYarn模式√D、SparkonMesos模式√23.Yarn主要涉及到以下哪幾個角色()[多選]*A、RM:ResourceManager(資源管理者)√B、NM:NodeMananger(節(jié)點管理者)√C、AM:ApplicationMaster(應用程序管理者)√D、PM:ProgramManager(程序管理者)24.以下哪些是Spark的特點()[多選題]*A、運行處理速度快√B、運行模式多樣性√C、易于使用√D、交互性25.以下對臟頁配置參數(shù)的描述哪些是正確的()[多選題]*A、vm.dirty_background_ratio內(nèi)存可以填充“臟數(shù)據(jù)”的百分比√B、vm.dirty_expire_centisecs指定臟數(shù)據(jù)能存活的時間√C、vm.dirty_ratio臟數(shù)據(jù)百分比的絕對限制值√D、vm.dirty_writeback_centisecs指定pdflush/flush/kdmflush進程執(zhí)行間隔√26.目前主流Linux發(fā)行版本使用I/O調度器有哪些()[多選題]*A、DeadLine√B、CFQ√C、NOOP√D、Scheduler27.在Linux中,查看服務器負載和資源占用情況的常用命令有()[多選題]*A、free√B、top√C、iostatsD、Vmstats28.Hive有哪些表的數(shù)據(jù)類型?()[多選題]*A、內(nèi)部表√B、外部表√C、分區(qū)表√D、桶√29.7、Hive的訪問方式有哪些?()[多選題]*A、shell√B、JDBC√C、WebUI√D、ssh30.8、Hive的主要特點:()[多選題]*A、可伸縮√B、高容錯√C、類SQL語言√D、批處理√三、判斷題1.大數(shù)據(jù)處理速度快,但時效性要求卻很低。對錯√2.大數(shù)據(jù)的數(shù)據(jù)類型豐富,包括結構化數(shù)據(jù)、半結構化數(shù)據(jù)和非結構化數(shù)據(jù)。對√錯3.大數(shù)據(jù)來源包括:傳統(tǒng)商業(yè)數(shù)據(jù)、互聯(lián)網(wǎng)數(shù)據(jù)和物聯(lián)網(wǎng)數(shù)據(jù)。對錯√4.日志一般為結構化或非結構化的二進制文件,可以利用日志分析工具進行事后分析[單選題]。(對)√(錯)5.故障報告應該寫清故障時間、故障表現(xiàn)、理論表現(xiàn)、故障有關的操作以及如何重現(xiàn)[單選題]。(對)√(錯)6.Elasticsearch是一個分布式的開源搜索和分析引擎,適用于所有類型的數(shù)據(jù),包括文本、數(shù)字、地理空間、結構化和非結構化數(shù)據(jù)[單選題]。(對

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論