2025年《hadoop基礎練習》通關必做強化訓練試題庫500題及答案_第1頁
2025年《hadoop基礎練習》通關必做強化訓練試題庫500題及答案_第2頁
2025年《hadoop基礎練習》通關必做強化訓練試題庫500題及答案_第3頁
2025年《hadoop基礎練習》通關必做強化訓練試題庫500題及答案_第4頁
2025年《hadoop基礎練習》通關必做強化訓練試題庫500題及答案_第5頁
已閱讀5頁,還剩147頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

PAGEPAGE1一、單選題1.下列關于zookeeper描述正確的是:A、無論客戶端連接的是哪個Zookeeper服務器,其看到的服務端數(shù)據(jù)模型都是一致的B、從同一個客戶端發(fā)起的事務請求,最終將會嚴格按照其發(fā)起順序被應用到zookeeper中C、在一個5個節(jié)點組成的Zookeeper集群中,如果同時有3臺機器宕機,服務不受影響D、如果客戶端連接到Zookeeper集群中的那臺機器突然宕機,客戶端會自動切換連接到集群其他機器答案:A2.MapReduce編程模型,鍵值對<key,value>的key必須實現(xiàn)哪個接口?A、ComparableB、WritableComparableC、WritableD、LongWritable答案:B3.Shufile階段中哪一步是可選的?()A、排序B、分區(qū)C、分組D、規(guī)約答案:D4.以下選項哪個命令可以查看主機信息(A)A、nmclidevB、nmcliconshC、ifupteam0D、teamdctlteam0st答案:A5.以下哪種不是Hive支持的數(shù)據(jù)類型?A、StructB、IntC、MapD、Long答案:D6.在Hadoop項目結構中,MapReduce指的是什么?A、分布式并行編程模型B、流計算框架C、Hadoop上的工作流管理系統(tǒng)D、提供分布式協(xié)調一致性服務答案:A7.下列選項哪個不是ZooKeeper的應用場景?A、Master選舉B、分布式鎖C、分布式協(xié)調/通知D、存儲非關系型數(shù)據(jù)答案:D8.以下哪個不是Hive的用戶接口模塊:A、PMIB、HWI(HiveWebInterface)C、JDBC/ODBCD、ThriftServer答案:A9.在Python中,關于Python聲明變量的規(guī)則錯誤的是A、不能用數(shù)字開頭B、不能是python的關鍵字C、讓變量名盡量有意義些D、不能帶有下劃線等特殊符號答案:D10.在本次項目實施中,需求調研前的準備不包括()。A、充分了解客戶的要求,客戶的業(yè)務,客戶的關注重點。B、接到調研任務,將計劃寫好,立即就開始和用戶溝通。C、編制確定客戶需求調研計劃和調研提綱。D、和客戶負責人溝通,確定客戶需求小組成員。答案:B11.下列不屬于分布式數(shù)據(jù)庫系統(tǒng)的是()。A、HBaseB、BigTableC、NoSQLD、SQLServer答案:D12.關于NameNode和SecondaryNameNode的說法錯誤的是()A、NameNode上實現(xiàn)的NamenodeProtocol用于二者命令通信B、數(shù)據(jù)的通信使用的是ftp協(xié)議(http協(xié)議)C、數(shù)據(jù)通信使用的是http協(xié)議D、協(xié)議的容器是jetty答案:B13.在Java中,哪個方法是實現(xiàn)Runnable接口必須實現(xiàn)的A、wait()B、run()C、stop()D、update()答案:B14.在Python中,關于CSV文件特征說法錯誤的是A、純文本B、由記錄組成C、每條記錄被分隔符分隔為字段D、是一種使用{}和[]組成的文件格式答案:D15.下列哪種類型的文件不是HDFS集群的元數(shù)據(jù)存儲格式?A、fsimageB、editsC、blk_000003425D、edits_inprogress答案:C16.下列關于HDFS的說法中,描述錯誤的是()。A、HDFS是Hadoop的基石B、HDFS是高容錯的文件系統(tǒng)C、不適合部署在廉價的機器上D、能夠提供高吞吐量的數(shù)據(jù)訪問答案:C17.請問以下哪個命令組成是錯誤的?A、sbin/stop-dfs.shB、bin/hadoopfs-cat/hadoopdata/my.txtC、bin/hadoopnamenode-formatD、sbin/hdfsdfsadmin-report答案:D18.大數(shù)據(jù)的數(shù)據(jù)量現(xiàn)在已經(jīng)達到了哪個級別?A、GBB、TBC、PBD、ZB答案:C19.下列選項中,關于HBase和BigTable的底層技術對應關系,哪個是錯誤的?A、GFS與HDFS相對應B、GFS與Zookeeper相對應C、MapReduce與HadoopMapReduce相對應D、Chubby與Zookeeper相對應答案:B20.下面描述正確的是()A、rwxr-x的數(shù)字表示是750。B、rw-r-x的數(shù)字表示是530。C、rw-rw-r--的數(shù)字表示是655。D、rwxr的數(shù)字表示是740。答案:D21.屬于Hadoop各組件之間通信協(xié)議()A、ServerProtocolB、DatanodeProtocolC、NameProtocolD、SecondaryProtocol答案:B22.Clinet在HDFS上進行文件寫入時,namenode根據(jù)文大小和配置情況,返回部分DataNode信息,誰負責將文件劃分為多個block,根據(jù)DataNode的地址信息按順序寫入到每一個DataNode塊A、ClinteB、NameNodeC、DataNodeD、Secondarynamenode答案:A23.下列關于MapReduce參數(shù)設置和組件的說法錯誤的是()。A、MapReduce中maper,combiner,reducer缺一不可B、在JobConf中InputFormat參數(shù)可以不設C、在JobConf中MapperClass參數(shù)可以不設D、在JobConf中OutputKeyComparator參數(shù)可以不設答案:A24.配置機架感知的下面哪項正確?A、都正確B、MapReduce會根據(jù)機架獲取離自己比較近的網(wǎng)絡數(shù)據(jù)C、寫入數(shù)據(jù)的時候會寫到不同機架的DataNodeD、如果一個機架出問題,不會影響數(shù)據(jù)讀寫答案:A25.在Python中,關于import引用,以下選項中描述錯誤的是A、import保留字用于導入模塊或者模塊中的對象B、使用importturtle引入turtle庫C、使用importturtleast引入turtle庫,取別名為tD、可以使用fromturtleimportsetup引入turtle庫答案:D26.在Java中,若要創(chuàng)建一個新的含有父目錄的目錄,應該使用下列哪一個類的實例A、FileWriterB、FileOutputStreamC、FileD、以上都對答案:C27.關于hadoop集群描述正確的是()A、hadoop集群組件之間通過RPC通信協(xié)議B、hadoop集群NameNode節(jié)點越多越好C、hadoop集群使用Namenode存儲元數(shù)據(jù)D、以上都正確答案:A28.Namenode在啟動時自動進入安全模式,在安全模式階段,說法錯誤的是?A、安全模式目的是在系統(tǒng)啟動時檢查各個DataNode上數(shù)據(jù)塊的有效性B、文件系統(tǒng)允許有修改C、根據(jù)策略對數(shù)據(jù)塊進行必要的復制或刪除D、當數(shù)據(jù)塊最小百分比數(shù)滿足的最小副本數(shù)條件時,會自動退出安全模式答案:B29.下列說法錯誤的是?A、HadoopMapReduce是MapReduce的開源實現(xiàn),后者比前者使用門檻低很多B、MapReduce采用非共享式架構,容錯性好C、MapReduce主要用于批處理、實時、計算密集型應用D、MapReduce采用“分而治之”策略答案:C30.在Python中Excel解析,讀寫操作分別需要安裝的模塊是A、讀使用xlwt模塊,寫使用xlrd模塊B、寫使用xlwt模塊,讀使用xlrd模塊C、讀使用read模塊,寫使用write模塊D、讀使用write模塊,寫使用read模塊答案:B31.Hadoop序列化的特點有()。A、緊湊、快速、互擴展、互操作B、緊湊、快速C、互擴展D、互操作答案:A32.啟動HDFS的命令是()A、start-dfs.shB、Start-yarn.shC、start-hdfs.shD、dfs-start.sh答案:A33.MapReduce的Shuffle過程以下中哪個操作是最后做的?A、合并B、排序C、分區(qū)D、溢寫答案:A34.Sqoop是Hadoop和關系數(shù)據(jù)庫服務器之間傳送數(shù)據(jù)的工具,下列哪種數(shù)據(jù)庫是不支持使用Sqoop直接進行數(shù)據(jù)傳送()A、PostgresB、OracleC、MySQLD、Redis答案:D35.日志消息的級別中那個是不會影響系統(tǒng)但值得注意()A、ALEKKTB、CRITC、NOTICED、DEBUG答案:C36.5)大數(shù)據(jù)一詞是在哪一年由美國著名未來學家阿爾文·托夫勒在《第三次浪潮》中將大數(shù)據(jù)稱為“第三次浪潮的華彩篇章”()A、1978B、1980C、1983D、1990答案:B37.在Java中,設計模式的兩大主題是A、系統(tǒng)的維護與開發(fā)B、對象組合與類的繼承C、系統(tǒng)架構與系統(tǒng)開發(fā)D、系統(tǒng)復用與系統(tǒng)擴展答案:D38.下列關于MapReduce計算原理敘述不正確的一項是________。A、將大數(shù)據(jù)集劃分為小數(shù)據(jù)集,小數(shù)據(jù)集劃分為更小數(shù)據(jù)集B、將最終劃分的小數(shù)據(jù)分發(fā)布到集群節(jié)點上C、以串行的方式完成計算處理D、將計算結果遞歸融匯,得到最后的結果答案:C39.在Kafka中使用()命令來創(chuàng)建生產(chǎn)者。A、kafka-console-producer.shB、kafka-console-consumer.shC、kafka-topics.shD、kafka-producer-console.sh答案:A40.在Storm的軟件架構中,______運行在工作節(jié)點(稱為node)上的控制程序,監(jiān)聽本地機器的狀態(tài),接受Nimbus指令管理本地的Worker進程。A、主控程序NimbusB、集群調度器ZookeeperC、工作節(jié)點控制程序SupervisorD、工作進程Worker答案:C41.在Java中,關于Xml描述錯誤的是A、Xml是可擴展標記語言B、Xml主要用于提供數(shù)據(jù)表述格式C、Xml的可擴展性不強D、Xml主要用于不同應用程序間的數(shù)據(jù)交換答案:C42.下面與HDFS類似的框架是?A、NTFSB、FAT32C、GFSD、EXT3答案:C43.以下選項哪個命令可以生成公鑰()A、ssh-keygenB、ifupteam0C、nmclidevD、nmcliconsh答案:A44.下面哪個目錄保存了Hadoop集群的命令(比如啟動Hadoop)?A、binB、sbinC、etcD、share答案:B45.關于文檔數(shù)據(jù)庫的說法,下列哪一項是錯誤的?A、數(shù)據(jù)是規(guī)則的B、性能好(高并發(fā))C、缺乏統(tǒng)一的查詢語法D、復雜性低題答案:A46.下列()不是非關系型數(shù)據(jù)庫。A、HBaseB、RedisC、HiveD、MongoDB答案:C47.相比依賴于小數(shù)據(jù)和精確性的時代,大數(shù)據(jù)因為更強調數(shù)據(jù)的(),幫助我們進一步接近事實的真相。A、安全性B、完整性C、混雜性D、完整性和混雜性答案:D48.在Linux中,以下代碼哪個可以刪除arr={1,2,3,4}數(shù)組的下標為1的元素:A、deletearr[1]B、droparr[1]C、unsetarr[1]D、truncatearr[1]答案:C49.下列描述中,哪項不屬于Sqoop的缺點()A、無法控制任務的并發(fā)度B、格式緊耦合C、安全機制不夠完善D、connector必須符合JDBC模型答案:A50.在Java中,線程調用了sleep()方法后,該線程將進入()狀態(tài)A、可運行狀態(tài)B、運行狀態(tài)C、阻塞狀態(tài)D、終止狀態(tài)答案:C51.HBase與下列哪個選項屬于同一種類型的數(shù)據(jù)庫()A、MongoDBB、MariaDBC、MySQLD、Oracle答案:A52.HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,默認的最基本的存儲單位是64M,具有高容錯、高可靠性、高擴展性、高吞吐率等特征,適合的讀寫任務是A、一次寫入,少次讀寫B(tài)、多次寫入,少次讀寫C、一次寫入,多次讀寫D、多次寫入,多次讀寫答案:C53.HDFS有一個LZO(withindex)文件大小75MB,客戶端設置Block大小為64MB。當運行mapreduce任務讀取該文件時inputsplit大小為?A、一個map讀取64MB,另外一個map讀取11MBB、64MBC、75MBD、128MB答案:A54.在Python中,面向對象中的特殊成員以及應用場景描述正確的是:A、__del__析構方法,對應著一個對象的刪除之后執(zhí)行的內容B、__del__析構方法,對應著一個對象的刪除之前執(zhí)行的內容C、__repr__:和repr()%r不相關,但在沒有__str__方法時,__repr__可以完全取代__str__。D、__repr__:和repr()%r都是息息相關的,在沒有__str__方法時,__repr__不可以完全取代__str__。答案:B55.關于HDFS的文件寫入,正確的是_________。A、支持多用戶對同一文件的寫操作B、用戶可以在文件任意位置進行修改C、默認將文件復制成三份存放D、復制的文件塊默認存在同一機架上答案:C56.HBase依賴()提供消息通信機制A、ZookeeperB、ChubbyC、RPCD、Socket答案:A57.MapReduce自定義排序規(guī)則需要重寫下列那項方法A、readFields()B、compareTo()C、map()D、reduce()答案:B58.Zookeeper啟動時會最多監(jiān)聽幾個端口()A、1B、2C、3D、4答案:B59.HDFS集群中的DataNode的主要職責是?A、負責保存客戶端上傳的數(shù)據(jù)B、維護HDFS集群的目錄樹結構C、維護HDFS集群的所有數(shù)據(jù)塊的分布、副本數(shù)和負載均衡D、響應客戶端的所有讀寫數(shù)據(jù)請求答案:A60.關于基于Hadoop的MapReduce編程的環(huán)境配置,下面哪一步是不必要的()A、安裝linux或者在Windows下安裝CgywinB、安裝javaC、安裝MapReduceD、配置Hadoop參數(shù)答案:C61.MapReduce框架提供了一種序列化機制,支持這種序列化的類能夠在Map和Reduce過程中充當鍵或值,以下說法錯誤的是?A、實現(xiàn)Writable接口的類是值B、實現(xiàn)WritableComparable<T>接口的類可以是值或鍵C、鍵和值的數(shù)據(jù)類型可以超出Hadoop自身支持的基本類型D、Hadoop的基本類型Text并不實現(xiàn)WritableComparable<T>接口答案:D62.在Python程序中,關于異常捕捉說法正確的是A、except后面必須帶異常類型B、except后面可以不帶任何異常類型C、except后面帶異常類型才能捕捉所有異常D、except后面不帶任何異常類型也可以識別出具體的異常信息答案:B63.在Python函數(shù)中,用于獲取用戶輸入的是A、input()B、print()C、eval()D、get()答案:A64.在Java中,程序如果要按行輸入/輸出文件中的字符,最合理的方法是采用A、ObjectInputStream和ObjectOutputStream類B、InputStream和OutputStream類C、FileReader和FileWriter類D、FileInputStream和FileInputStream類答案:C65.Hadoop中節(jié)點之間的進程通信是通過什么協(xié)議來實現(xiàn)的()A、HTTPB、SMTPC、SSHD、RPC答案:D66.在Java中,使用Dom4j為Xml文檔的節(jié)點添加內容,正確的是A、節(jié)點.setText("內容");B、節(jié)點.addText("內容");C、節(jié)點.addContent("內容");D、節(jié)點.setContent("內容");答案:A67.關于shuffle階段中描述錯誤的是()A、shuffle可以分為mapshuffle和reduceshuffle。B、Shuffle中可以排序C、Shuffle中有可能有combiner、partition過程。D、Shuffle中一定不會有壓縮過程。答案:D68.下列關于MPI敘述不正確的一項是________。A、MPI是一個信息傳遞應用程序的接口B、MPI程序經(jīng)常在共享內存的機器上使用C、MPI并行計算增加高層并行編程模型D、MPI缺少統(tǒng)一的計算框架支持答案:C69.典型的NoSQL數(shù)據(jù)庫是(C)A、HiveB、MySQLC、HbaseD、Oracle答案:C70.下列選項描述錯誤的是?A、HadoopHA即集群中包含SecondaryNameNode作為備份節(jié)點存在。B、ResourceManager負責的是整個Yarn集群資源的監(jiān)控、分配和管理工作C、NodeManager負責定時的向ResourceManager匯報所在節(jié)點的資源使用情況以及接收并處理來自ApplicationMaster的啟動停止容器(Container)的各種請求。D、初次啟動HadoopHA集群時,需要將格式化文件系統(tǒng)后的目錄拷貝至另外一臺NameNode節(jié)點上。答案:A71.關干HiveSQL運行原理,描述不正確的選項有?(A)A、所有HQL都會轉化為MapReduce任務執(zhí)行B、DDL語句不提交任務到MapReduce,而是直接操作元數(shù)據(jù)C、對于selectcount(*)fromtable操作,一定會啟reduce任務D、對于select*fromtable語句不會啟MapReduce答案:A72.客戶端從Zookeeper獲取Region的存儲位置信息后,直接在_______上讀寫數(shù)據(jù)。A、ZookeeperB、HMasterC、RegionServerD、HLog答案:C73.大數(shù)據(jù)應用需依托的新技術有A、大規(guī)模存儲與計算B、B.數(shù)據(jù)分析處理C、C.智能化D、D.三個選項都是答案:D74.Combiner不適合哪一種操作?()A、最大值B、求和C、平均值D、計數(shù)答案:C75.從節(jié)點程序__________。A、NameNodeB、DataNodeC、SecondaryNameNodeD、Jobtracker答案:B76.Client端上傳文件的時候下列哪項正確?A、數(shù)據(jù)經(jīng)過NameNode傳遞給DataNodeB、Client只上傳數(shù)據(jù)到一臺DataNode,然后由NameNode負責Block復制工作C、Client端將文件切分為Block,依次上傳D、以上都不正確答案:C77.默認端口50070的作用是()。A、查看HDFS監(jiān)控B、查看YARN監(jiān)控C、查看日志監(jiān)控D、不確定答案:A78.下列關于Hadoop數(shù)據(jù)校驗說法錯誤的是()。A、“校驗和”本身也是數(shù)據(jù),也有可能出現(xiàn)損壞B、DataBlockScanner是作為DataNode的后臺線程工作的C、對pipeline的中的第一個DataNode檢查校驗和D、數(shù)據(jù)完整性包括數(shù)據(jù)傳輸?shù)耐暾院蛿?shù)據(jù)存儲的完整性答案:C79.在Python中,網(wǎng)絡框架Flask是()A、支持快速建站的框架B、企業(yè)級開發(fā)框架C、高并發(fā)處理框架D、以上全都不是答案:A80.以下哪個不是HDFS的進程()A、SecondaryNodeB、NameNodeC、ResourceManagerD、DataNode答案:C81.以下描述錯誤的是?A、TextInputFormat的key是指該記錄在文件中的行號B、SequenceFile可以用來作為小文件的合并存儲容器C、TextInputFormat的key是LongWritable類型的D、CombineFileInputFormat是抽象類答案:A82.下列關于Storm設計思想,描述有誤的是?A、Storm將Streams的狀態(tài)轉換過程抽象為SpoutB、Storm認為每個Stream都有一個源頭,并把這個源頭抽象為SpoutC、Storm將Spouts和Bolts組成的網(wǎng)絡抽象成TopologyD、Topology里面的每個處理組件(Spout或Bolt)都包含處理邏輯,而組件之間的連接則表示數(shù)據(jù)流動的方向答案:A83.在Python中,Python中類的定義正確的是A、classPhone:name=""call(self,name)print(name,"打電話")B、classPhone:name=""call(self,name)print(name,"打電話")C、classPhone:name=""defcall(self,name):print(name,"打電話")D、classPhonename=""defcall(self,name):print(name,"打電話")答案:C84.在Python中,閱讀代碼,選擇結果:classPerson:"人的類"name=""age=0defeat(self):print(,"正在吃飯")classStudent():"學生類"defstudy(self):print(,"正在學習")per1=Person()="張三"per1.eat()A、張三正在吃飯小明正在學習B、張三正在吃飯C、無語法錯誤,但不能輸出結果D、代碼非法,不能解釋答案:B85.OSI網(wǎng)絡模型有幾層結構?A、六層B、七層C、八層D、九層答案:B86.SequenceFile用于合并HDFS中的大量小文件,下列關于SequenceFile的描述錯誤的是()。A、在SequenceFile中,每一對被看作一條RecordB、記錄壓縮是對每條記錄進行壓縮C、SequenceFile主要是由一個Header和多個Record組成D、Header中包含存儲壓縮算法答案:A87.下面與HDFS類似的框架是?A、NTFSB、FAT32C、GFSD、EXT3答案:C88.下列關于列族數(shù)據(jù)庫的描述,哪一項是錯誤的?A、查找速度慢,可擴展性差B、功能較少,大都不支持強事務一致性C、容易進行分布式擴展D、復雜性低答案:A89.下列關于MapReduce的基本思想敘述不正確的一項是_________。A、對相互間具有計算機以來關系的大數(shù)據(jù)進行分而治之。B、用Map和Reduce兩個函數(shù)提供了高層并行編程抽象模型。C、提供了同一框架D、為程序員隱藏系統(tǒng)細節(jié)答案:A90.哪個不是Hive適用的場景?()A、實時的在線數(shù)據(jù)分析B、數(shù)據(jù)挖掘(用戶行為分析,興趣分區(qū),區(qū)域展示)C、數(shù)據(jù)匯總(每天/每周用戶點擊數(shù),點擊排行)D、非實時分析(日志分析,統(tǒng)計分析)答案:A91.以下關于新舊MapReduceAPI的描述錯誤的是?A、新API傾向于使用接口方式,而舊API傾向于使用抽象類B、新API放在org.apache.hadoop.mapreduce包中,而舊API則是放在org.apache.hadoop.mapred中C、新API使用Configuration,而舊API使用JobConf來傳遞配置信息D、新API可以使用Job對象來提交作業(yè)答案:A92.Yarn資源管理器是由哪些組件所組成?A、ResourceManagerB、SchedulerC、MapreduceD、HDFS答案:A93.以下哪一項不屬于Hadoop可以運行的模式()A、單機模式B、偽分布式模式C、互聯(lián)模式D、分布式模式答案:C94.在Linux中,查看已啟動的服務列表的命令是A、systemctllist-unit-files|grepenabledB、systemctlis-enabledfirewalldC、systemctldisablefirewalldD、systemctlenablefirewalld答案:A95.對DBInputFormat描述不正確的是?A、DBInputFormat類能夠讀取數(shù)據(jù)庫表中數(shù)據(jù)B、Hadoop訪問關系型數(shù)據(jù)庫主要通過DBInputFormat對象實現(xiàn)C、使用DBInputFormat之前,必須要jdbc驅動包拷貝到Hadoop目錄下的share/hadoop/common/libD、DBInputFormat接口僅僅適合讀取大數(shù)量的數(shù)據(jù)答案:D96.下列_______通常與NameNode在一個節(jié)點啟動。A、SecondaryNameNodeB、DataNodeC、TaskTrackerD、Jobtracker答案:D97.在Java中,下列關于線程的說法正確的是A、線程就是進程B、線程是進程中最小的執(zhí)行單元C、一個線程可以同時執(zhí)行多個任務D、在單處理器和多處理器上多個線程不可以并發(fā)執(zhí)行答案:B98.對于GFS架構,下面哪個說法是錯誤的?A、GFSMaster節(jié)點管理所有的文件系統(tǒng)所有數(shù)據(jù)塊。B、GFS存儲的文件都被分割成固定大小的塊,每個塊都會被復制到多個塊服務器上(可靠性)。塊的冗余度默認為3。C、CFSMaster還管理著系統(tǒng)范圍內的活動,比如塊服務器之間的數(shù)據(jù)遷移等D、GFSMaster與每個塊服務器通信(發(fā)送心跳包),發(fā)送指令,獲取狀態(tài)答案:A99.在Java中,如果要完成一個視頻文件的拷貝,應該使用哪一組流對象進行配合A、FileInputStream和FileOutputStreamB、FileReader和FileWriterC、BufferedReader和BufferedWriterD、ObjectInputStream和ObjectOutputStream答案:A100.下列選項中,哪一個命令用于刪除文件?A、hadoopB、hadoopC、hadoopD、hadoop答案:B101.非關系型數(shù)據(jù)庫不包括()。A、HBaseB、MapreduceC、Neo4jD、MongoDB答案:B102.在Java中,java.io包的File類是A、字符流類B、字節(jié)流類C、對象流類D、非流類答案:D103.把公鑰追加到授權文件的命令是?A、ssh-copy-idB、ssh-addC、ssh-addD、ssh-keygen答案:A104.大數(shù)據(jù)的價值是通過數(shù)據(jù)共享、()后獲取最大的數(shù)據(jù)價值A、算法共享B、B.共享應用C、C.數(shù)據(jù)交換D、D.交叉復用答案:C105.在MapReduce中,________階段,Mapper執(zhí)行maptask,將輸出結果寫入中間文件。A、ShuffleB、MapC、ReduceD、Sort答案:B106.在Java中,假如電腦上E盤沒有xxx目錄,則下面程序功能描述正確是
Filefile1=newFile("e:\\xxx\\yyy");file1.mkdir()A、在當前目錄下生成子目錄:\xxx\yyyB、在E盤自動創(chuàng)建xxx/yyy目錄C、在當前目錄下生成文件xxx.yyyD、代碼執(zhí)行后E盤不會產(chǎn)生任何目錄答案:D107.關于SecondaryNameNode哪項是正確的?A、它對目的是幫助NameNode合并編輯日志,減少NameNode的負擔和冷啟動時的加載時間B、它是NameNode的熱備C、它對內存沒有要求D、SecondaryNameNode應與NameNode部署到一個節(jié)點答案:A108.分片默認()MA、127B、128C、129D、130答案:B109.在Python中,文件讀取必須先使用Python內置的什么函數(shù)打開一個文件,創(chuàng)建一個file對象A、read()B、write()C、make()D、open()答案:D110.下列關于MapReduce的特性敘述正確的一項是_________。A、自動實現(xiàn)分布式串行計算B、自動實現(xiàn)分頁式并行計算C、容錯,提供狀態(tài)監(jiān)控工具D、不容錯,提供狀態(tài)監(jiān)控工具答案:C111.在執(zhí)行一個job時,如果這個job的輸出路徑已經(jīng)存在,那么程序會()。A、覆蓋這個輸出路徑B、拋出警告,但是能夠繼續(xù)執(zhí)行C、拋出一個異常,然后退出D、創(chuàng)建一個新的輸出路徑答案:C112.在Kafka中使用()命令來創(chuàng)建生產(chǎn)者。A、kafka-console-producer.shB、kafka-console-consumer.shC、kafka-topics.shD、kafka-producer-console.sh答案:A113.在Python中,關于Python語言的特點,以下選項描述正確的是A、Python語言是解釋型語言B、Python語言不支持面向對象C、Python語言是編譯型語言D、Python語言是非跨平臺語言答案:A114.下列哪個不屬于Hadoop的特性?A、成本高B、高可靠性C、高容錯性D、運行在Linux平臺上答案:A115.在MapReduce計算架構中,_________組件屬于hadoop的軟件模塊。A、ClientB、JobTrackerC、TaskTrackerD、Task答案:A116.關于Hive與Pig的比較正確的一項為________。A、Pig更適合于數(shù)據(jù)呈現(xiàn)的工作B、Pig能對中小規(guī)模的數(shù)據(jù)進行迭代處理C、Hive更適合做數(shù)據(jù)準備階段的工作D、Hive會按照用戶所需要的形式呈現(xiàn)答案:D117.DataNode默認存放目錄為()A、/opt/hadoop-record/softB、/home/hadoop-record/dataC、/home/hadoop-record/softD、/opt/hadoop-record/data答案:D118.在Java中,下面關于線程優(yōu)先級的說法中,正確的是A、線程的優(yōu)先級是不能改變的B、優(yōu)先級高的線程只是在執(zhí)行時優(yōu)先的概率比較大,不是一定的C、優(yōu)先級越高的線程運行速度比優(yōu)先級低的執(zhí)行更快,占用資源更少D、優(yōu)先級高的線程一定是優(yōu)先執(zhí)行的答案:B119.在shuffle過程中,圓形緩沖區(qū)的內存達到一定數(shù)值將執(zhí)行溢寫操作,這個數(shù)值的大小是()A、100B、90C、80D、60答案:C120.關于HBase的三層結構中各層次的名稱和作用的說法,哪個是錯誤的?A、Zookeeper文件記錄了用戶數(shù)據(jù)表的Region位置信息B、-ROOT-表記錄了.META.表的Region位置信息C、META.表保存了HBase中所有用戶數(shù)據(jù)表的Region位置信息D、Zookeeper文件記錄了-ROOT-表的位置信息答案:A121.下列哪個不屬于物聯(lián)網(wǎng)的應用?A、智能物流B、智能安防C、環(huán)保監(jiān)測D、數(shù)據(jù)清洗答案:D122.ResourceManager對web服務提供地址,用戶可通過Ip地址:()在瀏覽器中查看集群各類信息A、8088B、8033C、8080D、8032答案:A123./etc/shadow文件中存放:A、用戶賬號基本信息B、B.用戶口令的加密信息C、C.用戶組信息D、D.文件系統(tǒng)信息答案:B124.在Python中,以下選項中可訪問字符串s從右側向左第三個字符的是A、s[3]B、s[:-3]C、s[-3]D、s[0:-3]答案:C125.HDFS默認備份數(shù)量?()A、0B、1C、2D、3答案:D126.下列哪項通常是集群的最主要的性能瓶頸A、CPUB、網(wǎng)絡C、磁盤D、內存答案:C127.將關系型數(shù)據(jù)庫中的數(shù)據(jù)導入到Hadoop平臺的工具是()。A、importB、exportC、overwriteD、drop答案:A128.下列關于MapReduce說法不正確的是()A、MapReduce是一種計算框架B、MapReduce來源于Google的學術論文C、MapReduce程序只能用Java語言編寫D、MapReduce隱藏了并行計算的細節(jié),方便使用答案:C129.Zookeeper啟動時會最多監(jiān)聽幾個端口()A、1B、2C、3D、4答案:B130.下列哪個屬性是hdfs-site.xml中的配置A、fs.defaultFSB、dfs.replicationC、D、yarn.resourcemanager.address答案:B131.Hive查詢語言和SQL的一個不同之處在于()操作A、GroupbyB、JoinC、PartitionD、Union答案:C132.下列哪個程序通常與NameNode在一個節(jié)點啟動?()A、SecondaryNameNodeB、DataNodeC、TaskTrackerD、Jobtracker答案:D133.MapReduce中哪一種文件輸入格式可以自動切割并合并小文件?()A、NLinelmputFormatB、TextInputFormatC、CombineFileInputFormatD、KeyValueTextInputFormat答案:C134.在MapReduce程序中,Mapper模塊中的自定義類MyMapper繼承自()父類。A、MapperB、ReducerC、CombinerD、Partitioner、答案:A135.下面哪項是Hadoop的作者?A、MartinFowlerB、DougcuttingC、MarkElliotZuckerbergD、KentBeck答案:B136.下面哪一項不屬于計算機集群中的節(jié)點?A、主節(jié)點(MasterNode)B、源節(jié)點(SourceNode)C、名稱結點(NameNode)D、從節(jié)點(SlaveNode)答案:B137.下列選項中不是大數(shù)據(jù)計算體系的基本層次的一項為______。A、數(shù)據(jù)應用系統(tǒng)B、數(shù)據(jù)開發(fā)系統(tǒng)C、數(shù)據(jù)處理系統(tǒng)D、數(shù)據(jù)存儲系統(tǒng)答案:B138.針對每行數(shù)據(jù)內容為”TimestampUrl”的數(shù)據(jù)文件,在用JobConf對象conf設置conf.setInputFormat(WhichInputFormat.class)來讀取這個文件時,WhichInputFormat應該為以下的A、TextInputFormatB、KeyValueTextInputFormatC、SequenceFileInputFormatD、NLineInputFormat答案:B解析:四項主要的InputFormat類。KeyValueTextInputFormat以每行第一個分隔符為界,分隔符前為key,之后為value,默認制表符為\t139.哪個不是mapreduce運行的時候分的部分?()A、input,outputB、map,reduceC、shuffleD、hdfs答案:D140.關于ZooKeeper的說法錯誤的是?A、ZooKeeper是一個高可用的分布式數(shù)據(jù)管理和協(xié)調框架B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性C、越來越多的分布式系統(tǒng)(Hadoop、HBase、Kafka)中使用ZooKeeperD、Hadoop的高可用不需要用到ZooKeeper答案:D141.在Java中,哪個關鍵字可以實現(xiàn)線程同步A、transientB、synchronizedC、serializeD、static答案:B142.HBase架構的四大組件中,_______包含訪問HBase的接口。A、ZookeeperB、MasterC、RegionServerD、Client答案:D143.在分布式并行計算體系中,________采用一個指令流處理單個數(shù)據(jù)流。A、SISDB、SIMDC、MISDD、MIMD答案:A144.在Java中,簡單工廠模式描述錯誤的是A、簡單工廠模式由于使用了靜態(tài)工廠方法,造成工廠角色無法形成基于繼承的等級結構。B、違反了開閉原則,一旦新增產(chǎn)品必須修改原有代碼。C、引入新的工廠,會減少系統(tǒng)的復雜性和理解難度。D、實現(xiàn)了創(chuàng)建對象和使用對象的分離。答案:C145.ZooKeeper的特點不包括()A、順序一致性B、原子性C、可靠性D、復合系統(tǒng)映像答案:D146.一個gzip文件大小75MB,客戶端設置block大小為64MB,請問其占用幾個block()A、1B、2C、3D、4答案:B147.在Java中,以下什么情況適合使用單例模式A、確保某個對象在程序運行過程中有且僅有一個時B、隱藏對象的創(chuàng)建細節(jié)時C、對象創(chuàng)建過程極其復雜時D、類中所有方法都是靜態(tài)方法時答案:A148.下列選項中,哪一個不屬于Zookeeper應用?()A、數(shù)據(jù)發(fā)布和訂閱B、負載均衡C、配置管理D、數(shù)據(jù)倉庫答案:D149.關于ZooKeeper的說法錯誤的是?A、ZooKeeper不存在單點故障的情況B、ZooKeeper服務端有兩種重要的角色是Leader和FollowerC、ZooKeeperLeader掛掉之后會自動在其他機器選出新的LeaderD、客戶端可以連接到ZooKeeper集群中任一臺機器答案:A150.在Linux中,以下哪種不是shell腳本的執(zhí)行方式?A、作為可執(zhí)行程序B、使用start命令啟動C、作為解釋器參數(shù)D、使用source命名執(zhí)行答案:B151.關于FsShell的說法,下面哪一項是正確的()A、FsShell和UNIX系統(tǒng)中的shell一樣功能強大B、FsShell實際上是一個Java應用程序C、可以在FsShell中執(zhí)行HDFS文件系統(tǒng)中的可執(zhí)行文件D、FsShell實際上是調用UNIX的shell命令來實現(xiàn)復制操作答案:B152.關于SecondaryNameNode哪項是正確?A、它是NameNode的熱備B、它對內存沒有要求C、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間D、SecondaryNameNode應與NameNode部署到一個節(jié)點答案:C153.下列哪一個不屬于HDFS1.0中存在的問題A、無法水平擴展B、單點故障問題C、單一命名空間D、系統(tǒng)整體性能受限于單個名稱節(jié)點的吞吐量答案:A154.下列選項中不是hadoop特點的是_____。A、可靠性B、擴容能力C、高效率D、成本高答案:D155.關于Shuffle過程描述正確的是()A、一個MapTask任務可以對應多個環(huán)形緩沖區(qū)B、一個MapTask任務只能對應一個個環(huán)形緩沖區(qū)C、Shuffle過程環(huán)形緩存默認大小值為20MBD、Shuffle過程只有MapTask階段操作答案:B156.MapReduce將整個并行計算過程抽象到那兩個函數(shù)()A、mapsreduceB、mapreduceC、mapreducesD、mapsreduces答案:B157.()是檢查系統(tǒng)對非法侵入的防范能力。A、功能測試B、性能測試C、安全測試D、驗收測試答案:D158.在Python中,OS模塊返回指定目錄下的所有文件和目錄名的函數(shù)是A、os.remove()B、os.listdir()C、os.path.isfile()D、os.getcwd()答案:B159.在Linux系統(tǒng)中新增一個新組group2,同時指定新組的組標識號是101,命令是()A、groupadd-r101group2B、groupadd-o101group2C、groupadd-g101group2D、groupadd-p101group2答案:C160.下列關于數(shù)據(jù)處理流程,說法有誤的是?A、在傳統(tǒng)的數(shù)據(jù)處理流程中,存儲的數(shù)據(jù)是舊的B、在傳統(tǒng)的數(shù)據(jù)處理流程中,需要用戶主動發(fā)出查詢來獲取結果C、傳統(tǒng)的數(shù)據(jù)處理流程,需要先采集數(shù)據(jù)并存儲在關系數(shù)據(jù)庫等數(shù)據(jù)管理系統(tǒng)中D、流計算的處理流程一般包含三個階段:數(shù)據(jù)實時采集、數(shù)據(jù)批量計算、實時查詢服務答案:D161.shuffle的意思是()A、沙發(fā)B、洗牌C、拆分D、散亂答案:B162.在Java中,Xml的全稱是A、UnifiedModelingLanguageB、HypertextMarkupLanguageC、ExtensibleMarkupLanguageD、ExperimentalMarkupLanguage答案:C163.大數(shù)據(jù)的4V特征是指?A、數(shù)據(jù)量大(Volume)、類型繁多(Variety)、價值密度低(Value)、處理速度快(Velocity)B、數(shù)據(jù)量大(Volume)、類型繁多(Variety)、價值密度低(Value)、技術發(fā)展速度快(Velocity)C、數(shù)據(jù)量大(Volume)、類型繁多(Variety)、價值密度高(Value)、數(shù)據(jù)產(chǎn)生速度快(Velocity)D、數(shù)據(jù)量大(Volume)、類型繁多(Variety)、價值密度低(Value)、數(shù)據(jù)變化速度快(Velocity)答案:A164.面關于MapReduce模型中Map函數(shù)與Reduce函數(shù)的描述正確的是()A、一個Map函數(shù)就是對一部分原始數(shù)據(jù)進行指定的操作B、一個Map操作就是對每個ReD.uce所產(chǎn)生的一部分中間結果進行合并操作C、Map與Map之間不是相互獨立的D、Reducee與Reduce之間不是相互獨立的答案:A165.在Java中,某個資源讀取非常消耗時間,為了減少重復讀取資源造成的性能低下,可以采用下列A、簡單工廠模式B、普通工廠模式C、單例模式D、靜態(tài)工廠模式答案:C166.配置Hadoop環(huán)境變量修改()文件A、vi/etc/profileB、vi/etc/profilesC、vi/etc/hostsD、vi~/input/data答案:A167.HFile數(shù)據(jù)格式中的Data字段用于()。A、存儲實際的KeyValue數(shù)據(jù)B、存儲數(shù)據(jù)的起點C、指定字段的長度D、存儲數(shù)據(jù)塊的起點答案:A168.在Java中,下面不是單例模式要點的是A、單例類只能一個人使用。B、單例類必須自行創(chuàng)建唯一的實例。C、單例類的構造方法可以是public的。D、單例模式會阻止其他對象實例化其自己的單例對象的副本。答案:D169.配置Hadoop時,JAVA_HOME包含在哪一個配置文件中?A、hadoop-default.xmlB、hadoop-env.shC、hadoop-site.xmlD、configuration.xml答案:B170.下列關于Map和Reduce函數(shù)的描述,哪個是錯誤的?A、Map將小數(shù)據(jù)集進一步解析成一批<key,value>對,輸入Map函數(shù)中進行處理B、Map每一個輸入的<k1,v1>會輸出一批<k2,v2>。<k2,v2>是計算的中間結果C、Reduce輸入的中間結果<k2,List(v2)>中的List(v2)表示是一批屬于不同k2的valueD、Reduce輸入的中間結果<k2,List(v2)>中的List(v2)表示是一批屬于同一個k2的value答案:C171.在流計算系統(tǒng)模型中,分布式系統(tǒng)常用____________來表征計算流程或計算模型。A、無項循環(huán)圖B、有向循環(huán)圖C、無向非循環(huán)圖D、有向非循環(huán)圖答案:D172.啟動所有的Hadoop守護進程。包括NameNode、SecondaryNameNode、DataNode、ResourceManager、NodeManager的命令是()A、start-yarn.shB、start-all.shC、start-dfs.shD、hadoop-daemons.sh答案:B173.使用root用戶解壓Flume安裝包到“/usr/local/src”路徑,以下哪條是正確的命令()。A、[root@master~]#tarzxvf/opt/software/apache-flume-1.6.0-bin.tar.gz/usr/local/srcB、[hadoop@master~]#tarzxvf/opt/software/apache-flume-1.6.0-bin.tar.gz-C/usr/local/srcC、[root@master~]#tarzxvf/opt/software/apache-flume-1.6.0-bin.tar.gz-C/usr/local/srcD、[root@master~]#unzip/opt/software/apache-flume-1.6.0-bin.tar.gz-C/usr/local/src答案:C174.在Python中,用來判斷當前Python語句在分支結構中的是A、引號B、冒號C、大括號D、縮進答案:D175.在Hadoop官方的示例程序包hadoop-maprecduceexamples-2.6.4.jar中,封裝了一些常用的測試模塊??梢垣@得文件中單詞長度的中位數(shù)的模塊是(C)。A、wordcountB、wordmeanC、wordmedianD、wordstandarddeviation答案:C176.在確認客戶需求,進行確認需求調研的時候,以下說法正確的是()。A、.按計劃有步驟的確定客戶需求調研。B、先了解細節(jié)需求,再了解宏觀需求C、將客戶的想法記錄下來,就能解決客戶的實際問題D、確定客戶需求調研的過程中,不可避免的會出現(xiàn)客戶提出一些現(xiàn)有條件下根本無法實現(xiàn)或者即使實現(xiàn)也非常困難的要求,我們要無條件去滿足客戶的需求。答案:A177.在HBase數(shù)據(jù)模型中,列必須用______來定義。A、鍵B、族C、單元格D、時間戳答案:B178.以下()文件中主要用來配置ResourceManager,NodeManager的通信端口,web監(jiān)控端口等。A、core-site.xmlB、mapred-site.xmlC、hdfs-site.xmlD、yarn-site.xml答案:D179.在Java中,下列不屬于線程生命周期狀態(tài)的是A、新建狀態(tài)B、可運行狀態(tài)C、運行狀態(tài)D、解鎖狀態(tài)答案:D180.MapReduce流程有______各階段。A、三B、二C、四D、五答案:A181.在Python中,可以采用“模塊”的方式來組織代碼,以下描述正確的是:A、使用模塊可能導致函數(shù)名和變量名沖突。B、相同名字的函數(shù)和變量完全可以分別存在不同的模塊中。C、相同名字的函數(shù)和變量完全可以存在相同同的模塊中。D、不同名字的函數(shù)和變量必須分別存在不同的模塊中。答案:B182.在Java中,使用客戶端套接字Sockt創(chuàng)建對象時,需要指定A、服務器主機名和端口B、服務器端口和文件C、服務器名和文件D、服務器地址和文件答案:A183.在命令模式中,以下那個命令不會進入輸入模式?A、qB、oC、iD、a答案:A184.啟動集群的順序為()。①start-dfs.sh、②start-yarn.sh、③mr-jobhistory-daemon.shstarthistoryserverA、①②③B、②①③C、③②①D、③①②答案:A185.Hadoop2.x版本中的數(shù)據(jù)塊大小默認是多少?()A、64MB、128MC、256MD、512M答案:B186.以下哪個組件可以指定對key進行Reduce分發(fā)的策略?A、RecordReaderB、CombinerC、PartitionerD、FileInputFormat答案:C187.關于HiveSQL基本操作描述正確的是?(A)A、創(chuàng)建外部表時需要指定external關鍵字B、一旦表創(chuàng)建好,不可再修改表名C、一旦表創(chuàng)建好,不可再修改列名D、一旦表創(chuàng)建好,不可再增加新列答案:A188.HadoopStreaming支持腳本語言編寫簡單MapReduce程序,以下是一個例子:Bin/hadoopjarcontrib/streaming/hadoop-0.20-streaming.jar-inputinput/filename-outputoutput-mapper‘dosth.py5’-filedosth.py-Dmapred.reduce.tasks=1以下說法不正確的是A、HadoopStreaming使用Unix中的流與程序交互B、HadoopStreaming允許我們使用任何可執(zhí)行腳本語言處理數(shù)據(jù)流C、采用腳本語言時必須遵從UNIX的標準輸入STDIN,并輸出到STDOUTD、Reduce沒有設定,上述命令運行會出現(xiàn)問題答案:D189.Kafka的設計初衷不包括()A、處理海量日志B、用戶行為統(tǒng)計C、網(wǎng)站運營統(tǒng)計D、數(shù)據(jù)轉換答案:D190.key與value之間的分隔符,默認的情況是()A、/rB、/tC、/fD、空格答案:B191.在MapReduce任務中,下列哪一項會由hadoop自動排序?A、keysofmapper'soutputB、valuesofmapper'soutputC、keysofreducer'soutputD、valuesofreducer'soutput答案:A192.下列哪些操作可以設置一個監(jiān)聽器Watcher()A、getDataB、getChildrenC、existsD、setData答案:D193.大數(shù)據(jù)平臺Hadoop的組件中,提供分布式協(xié)作服務的組件是()A、HBaseB、ZooKeeperC、SqoopD、Hive答案:B194.對于Hive中的分區(qū)(partition)概念,如下描述錯誤的是?()A、分區(qū)字段要在創(chuàng)建表時定義B、分區(qū)字段只能有一個,不可以創(chuàng)建多級分區(qū)C、使用分區(qū),可以減少某些查詢的數(shù)據(jù)掃描范圍,進而提高查詢效率D、分區(qū)字段可以作為where字句的條件答案:B解析:多選題(共13題,10.4分)195.LSM的讀操作和寫操作是獨立的?A、是。B、否。C、LSM并不區(qū)分讀和寫D、LSM中讀寫是同一種操作答案:A196.下列關于HBase數(shù)據(jù)模型敘述不正確的一項是_______。A、表有單元格組成B、一個表可以包含若干個列族C、一個列族內可用列限定符來標志不同的列D、存于表中單元的數(shù)據(jù)尚需打上時間戳答案:A197.HDFS中的文件塊默認保存()份。A、1B、2C、3D、不確定答案:C198.下面哪個目錄保存了Hadoop集群的命令(比如啟動Hadoop)?A、binB、sbinC、/etcD、share答案:B199.Linux下啟動HDFS的命令是(C)A、HdfsB、startdfsC、start-dfs.shD、start-dfs.cmd答案:C200.通過瀏覽器界面監(jiān)控Hive的狀態(tài),以下是查看的端口()A、http://master:8088B、:50070C、http://master:16010D、http://master:9999答案:D201.以下選項哪個可以修改文件或目錄的訪問權限()A、passwdB、suC、chmodD、useradd答案:C202.在HDFS中,默認一個塊多大?A、64MBB、32KBC、128KBD、16KB答案:A203.端口50070默認是Hadoop哪個服務的端口?A、NameNodeB、DataNodeC、SecondaryNameNodeD、Yarn答案:A204.hadoop集群之間的機器是用過()協(xié)議來進行通信和協(xié)調工作的。A、HTTPB、HTTPSC、SSHD、ClientProtocol答案:C205.下列哪項通常是集群的最主要瓶頸()。A、CPUB、網(wǎng)絡C、磁盤IOD、內存答案:C206.在Storm的軟件架構中,______運行在主節(jié)點上,是整個流計算集群的控制核心,總體負責topology的提交、運行狀態(tài)監(jiān)控、負載均衡及任務重新分配等。A、主控程序NimbusB、集群調度器ZookeeperC、工作節(jié)點控制程序SupervisorD、工作進程Worker答案:A207.HDFS有一個LZO(withindex)文件大小75MB,客戶端設置Block大小為64MB。當運行mapreduce任務讀取該文件時inputsplit大小為?A、64MBB、75MBC、一個map讀取64MB,另外一個map讀取11MBD、沒有讀取到答案:C208.運行WordCount命令()A、$hadoopjarhadoop-examples-25.0jarwordcount/data/input/data/outputB、$hadoopfs-hadoop-examples-25.0jarwordcount/data/input/dataloutputC、$hadoopfs-hadoop-examples-25.0/jarwordcount/data/input/data/outputD、$hadoopjarhadoop-examples-2.5.0/jarwordcount/data/input/dataloutput答案:A209.下列哪個不屬于NoSQL數(shù)據(jù)庫的特點?A、靈活的可擴展性B、靈活的數(shù)據(jù)模型C、與云計算緊密融合D、數(shù)據(jù)存儲規(guī)模有限答案:D210.MapReduce1.0的體系結構中,JobTracker是主要任務是什么?A、負責資源監(jiān)控和作業(yè)調度,監(jiān)控所有TaskTracker與Job的健康狀況B、使用“slot”等量劃分本節(jié)點上的資源量(CPU、內存等)C、會周期性地通過“心跳”將本節(jié)點上資源的使用情況和任務的運行進度匯報給TaskTrackerD、會跟蹤任務的執(zhí)行進度、資源使用量等信息,并將這些信息告訴任務(Task)答案:A211.下列關于hadoop系統(tǒng)架構敘述不正確的一項為________。A、由一臺Intelx86處理器的服務器或PC機組成。B、部署在低成本Intel/linux硬件平臺上。C、通過高速局域網(wǎng)構成一個計算集群。D、各個節(jié)點上運行Linux操作系統(tǒng)。答案:A212.在HDFS的數(shù)據(jù)讀取過程中,DistributedFileSystem獲取這些信息后,生成一個__________對象實例返回給客戶端。A、DistributedFileSystemB、FSDataInputSystemC、FSDataOutputSystemD、InputSystem答案:B213.關于Hadoop下列說法錯誤的是()A、HDFS采用了Master/Slave的架構模型B、Namenode負責維護文件系統(tǒng)的命名空間C、Datanode執(zhí)行比如打開、關閉、重命名文件操作D、HDFS暴露了文件系統(tǒng)的命名空間,允許用戶以文件的形式在上面存儲數(shù)據(jù)答案:C214.在Linux中,Apache和Tomcat都是服務器,他們之間的相同點有()A、兩者都是Apache組織開發(fā)的B、兩者都有HTTP服務的功能C、兩者都是免費的D、以上全是答案:D215.HDFS的錯誤檢測不包括_________。A、NameNode檢測B、DataNode檢測C、數(shù)據(jù)錯誤檢測D、冗余檢測答案:D216.LSM含義是?A、日志結構合并樹B、二叉樹C、平衡二叉樹D、基于日志結構的合并樹答案:A217.在Python中,關于in操作符,描述不正確的是A、in操作符用來在指定的序列中找到某一個值,如果找到返回True,否則返回FalseB、in操作符所應用的序列可以是列表、元組或者字典C、判斷指定序列中找不到某一個值,則使用notin,它剛好和in相反D、如果在序列中查找不到這個值,會將這個值加入到當前序列中答案:D218.為銷售報表展示開發(fā)一個MapReduce作業(yè),Mapper輸入數(shù)據(jù)的Key是年份(IntWritable),Value表示商品標識(Text)。下列哪一項決定該Mapper的數(shù)據(jù)類型?A、JobConf.setMapInputKeyClass與JobConf.setMapInputValuesClassB、HADOOP_MAP_DATATYPES環(huán)境變量C、隨作業(yè)一起提交的mapper-specification.xml文件D、InputFormat格式類答案:D219.在Python中使用注釋時,下列描述錯誤的是A、Python語言有兩種注釋方式:單行注釋和多行注釋B、Python語言的單行注釋以#開頭C、Python語言的多行注釋以'''(三個單引號)開頭和結尾D、Python語言的單行注釋以單引號‘開頭答案:D220.下面關于NoSQL和關系數(shù)據(jù)庫的簡單比較,哪個是錯誤的?A、RDBMS有關系代數(shù)理論作為基礎,NoSQL沒有統(tǒng)一的理論基礎B、NoSQL很難實現(xiàn)橫向擴展,RDBMS可以很容易通過添加更多設備來支持更大規(guī)模的數(shù)據(jù)C、RDBMS需要定義數(shù)據(jù)庫模式,嚴格遵守數(shù)據(jù)定義,NoSQL一般不存在數(shù)據(jù)庫模式,可以自由靈活定義并存儲各種不同類型的數(shù)據(jù)D、RDBMS借助于索引機制可以實現(xiàn)快速查詢,很多NoSQL數(shù)據(jù)庫沒有面向復雜查詢的索引答案:B221.HadoopJavaAPI創(chuàng)建文件夾的方法是()。A、listStatus(Pathf)B、delete(Pathf)C、mkdirs(Pathf)D、open(Pathf)答案:C222.在Linux中,終止一個前臺進程可能用到的命令和操作是?A、killB、ctrl+CC、shutdownD、halt答案:B223.哪些不是引起Hive數(shù)據(jù)傾斜的原因?()A、數(shù)據(jù)在節(jié)點存儲上分布不均B、運算中Key值分布不均C、業(yè)務數(shù)據(jù)本身存在分布不均D、Hive中表數(shù)量的多少答案:D224.在Java中,一下哪個方法可以獲取Xml文檔的根節(jié)點A、getRoot()B、getRootElements()C、getRootElement()D、getFirstElement()答案:C225.下面與HDFS類似的框架是()A、NTFSB、FAT32C、GFSD、EXT3答案:C226.安裝Hadoop時,發(fā)現(xiàn)50070對應的頁面無法打開,可以通過下面哪個命令查看某個端口(TCP或UDP)是否在監(jiān)聽?A、psB、netstatC、pingD、ifconfig答案:B227.在Java中,HTTP服務的常用端口號是A、80B、21C、23D、120答案:A228.在Linux下安裝NTP服務的命令是()。A、yuminstallntpB、yumremoventpC、yumupdatentpD、yumlist答案:A229.在Java中,F(xiàn)ile類中哪個方法可以判斷文件是否存在?A、exists()B、isFile()C、isDirectory()D、isHidden()答案:A230.HDFS中的block默認保存幾個備份。A、2份B、3份C、1份D、不確定答案:B231.設計分布式數(shù)據(jù)倉庫hive的數(shù)據(jù)表時,為取樣更高效,一般可以對表中的連續(xù)字段進行()操作。A、分桶B、分區(qū)C、索引D、分表答案:A232.下面哪個程序負責HDFS數(shù)據(jù)存儲()A、DatanodeB、NameNodeC、JobtrackerD、secondaryNameNode答案:A233.在Java中,下列()方法和resume()方法相互搭配,使線程停止執(zhí)行,然后調用resume()方法恢復線程。A、interrupt()B、stop()C、suspend()D、yield()答案:C234.在Python中,看代碼,說結果:
classSinger:
name=""
area=""

def__init__(self,name,area):
=name
self.area=area

singer1=Singer("陳奕迅","香港")
print("歌手:%s\t地區(qū):%s"%(,singer1.area))
singer2=Singer("張杰","中國")
print("歌手:%s\t地區(qū):%s"%(,singer2.area))A、不能運行B、歌手:陳奕迅地區(qū):香港歌手:張杰地區(qū):中國C、歌手:張杰地區(qū):中國歌手:陳奕迅地區(qū):香港D、歌手:陳奕迅地區(qū):香港歌手:張杰地區(qū):中國答案:D235.在Python中,關于try-finally語句說法正確的是A、觸發(fā)異常時執(zhí)行finally中的代碼B、無論是否異常都會執(zhí)行finally中的代碼C、觸發(fā)異常時不執(zhí)行finally中的代碼D、必須使用finally語句處理異常答案:B236.下列關于Hive的說法中,描述錯誤的是()。A、是基于Hadoop的一個數(shù)據(jù)倉庫工具B、可以將非結構化數(shù)據(jù)文件映射成一張表C、提供了簡單的SQL查詢功能D、可以將SQL語句裝換成MapReduce作業(yè)運行答案:B237.下列哪一項不屬于HDFS采用抽象的塊概念帶來的好處?A、簡化系統(tǒng)設計B、支持大規(guī)模文件存儲C、強大的跨平臺兼容性D、適合數(shù)據(jù)備份答案:C238.在Java中,F(xiàn)ile類提供的方法中,哪個方法可以獲取一個目錄下所有子文件對象A、list()B、getChildren()C、getFiles()D、listFiles()答案:D239.關于安全模式下面哪個是正確的?A、它是namenode的維護狀態(tài)B、在安全模式下,集群處于只讀狀態(tài)C、在安全模式下,不允許對文件系統(tǒng)做任何修改D、其他都對答案:D240.在Java中,Java網(wǎng)絡編程中,描述錯誤的是A、服務端用于接收客戶端的Socket類請求B、accept()是一個阻塞方法C、設置開啟的端口號必須要小于1024D、設置開啟的端口要盡量大一些,避開常用軟件端口號答案:C241.以下哪個命令可以終止一個用戶的所有進程:A、skillallB、B.skillC、C.killD、D.killall答案:D242.下面哪個選項不屬于Hadoop1.0的問題?A、單一名稱節(jié)點,存在單點失效問題B、單一命名空間,無法實現(xiàn)資源隔離C、資源管理效率低D、很難上手答案:D243.下面關于MapReduce模型中Map函數(shù)與Reduce函數(shù)的描述正確的是A、一個Map函數(shù)就是對一部分原始數(shù)據(jù)進行指定的操作。B、一個Map操作就是對每個Reduce所產(chǎn)生的一部分中間結果進行合并操作。C、Map與Map之間不是相互獨立的。D、Reducee與Reduce之間不是相互獨立的。答案:A244.在Python中,下列不屬于Tornado特點的是?A、完備的Web框架B、圖片自動識別技術C、提供高效HTTPClientD、提供高效的內部HTTP服務器答案:B245.在Java中,下列哪個一個操作不能使線程從等待阻塞狀態(tài)進入對象阻塞狀態(tài)A、等待陰塞狀態(tài)下的線程被notify()喚醒B、等待阻塞狀態(tài)下的純種被interrput()中斷C、等待時間到D、等待阻塞狀態(tài)下的線程調用wait()方法答案:D246.Hive數(shù)據(jù)傾斜的表現(xiàn)?()A、Hive建表后數(shù)據(jù)無法導入B、Hive無法啟動C、Hivesql語句運行異常直接退出D、Hive運算任務為報錯單長期卡在99%答案:D247.HDFS有一個LZO(withindex)文件大小75MB,客戶端設置Block大小為64MB。當運行mapreduce任務讀取該文件時inputsplit大小為?A、64MBB、75MBC、128MBD、一個map讀取64MB,另外一個map讀取11MB答案:D248.若不針對MapReduce編程模型中的key和value值進行特別設置,下列哪一項是MapReduce不適宜的運算。A、MaxB、AverageC、MinD、Count答案:B249.大數(shù)據(jù)是指不用隨機分析法這樣的捷徑,而采用()的方法A、所有數(shù)據(jù)B、絕大部分數(shù)據(jù)C、適量數(shù)據(jù)D、少量數(shù)據(jù)答案:A250.Hadoop-2.x集群中的HDFS的默認的副本塊的個數(shù)是?A、2B、3C、1D、4答案:B251.下面哪個負責HDFS數(shù)據(jù)存儲()。A、NameNodeB、ResourceManagerC、DataNodeD、NodeManager答案:C252.在Java中,關于同步方法描述錯誤的是A、同步方法比同步代碼塊更容易控制同步范圍B、非靜態(tài)同步方法的鎖對象就是this當前對象本身C、靜態(tài)同步方法的鎖對象是所屬類的類類型(字節(jié)碼文件)D、同步方法和同步代碼塊使相同的關鍵字來修飾答案:A253.一個gzip文件大小75MB,客戶端設置Block大小為64MB,請我其占用幾個Block?A、1B、2C、3D、4答案:B254.下列哪項通常是集群的最主要瓶頸()A、CPUB、網(wǎng)絡C、磁盤IOD、內存答案:C255.使用下面那個命令可以將HDFS目錄中所有文件合并到一起A、putmergeB、getmergeC、remergeD、mergeALL答案:B256.hadoop能可靠地存儲和處理_____字節(jié)數(shù)據(jù)。A、TBB、PBC、YBD、ZB答案:B257.當客戶端從HDFS文件系統(tǒng)上讀取數(shù)據(jù)時,以下哪個說法正確?A、從namenode上得到數(shù)據(jù)塊位置B、從namenode上得到數(shù)據(jù)C、從namenode上得到數(shù)據(jù)和數(shù)據(jù)塊位置D、

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論