2022年全國計算機應用能力與信息素養(yǎng)大賽模擬試題3_第1頁
2022年全國計算機應用能力與信息素養(yǎng)大賽模擬試題3_第2頁
2022年全國計算機應用能力與信息素養(yǎng)大賽模擬試題3_第3頁
2022年全國計算機應用能力與信息素養(yǎng)大賽模擬試題3_第4頁
2022年全國計算機應用能力與信息素養(yǎng)大賽模擬試題3_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

2022年全國計算機應用能力與信息素養(yǎng)大賽模擬試題3

姓名年級學號

題型選擇題填空題解答題判斷題計算題附加題總分

得分

評卷人得分

一、判斷題

1.HDFS的namenode保存了一個文件包括哪些數(shù)據(jù)塊,分布在哪些數(shù)據(jù)節(jié)點

上,這些信息也存儲在硬盤上。

A.正確

B.錯誤V

解析:在系統(tǒng)啟動的時候從數(shù)據(jù)節(jié)點收集而成的。

2.Secondarynamenode就是namenode出現(xiàn)問題時的備用節(jié)點。

A.正確

B.錯誤J

解析:它和元數(shù)據(jù)節(jié)點負責不同的事情。其主要功能就是周期性將元數(shù)據(jù)節(jié)點

的命名空間鏡像文件和修改日志合并,以防日志文件過大。合并過后的命名空

間鏡像文件也在Secondarynamenode保存了一份,以防namenode失敗的時

候,可以恢復。

二、單選題

3.HDfS中的block默認保存幾份?()

A.3份J

B.2份

C.1份

D.不確定

解析:無

4.下面與HDFS類似的框架是?()

A.NTFS

B.FAT32

C.GFSJ

D.EXT3

解析:無

5.如果一個Hadoop集群中HDFS的默認大小是128MB,本地磁盤有個HDFS上的

目錄包含100個純文本文件,每個文件200MB。如果使用TextinputFormat作

為輸入格式類,將該目錄作為作業(yè)輸入,將會啟動()個Map。

A.64

B.100

C.200J

D.640

解析:無

6.一個文件大小156MB,在Hadoop2.0中默認情況下請問其占用幾個Block

()?

A.1

B.2J

C.3

D.4

解析:無

7.為銷售報表展示開發(fā)一個MapReduce作業(yè),Mapper輸入數(shù)據(jù)的Key是年份

(IntWritable),Value表示商品標識(Text)。下列哪一項決定該Mapper

的數(shù)據(jù)類型?()

A.JobConf.setMapinputKeyClass與JobConf.setMapinputValuesClass

B.HADOOP_MAP_DATATYPES環(huán)境變量

C.隨作業(yè)一起提交的mapper-specification,xml文件

D.InputFormat格式類V

解析:無

8.NameNode在啟動時自動進入安全模式,在安全模式階段,說法錯誤的是

()O

A.安全模式目的是在系統(tǒng)啟動時檢查各個DataNode上數(shù)據(jù)塊的有效性

B.根據(jù)策略對數(shù)據(jù)塊進行必要的復制或刪除

C.當數(shù)據(jù)塊最小百分比數(shù)滿足最小副本數(shù)條件時,會自動退出安全模式

D.文件系統(tǒng)允許有修改V

解析:無

9.HDFS無法高效存儲大量小文件,想讓它能處理好小文件,比較可行的改進策

略不包括()。

A.利用SequenceFile、MapFile、Har等方式歸檔小文件

B.多Master設計

C.Block大小適當調小

D.調大namenode內存或將文件系統(tǒng)元數(shù)據(jù)存到硬盤里V

解析:無

10.關于HDFS的文件寫入,正確的是()。

A.支持多用戶對同一文件的寫操作

B.用戶可以在文件任意位置進行修改

C.默認將文件塊復制成三份存放V

D.復制的文件塊默認都存在同一機架上

解析:在HDFS的一個文件中只有一個寫入者,而且寫操作只能在文件末尾完

成,即只能執(zhí)行追加操作。默認三份文件塊兩塊在同一機架上,另一份存放在

其他機架上。

11.針對每行數(shù)據(jù)內容為"TimestampUri”的數(shù)據(jù)文件,在用JobConf對象

conf設置conf.setlnputFormat(WhichlnputFormat.class)來讀取這個文件

時,WhichlnputFormat應該為以下的()。

A.TextinputFormat

B.KeyValueTextinputFormatJ

C.SequenceFileinputFormat

D.NLinelnputFormat

解析:四項主要的InputFormat類。KeyValueTextlnputFormat以每行第一個

分隔符為界,分隔符前為key,之后為value,默認制表符為\t。

12.下列關于HDFS為存儲MapReduce并行切分和處理的數(shù)據(jù)做的設計,錯誤的

是()。

A.FSDatalnputStream擴展了DatalnputStream以支持隨機讀

B.為實現(xiàn)細粒度并行,輸入分片(InputSplit)應該越小越好V

C.一臺機器可能被指派從輸入文件的任意位置開始處理一個分片

D.輸入分片是一種記錄的邏輯劃分,而HDFS數(shù)據(jù)塊是對輸入數(shù)據(jù)的物理分割

解析:每個分片不能太小,否則啟動與停止各個分片處理所需的開銷將占很大

一部分執(zhí)行時間。

13.以下說法不正確的是()o

A.HadoopStreaming使用Unix中的流與程序交互

B.HadoopStreaming允許我們使用任何可執(zhí)行腳本語言處理數(shù)據(jù)流

C.采用腳本語言時必須遵從UNIX的標準輸入STDIN,并輸出到STDOUT

D.Reduce沒有設定,上述命令運行會出現(xiàn)問題V

解析:沒有設定特殊的reducer,默認使用IdentityReducer。

14.出現(xiàn)在datanode的VERSION文件格式中但不出現(xiàn)在namenode的VERSION文

件格式中的是OO

A.namespacelD

B.storagelDV

C.storageType

D.layoutversion

解析:其他三項是公有的。layoutVersion是一個負整數(shù),保存了HDFS的持續(xù)

化在硬盤上的數(shù)據(jù)結構的格式版本號;namespacelD是文件系統(tǒng)的唯一標識

符,是在文件系統(tǒng)初次格式化時生成的;storageType表示此文件夾中保存的

是數(shù)據(jù)節(jié)點的類型。

15.HDFS的是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,默認的最

基本的存儲單位是64M,具有高容錯、高可靠性、高可擴展性、高吞吐率等特

征,適合的讀寫任務是()。

A.一次寫入,少次讀寫

B.多次寫入,少次讀寫

C.一次寫入,多次讀寫J

D.多次寫入,多次讀寫

解析:無

16.下列關于HadoopAPI的說法錯誤的是()。

A.Hadoop的文件API不是通用的,只用于HDFS文件系統(tǒng)J

B.Configuration類的默認實例化方法是以HDFS系統(tǒng)的資源配置為基礎的

C.FileStatus對象存儲文件和目錄的元數(shù)據(jù)

D.FSDatalnputStream是java.io.DatalnputStream的子類

解析:無

17.HDFS的NameNode負責管理文件系統(tǒng)的命名空間,將所有的文件和文件夾的

元數(shù)據(jù)保存在一個文件系統(tǒng)樹中,這些信息也會在硬盤上保存成以下文件:

()O

A.日志

B.命名空間鏡像

C.兩者都是V

解析:無

18.Hadoop2.0中HDFS默認BlockSize()。

A.32MB

B.64MB

C.128MBV

D.256MB

解析:Hadoop-2.X中HDFS文件塊大小默認為128M。

19.關于HDFS的文件寫入,正確的是()。

A.支持多用戶對同一個文件的寫操作

B.用戶可以在文件的任意位置進行修改

C.默認將文件復制成三份存放V

D.復制的文件默認都存在同一機架上

解析:無

20.HDFS無法高效存儲大量小文件,想讓它能處理好小文件,比較可行的改進

策略不包括()O

A.利用SequenceFile,MapFile,Har等方式歸檔小文件

B.多Master設計

C.Block大小適當調小

D.調大namenode內存或將文件系統(tǒng)元數(shù)據(jù)存到硬盤里J

解析:無

21.HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,默認的最基

本的存儲單位是64M,具有高容錯、高可靠性、高擴展性、高吞吐率等特征,

適合的讀寫任務是()。

A.一次寫入,少次讀寫

B.多次寫入,少次讀寫

C.一次寫入,多次讀寫J

D.多次寫入,多次讀寫

解析:無

22.()在HDFS上進行文件寫入時,namenode根據(jù)文大小和配置情況,返回部

分DataNode信息,誰負責將文件劃分為多個block,根據(jù)DataNode的地址信

息按順序寫入到每一個DataNode塊

A.ClinteV

B.NameNode

C.DataNode

D.Secondarynamenode

解析:無

23.出現(xiàn)在datanode的VERSION文件格式中但不出現(xiàn)在nomenode的VERSION文

件格式中的是()O

A.namenodeID

B.storagelDV

C.storageType

D.layoutVersion

解析:無

24.Client端上傳文件到HDFS上的時候下列正確的是()0

A.數(shù)據(jù)經(jīng)過NameNode傳遞給DataNode

B.數(shù)據(jù)副本將以管道的方式依次傳遞J

C.Client將數(shù)據(jù)寫到一臺DataNode上,并由Client負責完成Block復制工作

D.當某個DataNode失敗,客戶端不會繼續(xù)傳給其它的DataNode

解析:無

25.下列關于HadoopAPI說法錯誤的是()。

A.hadoop的文件API不是通用的,只用于HDFS文件系統(tǒng)V

B.Configuration類的默認實例化方法是以HDFS系統(tǒng)的資源配置為基礎

C.Filestatus對象存儲文件和目錄的元數(shù)據(jù)

D.FSDatalnputStream是java.io.DatalnputStream的子類

解析:無

26.關于Hadoop單機模式和偽分布式的說法正確的是()。

A.兩者都啟動守護進程,且守護進程運行在一臺機器上

B.單機模式不使用HDFS,但加載守護進程

C.兩者都不與守護進程交互,避免復雜性

D.后者比前者增加了HDFS輸入輸出以及可檢查內存使用情況V

解析:無

27.配置Hadoop時,JAVAJ10ME包含在哪一個配置文件中()。

A.hadoop-default.xml

B.hadoop-env.shJ

C.hadoop-site.xml

D.Configuration,xsl

解析:無

28.關于SecondaryNameNode哪項是正確的?()

A.它是NameNode的熱備

B.它對內存沒有要求

C.它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間J

D.SecondaryNameNode應與NameNode部署到一個節(jié)點

解析:無

29.下列哪項通常是集群的最主要瓶頸()o

A.CPU

B.網(wǎng)絡

C.磁盤10J

D.內存

解析:無

30.HDFS默認的當前工作目錄是/user/$USER,fs.default,name的值需要在哪

個配置文件內說明()?

A.mapred-site.xml

B.core-site,xmlJ

C.hdfs-site.xml

D.以上均不是

解析:無

31.下面哪個負責HDFS數(shù)據(jù)存儲()o

A.NameNode

B.ResourceManager

C.DataNodeJ

D.NodeManager

解析:無

32.由于Hive只支持等值連接,為了提高性能,建議把最大的表格放在連接的

()端。

A.最左

B.中間

C.最右J

D.任意

解析:無

33.下面哪個選項中的Daemon總是運行在同一臺主機上?()

A.NameNode&JobTracker

B.SecondaryNameNode&JobTracker

C.NameNode&SecondaryNameNode

D.DataNode&TaskTrackerV

解析:無

34.在一個Hadoop集群中有多少個JobTrackerdaemon?()

A.一個V

B.兩個

C.每個slave節(jié)點一個

D.每個slave節(jié)點兩個

解析:無

35.在HadoopMapReduce框架中,任何值類型。。

A.需要實現(xiàn)Writable接口V

B.需要實現(xiàn)Comparable接口

C.需要實現(xiàn)WritableComparable接口

D.不需要實現(xiàn)任何接口

解析:無

36.在海量數(shù)據(jù)中,Dynamo的存儲是按照什么策略來進行的?()

A.消息代理

B.傳統(tǒng)的存儲放置策略

C.一致性吟希算法V

D.異步復制

解析:無

37.下列選項中,不是CouchDB的復制中的特點是:()。

A.使用優(yōu)先列表V

B.復制過程是逐步進行

C.允許分區(qū)復制

D.支持智能文檔模式

解析:無

38.Hive查詢語言中的算術操作符的返回結果是()類型的。

A.Bigint

B.String

C.NumberJ

D.Int

解析:無

39.在配置中,哪個屬性定義了jobtracker服務主機?()

A.mapped,job.trackerV

B.map.red.jobtracker

C.map.red.job.tracker

D.mapred.jobtracker

解析:無

40.HDfS中的block默認保存幾份?()

A.3份J

B.2份

C.1份

D.不確定

解析:無

41.配置Hadoop時,JAVA_H0ME包含在哪一個配置文件中()。

A.hadoop-default.xml

B.hadoop-env.shV

C.hadoop-site.xml

D.configuration,xsl

解析:無

42.知識點:hadoop配置Hadoop配置文件中,hadoop-site.xml顯示覆蓋

hadoop-default.xml里的內容。在版本0.20中,hadoop-site.xml被分離成三

個XML文件,不包括()。

A.conf-site,xmlV

B.mapred-site.xml

C.core-site.xml

D.hdfs-site.xml

解析:無

43.關于Hadoop單機模式和偽分布式模式的說法,正確的是()o

A.兩者都起守護進程,且守護進程運行在一臺機器上

B.單機模式不使用HDFS,但加載守護進程

C.兩者都不與守護進程交互,避免復雜性

D.后者比前者增加了HDFS輸入輸出以及可檢查內存使用情況V

解析:無

44.Hadoopfs中的-get和-put命令操作對象是()。

A.文件

B.目錄

C.兩者都是V

解析:無

45.MapReduce框架提供了一種序列化鍵/值對的方法,支持這種序列化的類能

夠在Map和Reduce過程中充當鍵或值,以下說法錯誤的是()。

A.實現(xiàn)Writable接口的類是值

B.實現(xiàn)Writab1eComparab1e接口的類可以是值或鍵

C.Hadoop的基本類型Text并不實現(xiàn)Writab1eComparab1e接口J

D.鍵和值的數(shù)據(jù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論