版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
2025年江蘇省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù))考試題庫(含答案)一、單選題1.若要在Hive中啟用壓縮數(shù)據(jù)存儲,應(yīng)該設(shè)置哪個配置參數(shù)()?A、press.enabC、p2.在ZooKeeper中,()角色負責(zé)協(xié)調(diào)其他節(jié)點的工作。D、所有角色均可3.ZooKeeper中的一次讀操作是原子的嗎?()4.在hadoop配置中core-site.xml的配置是()參數(shù)。A、集群全局參數(shù)D、集群資源管理系統(tǒng)參數(shù)6.以下關(guān)于Hive操作描述不正確的是()。A、Hive是一個建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉庫架構(gòu),可以用其對HDFS上C、Hive的加載數(shù)據(jù)時候,可以用local進行修飾,表示從某個本地目錄下加載數(shù)據(jù)D、Hive一般可以用于實時的查詢分析答案:D7.Flink的Web界面通常用于()。B、監(jiān)控Flink集群8.查看Docker版本號的操作命令是()。9.在ZooKeeper中,節(jié)點的數(shù)據(jù)版本是如何維護的?()10.關(guān)于DataFrame的優(yōu)勢,以下描述錯誤的是()。D、ataFrame可以完全替換RDD11.將一個已經(jīng)創(chuàng)建的容器導(dǎo)出到一個文件使用的操作命令是()。12.Flink的集群部署通常需要()作為資源管理器。14.Flume的哪個組件用于將事件數(shù)據(jù)寫入目標存儲?()A、數(shù)據(jù)復(fù)制B、數(shù)據(jù)壓縮C、數(shù)據(jù)分片D、數(shù)據(jù)緩存答案:AA、bin/sqoopimport--connectjdbc:mysql://0:3306/userdernameroot--delete-target-dir--target-dir/MysqlToHDFS1-B、in/sqoopimport--connectjdbc:mysql://localhosteroot--delete-target-dir--target-dir/MysqlToHDFS1-C、bin/sqoopimport--connectjdbc:mysql://localhost:330meroot--delete-target-dir--target-dir/MysqlToHDFSD、bin/sqoopimport--connectjdbc:mysql://localhomeroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11.3答案:DC、Executor啟動會主動連接Driver,通過Driver->Master->WorkExecutor,從而得到Driver在哪D、river會產(chǎn)生Task,提交給Executor中啟動Task去做真正的計算18.下列不是Spark的部署模式的是()。20.Flume的核心組件有哪些?()22.在ZooKeeper中,節(jié)點可以設(shè)置監(jiān)聽器嗎?()A、是,可以設(shè)置監(jiān)聽器B、否,節(jié)點沒有監(jiān)聽功能C、取決于節(jié)點的類型D、取決于節(jié)點的權(quán)限設(shè)置答案:A24.設(shè)用壓力測試測出機器寫入速度是20M/s一臺,峰值的業(yè)務(wù)數(shù)據(jù)的速度是10OM/s,副本數(shù)為6,預(yù)估需要部署Kafka機器數(shù)量為()。A、6.025.Dockerfile中指定環(huán)境變量的指令是()。26.Kafka的消息保留策略可以根據(jù)什么進行配置?()A、1.028.Docker運行的核心模塊是()。答案:B29.查看Docker鏡像信息的命令是()。30.Kafka最初是由哪家公司開發(fā)的?()31.啟動一個容器的操作命令是()。32.關(guān)于MapReduce優(yōu)點,下列說法不正確的是()。A、高容錯性B、適合PB級以上海量數(shù)據(jù)的離線處理33.ZooKeeper中的數(shù)據(jù)模型是基于()。34.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計算不是因為()。B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個RDD操作之間進行傳遞,避免C、存放的數(shù)據(jù)可以是Java對象,避免了D、RDD采用了高效的“轉(zhuǎn)換”和“動作”算子B、MapReduce是基于內(nèi)存計算的框架C、MapReduce是分布式文件存儲系統(tǒng)D、MapReduce1.0既是一個計算框架又是一個資源調(diào)度框架36.Hive中以下操作不正確的是()。38.在Sqoop中,使用哪個命令可以列出可用的數(shù)據(jù)庫連接?()D、取決于Watcher的設(shè)置40.下列說法錯誤的是()。D、partition是一個沒有順序的隊列41.Flume的哪個版本加入了對Avro事件的的支持?()42.將大數(shù)據(jù)平臺數(shù)據(jù)導(dǎo)出到mysql可以使用()工具。A、Dataset能從RDD中構(gòu)建B、Dataset提供了特定域?qū)ο笾械娜躅愋图螦、hive.query.plan.cache.dir答案:B45.在Hive中,以下哪個配置參數(shù)用于指定Hive執(zhí)行計劃的輸出目錄()?A、hive.query.plan.output.direc答案:A46.在Hive中,以下哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名(A、hive.history.file.n答案:B47.創(chuàng)建一個容器的操作命令是()。C、dockerbuild答案:D答案:D49.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。50.Flink的分布式部署需要的組件是()。51.消費者出現(xiàn)活鎖問題時應(yīng)該()。A、增加erval.ms相關(guān)參數(shù)B、減少消費者數(shù)量D、提高poll頻率庫用于(),幫助檢測和處理特A、執(zhí)行復(fù)雜數(shù)據(jù)處理操作C、處理實時事件流D、控制數(shù)據(jù)流速度53.Kafka的主題分區(qū)數(shù)量可以根據(jù)什么進行配置?()54.關(guān)于SparkSQL,以下說法正確的是()。55.Kafka的消息傳遞語義是()。56.在Hive中,哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.direct60.在Docker的運行過程中,對鏡像的操作不包括()。61.以下哪個是正確的sqoop導(dǎo)入數(shù)據(jù)的完整命令?()A、sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernot--delete-target-dir--target-dir/MysqlToHDFS1-B、sqoopimportdata--connectjdbc:mysql://localhomeroot--delete-target-dir--target-dir/MysqlTC、bin/sqoopimport--connectjdbc:mysql://localhost:330meroot--delete-target-dir--target-dir/MysqITD、bin/sqoopimportdata--connectjdbc:mysql://loernameroot--delete-target-dir--target-dir/MysqlToHDFS162.配置Hadoop文件參數(shù)時,配置項“dfs.replication”應(yīng)該配置在哪個文件?63.Docker中的每一個工作都可以抽象為一個()。A、實例B、進程D、請求答案:C64.Hive的默認元數(shù)據(jù)存儲是什么()?A、它是NameNode的熱備D、SecondaryNameNode應(yīng)與NameNode部署到一個節(jié)點A、persist()D、以上都不是C、只能由Leader節(jié)點創(chuàng)建68.Kafka的生產(chǎn)者在發(fā)送消息時可以選擇的傳遞方式是()。69.Kafka的消息是如何進行順序?qū)懭氲?()70.Hive中的哪個配置參數(shù)用于指定Hive元數(shù)據(jù)存儲的連接URL()?A、hive.metastore.db.A、list72.下列關(guān)于topic和partition的描述,錯誤的是()。73.查看Docker所有容器的命令是()。75.在ZooKeeper中,ACL(訪問控制列表)可以設(shè)置為()。76.下面()操作是寬依賴。78.DataFrame和RDD最大的區(qū)別是()。79.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負責(zé)。81.下面中不屬于HIVE中的元數(shù)據(jù)信息()。C、表的屬性(只存儲內(nèi)部表信息)82.Flink中的Watermark是用來(),83.關(guān)于Hive各個格式使用場景描述錯誤的是()。A、Parquet對于大型查詢的類型是高效的,對于掃描特定表格中的特定列的查A、Partition85.Hive適合()環(huán)境。A、Hive適合用于聯(lián)機(online)事務(wù)處理D、Hive適合關(guān)系型數(shù)據(jù)環(huán)境86.以下對hive中表數(shù)據(jù)操作描述正確的是()。A、hive可以修改行值B、hive可以修改列值C、hive不可以修改特定行值、列值88.Docker的()命令用于構(gòu)建鏡像。89.Flink的高可用性(HighAvailability)設(shè)置通常需要配置的組件是()。90.Hive是由哪家公司開源的()。91.Flume的哪個版本加入了Kafka作為源和匯點?()A、1.X版本C、3.X版本93.以下關(guān)于Spark與Hadoop對比,說法錯誤的是()。B、Spark提供了內(nèi)存計算,可將中間結(jié)果放到內(nèi)C、Spark磁盤10開銷較大,任務(wù)之間的銜接涉及10開銷D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行機制94.在Hive中,以下哪個配置參數(shù)用于指定Hive表的默認存儲格式()?A、hive.default.storage.fo95.Hive中的配置文件通常位于哪個目錄中()?A、/etc/hive/conf97.要在Hive中啟用Kerberos認證,應(yīng)該設(shè)置哪個配置參數(shù)()?A、hive.security.authentica98.在Hive中,以下哪個配置參數(shù)用于指定Hive服務(wù)器的端口號()?99.關(guān)于Hive查詢通常延遲較高的原因描述錯誤的是()。答案:D100.關(guān)于ZooKeeper說法錯誤的是()。A、ZooKeeper是一個高可用的分布式數(shù)據(jù)管理和協(xié)調(diào)框架B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性C、越來越多的分布式系統(tǒng)(Hadoop、HBase、Kafka)中使用ZooKeeperD、Hadoop的高可用不需要用到ZooKeeper答案:C102.Flink的日志管理通常包括()這幾個方面。A、日志存儲和檢索B、日志清理和壓縮C、日志分析和報警D、以上都是答案:D103.在配置好Hadoop集群之后,通過瀏覽器登錄查看HDFS狀態(tài),以下是查看的A、RDD就是一個分布式對象集合,本質(zhì)上是一個只讀的分區(qū)記錄集合B、每個RDD可分成多個分區(qū),每個分區(qū)就是一個數(shù)據(jù)集片段D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點上,從而可以在集群中的不QL類型被映射什么類型()。106.Spark默認的存儲級別是()。107.Hadoop集群中存在的主要性能瓶頸是()。A、CPUC、磁盤10108.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()109.Kafka的消息以什么形式進行存儲?()110.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。111.Flink的狀態(tài)管理用于(),以支持容錯性和狀態(tài)化的計算。庫是不支持使用Sqoop直接進行數(shù)據(jù)傳送()。A、DD115.Hive中的自動分區(qū)是通過哪個配置參數(shù)啟用的()?C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計算的細節(jié),方便使用118.HBase依賴()技術(shù)框架提供消息通信機制。119.Hive中分組的關(guān)鍵字是什么()?121.Flume的哪個版本開始支持Avro作為數(shù)據(jù)傳輸格式?()B、2.X版本123.Flink的安全性設(shè)置通常包括(),以確保只有授權(quán)用戶能夠訪問Flink124.Kafka的消息傳遞保證是()。C、正好一次A、節(jié)點名稱具有順序性B、節(jié)點數(shù)據(jù)具有順序性C、節(jié)點的觸發(fā)器具有順序性126.Flume的攔截器實現(xiàn)了哪個接口?()127.Kafka的核心是由哪個組件組成?()答案:C129.Flink的安裝配置中,通過()來指定外部依賴庫的路徑。A、在Flink集群中心目錄中添加依賴庫B、在Flink作業(yè)中指定依賴庫路徑C、在Flink配置文件中設(shè)置lib.paths屬性答案:C130.以下哪種不是Hive支持的數(shù)據(jù)類型()。答案:D132.關(guān)于SparkStreaming的優(yōu)點,不包括()。A、易用性B、容錯性C、易整合性D、低吞吐量A、節(jié)點的數(shù)據(jù)變更操作B、節(jié)點的子節(jié)點變更操作134.Sqoop中哪個參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時正確處理字135.以下關(guān)于Spark計算框架,說法錯誤的是()。B、Spark框架是使用Java編寫的C、Spark提供了完整而強大的技術(shù)棧,包括SQL查詢、流式計算、機器學(xué)習(xí)和圖算法組件D、Spark可運行于獨立的集群模式中,可運行于Hadoop中,也可運行于Amazo答案:B答案:D137.停止一個容器的操作命令是()。A、dockerstop139.Flume的Sink組件負責(zé)什么?()140.當使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時,以下哪個參數(shù)用于指定使用141.SparkStreaming中對DStream的轉(zhuǎn)換操作會轉(zhuǎn)變成對()的操作。143.允許開發(fā)人員為容器分配MAC地址的是()。144.在Hive中,以下哪個配置參數(shù)用于指定Hive元數(shù)據(jù)存儲的數(shù)據(jù)庫145.ZooKeeper中的節(jié)點可以設(shè)置()類型的觸發(fā)器。146.下面()操作是窄依賴。147.查看HDFS的報告命令是()。148.Kafka服務(wù)器默認能接收的最大消息是多大?()否A、1M150.以下關(guān)于RDD的寬依賴和窄依賴的說法錯誤的是()。151.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實現(xiàn)。152.在ZooKeeper中,關(guān)于節(jié)點的ACL(訪問控制列表)說法錯誤的是()。153.Flume的哪個組件可以保證數(shù)據(jù)不會丟失?()155.關(guān)于DStream窗口操作函數(shù),以下說法錯誤的是()。A、window()返回基于源DStream156.關(guān)于Hive數(shù)據(jù)傾斜問題描述正確的是()。C、小文件合并不會解決數(shù)據(jù)傾斜的問題C、SequenceFile是一種二進制存儲159.Flink的核心概念之一是()。D、數(shù)據(jù)倉庫A、JSON161.當Kafka中日志片段大小達到()時,當前日志片段會被關(guān)閉。A、1M162.Flume的事件傳輸方式是什么?()163.Docker的三大核心不包括()。165.關(guān)于Hivemetastore的三種模式的描述錯誤的是()。B、local模式中,使用MySQL本地部署實現(xiàn)metastoreC、remote模式為遠程MySQL167.下列選項中,()不屬于轉(zhuǎn)換算子操作。168.Docker是基于()實現(xiàn)的開源容器項目。D、Python語言169.關(guān)于Hive描述正確的是()。170.Flink的容錯機制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生171.Flume的事件可以包含哪些屬性?()A、sqooplist-database--connectjdbc:mysql://:3306/--usernamB、sqooplist-databases--connectionjdbc:mysql:/C、sqooplist-databases--connectjdbc:mysql://127.0.0.D、sqooplist-databases--connectjdbc:mysql://1173.Docker配置文件的語法格式中,代表單個字符的符號是()。C、!A、文件的開頭B、文件的末尾C、新文件中176.在()版本后,Kafka177.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。A、可以用JAVA語言編寫MapReduce應(yīng)用程序B、可以用C/C++語言編寫MapReduce應(yīng)用程序A、hive.tmp.dir179.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。180.關(guān)于Hive和傳統(tǒng)數(shù)據(jù)庫的比較描述正確的是()?B、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系C、Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲在HDFS中的,而D、Hive的針對數(shù)據(jù)倉庫設(shè)計,針對的是讀多寫少的場景離灘灘182.關(guān)于HiveSQL編譯描述正確的是()。A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計劃的184.下列語句中,描述錯誤的是()。B、Sqoop底層會將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過Sqoop連接器進行t”或“”A、實現(xiàn)Exactly-once語義A、Leader-Follower初始通信時限B、Leader-Follower同步通信時限C、lient-Server通信心跳時間D、Client-Server初始通信時限187.下面哪個命令是導(dǎo)入到集群()。A、import188.制作鏡像時,復(fù)制文件到鏡像中使用的命令是()。A、DD190.關(guān)于Hive數(shù)據(jù)模型描述正確的是()。A、Hive的元數(shù)據(jù)存儲在HDFS中B、Hive的數(shù)據(jù)模型只包含:表、分區(qū)191.Flink的安裝過程中,通常需要設(shè)置()來指定Flink的根目錄。192.Flume的哪個攔截器可以按類型區(qū)分事件?()195.在ZooKeeper中,每個節(jié)點都有一個唯一的標識符,這個標識符是()。答案:A196.在Sqoop中,哪個參數(shù)用于指定要導(dǎo)入的目標表?()A、計算作業(yè)的結(jié)果B、控制作業(yè)的執(zhí)行順序C、定義數(shù)據(jù)源D、過濾和轉(zhuǎn)換數(shù)據(jù)流答案:DC、無D、運行時指定200.ZooKeeper使用的是()文件系統(tǒng)。201.Flink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。答案:B203.dockerfile文件的作用是()。A、普通文件B、用于自定義鏡像C、用于保存容器配置D、用于存放docker配置答案:B204.當之前下線的分區(qū)重新上線時,要執(zhí)行Leader選舉,選舉策略為()。C、PreferredReplicaPartitionLeaderD、ControlledShutdownPartitionLeader選舉205.SparkSQL中,model函數(shù)可以接收的參數(shù)有哪些A、Override、Ignore答案:D207.Kafka使用的是什么類型的消息傳遞模式?()208.Flink的本地模式(LocalMode)和集群模式(ClusterMode)之間的主要區(qū)別是()。210.Dataset最終在()版本中被定義成Spark新特性。211.Hive是為了解決哪類問題()?A、增加MapReduce2213.以下選項中說法正確的是()。A、DAG是彈性分布式數(shù)據(jù)集的簡稱,是分布式內(nèi)存的一個抽象概念,提供了一C、Job是運行在Executor上的工作單元2.Flume可以用于哪些類型的數(shù)據(jù)采集?()3.在Hive中,以下哪個配置屬性用于設(shè)置Hive表的默認壓縮格式()。4.RDD的操作主要是()操作。6.Hadoop集群的三大核心組件是()。7.Docker可以解決的問題有()。8.關(guān)于ZooKeeper的特性說法正確的是()。A、kafka將元數(shù)據(jù)信息維護在zookeeper上10.以下哪些是yarn-site.xml配置文件主要參數(shù)()。B、yarn.resourcemana13.Sqoop中的--hive-drop-import-delims參數(shù)有什么作用?()A、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時,刪除MySQL中存在的所有分隔符B、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時,刪除MySQL中存在的所有換行符C、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時,刪除Hive中存在的所有分隔符A、有序節(jié)點16.下列關(guān)于容器操作命令匹配正確的有()。17.Sqoop是一個用于在Hadoop和結(jié)構(gòu)化數(shù)據(jù)存儲(如關(guān)系型數(shù)據(jù)庫)之間傳輸數(shù)據(jù)的工具。以下哪些()是Sqoop的主要參數(shù)?18.Hive中的數(shù)據(jù)類型包括哪些()。19.關(guān)于spark中數(shù)據(jù)傾斜引發(fā)原因正確的選項有()。20.當使用Sqoop進行數(shù)據(jù)導(dǎo)出時,以下哪些()選項是正確的?C、Sqoop導(dǎo)出的數(shù)據(jù)可以插入到已存在的HDFS目錄中A、批處理22.()是流計算的處理流程。23.SparkContext可以從()讀取數(shù)據(jù)。24.Hive的查詢優(yōu)化是通過什么實現(xiàn)的()。25.要配置Hive的元數(shù)據(jù)存儲連接字符串,應(yīng)該設(shè)置哪個屬性()。C、hive.metastore.jdbc26.如果要在Hive中啟用列級別的權(quán)限控制,哪個配置屬性應(yīng)該設(shè)置為true(A、hive.column.level.securityB、hive.security.column.authorization.enabledD、hive.column.authorization.en27.Docker容器的重要操作有()。28.Hive中的分區(qū)是如何定義的()。29.Flume的攔截器支持哪些操作?()A、Producer31.hadoopHA啟動后,以下哪些進程運行在master()?A、hive.dynamic.partition.inserC、hive.enable.dynamic34.Docker容器的操作狀態(tài)有()。B、運行狀態(tài)35.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個屬性()。36.下列屬于RDD的轉(zhuǎn)換算子的是()。37.管理自定義的網(wǎng)橋網(wǎng)絡(luò)的操作命令有()。38.Kafka負載均衡原理說法正確的是()。A、producer根據(jù)用戶指定的算法,將消息發(fā)送到指定的partitionB、存在多個partiiton,每個partition有自己的replica,每個replica分布zookeeper負責(zé)failover39.Flink組件中流類型包括()。40.關(guān)于Docker容器的run命令,下列參數(shù)匹配正確的有()。41.下列選項()是ZooKeeper的應(yīng)用場景。42.關(guān)于partition中的數(shù)據(jù)是如何保持到硬盤上的,說法正確的是()。持在broker節(jié)點上面的B、每一個分區(qū)的命名是從序號0開始遞增C、每一個partition目錄下多個segment文件(包含xx.index,xx.log),默認是1GD、每個分區(qū)里面的消息是有序的,數(shù)據(jù)是一樣的43.下列關(guān)于鏡像操作命令匹配正確的有()。44.spark的特點包括()。46.下列有關(guān)ZooKeeper中的節(jié)點路徑說法正確的是()。48.Flink的Sink有哪些類型()。49.下面關(guān)于Flink窗口描述錯誤的是()。50.Hive中的數(shù)據(jù)存儲是如何分區(qū)的()。54.Flink的緩存機制包含以下哪些內(nèi)容()。B、通過ExecutionEnvironment注冊緩存文件并為其起名C、當程序執(zhí)行時,F(xiàn)link自動將文件或目錄復(fù)制到所有TaskManager節(jié)點的本55.Kafka相對傳統(tǒng)技術(shù)有什么優(yōu)勢說法正確的是否()。A、GET57.Flume的可靠性機制包括哪些內(nèi)容?()58.Linux的特點是以下()方面。60.Hive中的哪個配置屬性用于指定Hive表的默認存儲格式()。A、hive.default.storage.foB、向Driver反向注冊C、接受Driver端發(fā)送來的任務(wù)Task,作用在RDD上進行執(zhí)行D、做資源調(diào)度任務(wù)答案:ABC62.Kafka的消息傳遞可以使用的序列化器包括()。答案:ABC63.下面關(guān)于Flink的描述正確的是()。A、Flink和Spark一樣,都是基于磁盤的計算框架B、當全部運行在HadoopYARN之上時,F(xiàn)link的性能甚至還要略好于SparkC、Flink的流計算性能和Storm差不多,可以支持毫秒級的響應(yīng)D、Spark的市場影響力和社區(qū)活躍度明顯超過Flink64.Kafka的消息傳遞可以保證消息的可靠性傳遞通過()。A、復(fù)制機制B、冗余機制C、重試機制D、容錯機制66.Task運行不在以下選項中Executor上的工作單元有()。67.Flume可以用于哪些方面的數(shù)據(jù)處理?()機制是通過以下()方式實現(xiàn)。A、創(chuàng)建Hive表70.在Hive中,以下哪個配置屬性用于啟用動態(tài)分區(qū)()。A、hive.exec.dynamic.partit71.Docker允許映射容器內(nèi)應(yīng)用的服務(wù)端口到本地宿主主機,主要方式有()。72.Flume可以與其他哪些大數(shù)據(jù)技術(shù)進行集成?()73.要讀取people.json文件生成DataFrame,可以使用下列()命令。A、spark.read.json("people.jsoC、spark.read.format("json").loD、spark.read.format("csB、無法高效存儲大量的小文件75.Flink支持的部署模式有()。76.利用數(shù)據(jù)卷容器可以對其中的數(shù)據(jù)卷進行()操作。78.創(chuàng)建鏡像的主要方法有()。79.Flume的攔截器可以完成哪些操作?()80.在Hive中,以下哪個配置屬性用于指定HDFS存儲位置的根目錄()。A、hive.data.root.dir81.在使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL之前,需要確保以下條件已經(jīng)滿足A、已經(jīng)安裝了Hadoop集群和Hive數(shù)據(jù)庫B、已經(jīng)安裝了MySQL數(shù)據(jù)庫,并且可以連接到MySQL數(shù)據(jù)庫C、已經(jīng)安裝了Sqoop,并且可以在命令行中運行Sqoop命令82.Dockerfile配置文件中的指令包括()。83.要在Hive中配置HDFS的NameNodeURI,應(yīng)該設(shè)置哪個屬性()。84.關(guān)于ZooKeeper順序節(jié)點的說法不正確的是()。85.下面哪個配置屬性用于指定Hive查詢的最大并行度()。A、hive.query.parallel86.Docker的核心概念包括()。B、通知workerC、精密的狀態(tài)管理D、事件時間支持答案:ABCD89.使用dockerps命令可以查看到的信息有()。B、鏡像名稱C、容器的端口D、生存時間E、環(huán)境變量90.以下哪些組件屬于Hadoop生態(tài)圈()。答案:BCD91.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個配置屬性應(yīng)該設(shè)置為true()。A、hive.Ilap.enabledD、hive.Ilap.execution.enabled答案:ABD92.Flink整個系統(tǒng)包含()三個部分。93.從RDD轉(zhuǎn)換得到DataFrame包含兩種典型的方法,分別是()。94.Hadoop的運行模式分為以下()種。95.關(guān)于Flink的架構(gòu)表述正確的是()。C、Flink提供兩個核心API:DatasetAPI和DataStreamAPID、ataSetAPI做批處理,而DataStreamAPI做流處理96.在Hive中,以下哪個配置屬性用于指定Hive表的默認文件格式()。97.Flink支持的時間操作類型包括()。98.當使用Sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時,以下()參數(shù)可以使用?99.Flume可以應(yīng)用于哪些數(shù)據(jù)傳輸場景?()100.Flink核心組成部分提供了面向()的接口。101.Docker數(shù)據(jù)卷的操作有()。103.后端容器化環(huán)境部署中使用的數(shù)據(jù)庫一般有()。104.下列屬于RDD的行動算子的是()。105.ZooKeeper的集群中的Leader節(jié)點的選舉是通過以下()方式實現(xiàn)。106.Kafka的消息傳遞保證可以是()。D、恰好兩次A、在容錯機制中,如果一個節(jié)點死機了,而且運算窄依賴,則只要把丟失的父RDD分區(qū)重算即可,依賴于其他節(jié)點B、寬依賴開銷更大C、heckpoint可以節(jié)約大量的系統(tǒng)資源110.Flink流式處理的數(shù)據(jù)源類型包括()。112.Kafka的消費者可以以以下哪種方式進行消息的并行處理?()3.()HDFS中每個數(shù)據(jù)節(jié)點會定期向名稱節(jié)點發(fā)送信息,向名稱節(jié)點報告自7.()Flink支持精確一次語義(Exactly-0nceSemantics)來確保數(shù)據(jù)處理13.()Kafka的消息傳遞保證是“僅一次”(Exactly
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年物業(yè)管理的稅務(wù)合規(guī)要點
- 2026年可注入電能的建筑電氣設(shè)計
- 2026年政策支持與綠色施工發(fā)展
- 課件軟件介紹
- 全國紅帽認證RHCE工程師技能考核及答案
- 影視觀后感寫作技巧與范文指導(dǎo)
- 電梯安全操作崗位責(zé)任制
- 燃氣設(shè)備安全操作規(guī)程與崗位說明
- 智能水表竣工驗收流程詳解
- 高中班主任學(xué)期總結(jié)及工作反思
- 小區(qū)道閘廣告合同(標準版)
- 2025年山西鐵道單招試題及答案
- 現(xiàn)場缺陷件管理辦法
- DB42T 831-2012 鉆孔灌注樁施工技術(shù)規(guī)程
- DBJ04-T489-2025 《智慧園林建設(shè)標準》
- 學(xué)校餐費退費管理制度
- 初三語文競賽試題及答案
- 2025-2030中國石膏墻板行業(yè)市場發(fā)展趨勢與前景展望戰(zhàn)略研究報告
- 2024年度企業(yè)所得稅匯算清繳最 新稅收政策解析及操作規(guī)范專題培訓(xùn)(洛陽稅務(wù)局)
- 實驗室檢測質(zhì)量控制與管理流程
- 中小學(xué)教學(xué)設(shè)施設(shè)備更新項目可行性研究報告(范文)
評論
0/150
提交評論