大數(shù)據(jù)分布并行處理試題及答案_第1頁(yè)
大數(shù)據(jù)分布并行處理試題及答案_第2頁(yè)
大數(shù)據(jù)分布并行處理試題及答案_第3頁(yè)
大數(shù)據(jù)分布并行處理試題及答案_第4頁(yè)
大數(shù)據(jù)分布并行處理試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

大數(shù)據(jù)分布并行處理試題及答案一、單項(xiàng)選擇題(每題2分,共20分)1.以下關(guān)于分布式并行計(jì)算特點(diǎn)的描述中,錯(cuò)誤的是:A.利用多臺(tái)機(jī)器的計(jì)算資源提升處理能力B.數(shù)據(jù)通常分布存儲(chǔ)在不同節(jié)點(diǎn)上C.節(jié)點(diǎn)間通過(guò)網(wǎng)絡(luò)通信協(xié)作完成任務(wù)D.所有任務(wù)必須嚴(yán)格串行執(zhí)行答案:D解析:分布式并行計(jì)算的核心是將任務(wù)分解為多個(gè)子任務(wù),并行執(zhí)行,因此“所有任務(wù)必須嚴(yán)格串行執(zhí)行”是錯(cuò)誤的。其他選項(xiàng)均符合分布式并行計(jì)算的基本特征。2.HDFS默認(rèn)的塊大小是:A.32MBB.64MBC.128MBD.256MB答案:C解析:HDFS設(shè)計(jì)時(shí)為了減少NameNode內(nèi)存占用并優(yōu)化大文件處理,默認(rèn)塊大小為128MB(早期版本為64MB,當(dāng)前主流版本已調(diào)整為128MB)。3.MapReduce任務(wù)中,Shuffle階段的主要作用是:A.將Map輸出數(shù)據(jù)按鍵分組并傳輸?shù)綄?duì)應(yīng)的Reduce節(jié)點(diǎn)B.對(duì)輸入數(shù)據(jù)進(jìn)行切片分割C.合并Reduce輸出的結(jié)果文件D.對(duì)Map輸出數(shù)據(jù)進(jìn)行排序答案:A解析:Shuffle階段連接Map和Reduce,核心是將Map輸出的<Key,Value>對(duì)按Key的哈希值分發(fā)到不同Reduce節(jié)點(diǎn),并在每個(gè)Reduce節(jié)點(diǎn)上按Key排序,因此“按鍵分組并傳輸”是主要作用。排序是Shuffle中的子步驟,并非核心目標(biāo)。4.Spark中RDD(彈性分布式數(shù)據(jù)集)的“彈性”不體現(xiàn)在以下哪一方面?A.自動(dòng)進(jìn)行內(nèi)存與磁盤的存儲(chǔ)切換B.通過(guò)血統(tǒng)(Lineage)實(shí)現(xiàn)容錯(cuò)C.支持多種并行操作(如map、reduce)D.數(shù)據(jù)丟失后可通過(guò)重算恢復(fù)答案:C解析:RDD的“彈性”主要指容錯(cuò)性(血統(tǒng)機(jī)制)、存儲(chǔ)彈性(內(nèi)存/磁盤)和計(jì)算彈性(數(shù)據(jù)丟失可重算)。支持多種并行操作是RDD的功能特性,而非“彈性”的體現(xiàn)。5.分布式系統(tǒng)中,以下哪項(xiàng)不是CAP理論中的特性?A.一致性(Consistency)B.可用性(Availability)C.分區(qū)容錯(cuò)性(PartitionTolerance)D.持久性(Persistence)答案:D解析:CAP理論包含一致性、可用性、分區(qū)容錯(cuò)性三個(gè)特性,持久性是數(shù)據(jù)庫(kù)事務(wù)的ACID特性之一,不屬于CAP。6.數(shù)據(jù)傾斜(DataSkew)在分布式計(jì)算中可能導(dǎo)致的最直接問(wèn)題是:A.節(jié)點(diǎn)間網(wǎng)絡(luò)帶寬消耗過(guò)大B.部分節(jié)點(diǎn)任務(wù)執(zhí)行時(shí)間過(guò)長(zhǎng),整體作業(yè)延遲C.數(shù)據(jù)副本不一致D.存儲(chǔ)容量不足答案:B解析:數(shù)據(jù)傾斜指某些Key對(duì)應(yīng)的數(shù)據(jù)集遠(yuǎn)大于其他Key,導(dǎo)致處理這些Key的節(jié)點(diǎn)負(fù)載過(guò)高,執(zhí)行時(shí)間顯著延長(zhǎng),最終拖慢整個(gè)作業(yè)。其他選項(xiàng)雖可能間接相關(guān),但最直接的影響是任務(wù)延遲。7.HDFS的容錯(cuò)機(jī)制不包括:A.數(shù)據(jù)塊多副本存儲(chǔ)B.NameNode的元數(shù)據(jù)日志(EditLog)與鏡像文件(FsImage)C.客戶端讀取時(shí)自動(dòng)切換到可用副本D.基于Checkpoint的計(jì)算任務(wù)恢復(fù)答案:D解析:Checkpoint是Spark、Flink等計(jì)算框架的容錯(cuò)機(jī)制,用于記錄RDD或數(shù)據(jù)流的中間狀態(tài)。HDFS的容錯(cuò)依賴副本機(jī)制(A)、NameNode元數(shù)據(jù)持久化(B)和客戶端自動(dòng)重定向(C)。8.以下關(guān)于分布式并行計(jì)算中并行度(Parallelism)的描述,錯(cuò)誤的是:A.并行度越高,任務(wù)執(zhí)行速度一定越快B.并行度需與集群資源(CPU、內(nèi)存)匹配C.數(shù)據(jù)分片數(shù)通常決定初始并行度D.過(guò)高的并行度可能增加任務(wù)調(diào)度開銷答案:A解析:并行度受集群資源限制,過(guò)高的并行度會(huì)導(dǎo)致資源競(jìng)爭(zhēng)(如內(nèi)存不足)或調(diào)度開銷增大,反而降低效率,因此“并行度越高,速度一定越快”錯(cuò)誤。9.Raft協(xié)議中,當(dāng)領(lǐng)導(dǎo)者(Leader)故障時(shí),系統(tǒng)進(jìn)入:A.選舉階段(Election)B.同步階段(Replication)C.心跳階段(Heartbeat)D.快照階段(Snapshot)答案:A解析:Raft協(xié)議中,領(lǐng)導(dǎo)者通過(guò)定期發(fā)送心跳維持權(quán)威。若其他節(jié)點(diǎn)超時(shí)未收到心跳,會(huì)轉(zhuǎn)換為候選者(Candidate)并發(fā)起選舉,因此故障后進(jìn)入選舉階段。10.在Spark中,使用persist(StorageLevel.MEMORY_AND_DISK)持久化RDD時(shí),若內(nèi)存不足,未存儲(chǔ)的分區(qū)會(huì):A.直接丟失,需通過(guò)血統(tǒng)重算B.存儲(chǔ)到磁盤C.復(fù)制到其他節(jié)點(diǎn)D.觸發(fā)垃圾回收釋放內(nèi)存答案:B解析:MEMORY_AND_DISK存儲(chǔ)級(jí)別表示優(yōu)先將RDD分區(qū)存儲(chǔ)在內(nèi)存中,內(nèi)存不足時(shí)溢出到磁盤,而非直接丟失或復(fù)制。二、填空題(每空1分,共20分)1.HDFS中,數(shù)據(jù)塊的默認(rèn)副本數(shù)是______。2.MapReduce任務(wù)的兩個(gè)核心階段是______和______。3.SparkRDD的持久化操作通過(guò)______方法觸發(fā),緩存級(jí)別由______參數(shù)指定。4.分布式系統(tǒng)的CAP理論中,P指______。5.Raft協(xié)議的三種角色是______、______和______。6.數(shù)據(jù)分片的常見(jiàn)策略包括______(按數(shù)據(jù)范圍劃分)和______(按哈希值劃分)。7.HBase的存儲(chǔ)模型基于______,數(shù)據(jù)按______排序存儲(chǔ)。8.分布式計(jì)算中,容錯(cuò)的兩種主要方式是______(如HDFS的副本)和______(如Spark的血統(tǒng))。9.并行計(jì)算任務(wù)調(diào)度的兩種常見(jiàn)策略是______(固定分配資源)和______(動(dòng)態(tài)調(diào)整資源)。10.MapReduce的Shuffle階段中,數(shù)據(jù)傳輸?shù)哪J(rèn)序列化方式是______。答案:1.32.Map(映射)、Reduce(歸約)3.persist/cache、StorageLevel4.分區(qū)容錯(cuò)性(PartitionTolerance)5.領(lǐng)導(dǎo)者(Leader)、候選者(Candidate)、跟隨者(Follower)6.范圍分片(RangePartitioning)、哈希分片(HashPartitioning)7.列族(ColumnFamily)、行鍵(RowKey)8.冗余存儲(chǔ)(Replication)、計(jì)算重構(gòu)(Recomputation)9.靜態(tài)調(diào)度(StaticScheduling)、動(dòng)態(tài)調(diào)度(DynamicScheduling)10.Writable序列化三、簡(jiǎn)答題(每題6分,共30分)1.簡(jiǎn)述MapReduce的核心思想及執(zhí)行流程。答案:MapReduce的核心思想是“分而治之”,將大規(guī)模數(shù)據(jù)處理任務(wù)分解為Map(映射)和Reduce(歸約)兩個(gè)階段,通過(guò)并行處理提升效率。執(zhí)行流程包括:(1)輸入分片(InputSplit):將輸入數(shù)據(jù)劃分為多個(gè)分片(Split),每個(gè)分片由一個(gè)Map任務(wù)處理;(2)Map階段:每個(gè)Map任務(wù)讀取分片數(shù)據(jù),處理為<Key,Value>對(duì),并輸出到本地磁盤;(3)Shuffle階段:Map輸出的<Key,Value>對(duì)按Key的哈希值分發(fā)到不同Reduce節(jié)點(diǎn),每個(gè)Reduce節(jié)點(diǎn)收集所有相同Key的數(shù)據(jù)并排序;(4)Reduce階段:每個(gè)Reduce節(jié)點(diǎn)對(duì)排序后的<Key,Value>對(duì)進(jìn)行聚合計(jì)算,輸出最終結(jié)果;(5)結(jié)果存儲(chǔ):Reduce輸出結(jié)果寫入HDFS或其他存儲(chǔ)系統(tǒng)。2.HDFS的容錯(cuò)機(jī)制如何保證數(shù)據(jù)可靠性?答案:HDFS通過(guò)以下機(jī)制實(shí)現(xiàn)容錯(cuò):(1)數(shù)據(jù)塊多副本:默認(rèn)存儲(chǔ)3個(gè)副本,分布在不同機(jī)架的節(jié)點(diǎn)上,單個(gè)節(jié)點(diǎn)故障時(shí),客戶端自動(dòng)讀取其他副本;(2)NameNode元數(shù)據(jù)保護(hù):通過(guò)EditLog記錄所有元數(shù)據(jù)操作,F(xiàn)sImage存儲(chǔ)文件系統(tǒng)快照,SecondaryNameNode定期合并EditLog與FsImage生成新的FsImage,避免NameNode單點(diǎn)故障;(3)數(shù)據(jù)校驗(yàn):寫入數(shù)據(jù)時(shí)計(jì)算校驗(yàn)和(Checksum),讀取時(shí)驗(yàn)證,發(fā)現(xiàn)損壞則從其他副本讀?。唬?)節(jié)點(diǎn)監(jiān)控:NameNode通過(guò)心跳(Heartbeat)檢測(cè)DataNode狀態(tài),故障節(jié)點(diǎn)上的副本會(huì)被重新復(fù)制到其他節(jié)點(diǎn),維持副本數(shù)。3.比較SparkRDD容錯(cuò)與MapReduce容錯(cuò)的差異。答案:(1)容錯(cuò)機(jī)制:RDD通過(guò)血統(tǒng)(Lineage)記錄父RDD的轉(zhuǎn)換操作,數(shù)據(jù)丟失時(shí)通過(guò)重算父RDD恢復(fù);MapReduce依賴中間結(jié)果持久化(Map輸出寫入磁盤),任務(wù)失敗時(shí)需重新執(zhí)行整個(gè)Map/Reduce任務(wù)。(2)性能影響:RDD重算僅需計(jì)算丟失分區(qū)的父操作,開銷較小;MapReduce需重新處理輸入分片,開銷較大。(3)存儲(chǔ)需求:RDD無(wú)需存儲(chǔ)中間結(jié)果(除非顯式持久化),節(jié)省磁盤空間;MapReduce的Map輸出必須寫入磁盤,占用存儲(chǔ)資源。(4)適用場(chǎng)景:RDD適合迭代計(jì)算(如機(jī)器學(xué)習(xí)),多次計(jì)算僅需存儲(chǔ)血統(tǒng);MapReduce適合一次性批處理,中間結(jié)果持久化保證容錯(cuò)。4.分布式系統(tǒng)中數(shù)據(jù)傾斜的表現(xiàn)、影響及解決方法。答案:(1)表現(xiàn):部分任務(wù)處理的數(shù)據(jù)量遠(yuǎn)大于其他任務(wù),任務(wù)執(zhí)行時(shí)間差異顯著(如90%任務(wù)10分鐘完成,10%任務(wù)2小時(shí)完成);(2)影響:整體作業(yè)延遲;高負(fù)載節(jié)點(diǎn)內(nèi)存/CPU耗盡,可能觸發(fā)任務(wù)失敗;網(wǎng)絡(luò)帶寬被集中消耗,降低集群利用率。(3)解決方法:①預(yù)處理:對(duì)傾斜Key添加隨機(jī)前綴,分散到多個(gè)任務(wù)處理,Reduce階段去前綴聚合;②調(diào)整分片策略:使用范圍分片替代哈希分片(如按時(shí)間范圍劃分日志數(shù)據(jù));③增加并行度:提高Reduce任務(wù)數(shù)量,分散數(shù)據(jù)量;④過(guò)濾無(wú)效數(shù)據(jù):提前過(guò)濾掉異常大的Key(如測(cè)試數(shù)據(jù)、重復(fù)記錄);⑤自定義分區(qū)器:根據(jù)業(yè)務(wù)規(guī)則(如熱門Key單獨(dú)處理)設(shè)計(jì)分區(qū)邏輯。5.解釋CAP理論的具體含義,并說(shuō)明分布式存儲(chǔ)系統(tǒng)(如HBase、Cassandra)如何權(quán)衡三者。答案:(1)CAP理論:分布式系統(tǒng)無(wú)法同時(shí)滿足一致性(C,所有節(jié)點(diǎn)同一時(shí)間看到相同數(shù)據(jù))、可用性(A,每次請(qǐng)求都能得到非錯(cuò)誤響應(yīng))、分區(qū)容錯(cuò)性(P,網(wǎng)絡(luò)分區(qū)時(shí)系統(tǒng)仍能運(yùn)行),最多滿足其中兩個(gè)。(2)權(quán)衡示例:①HBase:默認(rèn)強(qiáng)一致性(C)和分區(qū)容錯(cuò)性(P),犧牲部分可用性(如主RegionServer故障時(shí),需選舉新主節(jié)點(diǎn),期間寫操作不可用);②Cassandra:強(qiáng)調(diào)可用性(A)和分區(qū)容錯(cuò)性(P),通過(guò)最終一致性(C)實(shí)現(xiàn),允許節(jié)點(diǎn)間數(shù)據(jù)短暫不一致,通過(guò)Gossip協(xié)議同步;③分布式緩存(如RedisCluster):通常選擇可用性(A)和分區(qū)容錯(cuò)性(P),允許不同節(jié)點(diǎn)數(shù)據(jù)短暫不一致,通過(guò)客戶端重試保證最終一致。四、計(jì)算題(每題8分,共16分)1.某HDFS集群有100臺(tái)DataNode,每臺(tái)存儲(chǔ)容量為10TB(可用空間),數(shù)據(jù)塊大小128MB,副本數(shù)3。若需存儲(chǔ)一個(gè)5PB的日志文件,計(jì)算:(1)該文件需要多少個(gè)數(shù)據(jù)塊?(2)集群總可用存儲(chǔ)容量是否足夠?(1PB=1024TB,1TB=1024GB,1GB=1024MB)解答:(1)文件大小=5PB=5×1024×1024TB=5×1024×1024×1024GB=5×10243MB每個(gè)數(shù)據(jù)塊大小=128MB數(shù)據(jù)塊數(shù)=文件大小/塊大小=(5×10243MB)/128MB=5×(10243/128)=5×(10242×8)=5×8388608=41943040塊(2)集群總可用容量=節(jié)點(diǎn)數(shù)×單節(jié)點(diǎn)可用空間×副本數(shù)=100×10TB×3=3000TB=3PB需存儲(chǔ)的文件實(shí)際占用容量=文件大小×副本數(shù)=5PB×3=15PB3PB<15PB,因此集群總可用存儲(chǔ)容量不足。2.某MapReduce任務(wù)處理100GB數(shù)據(jù),輸入分片大小128MB,Map任務(wù)數(shù)為800個(gè)(每個(gè)Map任務(wù)處理1個(gè)分片),單個(gè)Map任務(wù)平均執(zhí)行時(shí)間為5分鐘,Shuffle階段耗時(shí)為Map總時(shí)間的20%,Reduce任務(wù)數(shù)為100個(gè),單個(gè)Reduce任務(wù)平均執(zhí)行時(shí)間為15分鐘。假設(shè)任務(wù)串行執(zhí)行(無(wú)并行優(yōu)化),計(jì)算整個(gè)作業(yè)的總執(zhí)行時(shí)間。解答:(1)Map階段總時(shí)間=單個(gè)Map時(shí)間×并行度(假設(shè)Map任務(wù)并行執(zhí)行,取最長(zhǎng)單個(gè)任務(wù)時(shí)間)=5分鐘(所有Map任務(wù)同時(shí)啟動(dòng),5分鐘后全部完成);(2)Shuffle階段時(shí)間=Map總時(shí)間×20%=5×20%=1分鐘;(3)Reduce階段時(shí)間=單個(gè)Reduce時(shí)間×并行度(假設(shè)Reduce任務(wù)并行執(zhí)行,取最長(zhǎng)單個(gè)任務(wù)時(shí)間)=15分鐘;(4)總時(shí)間=Map時(shí)間+Shuffle時(shí)間+Reduce時(shí)間=5+1+15=21分鐘。五、綜合題(每題12分,共24分)1.設(shè)計(jì)一個(gè)基于Hadoop的日志分析系統(tǒng),處理用戶行為數(shù)據(jù)(格式:時(shí)間戳、用戶ID、頁(yè)面ID、操作類型),要求說(shuō)明:(1)系統(tǒng)架構(gòu)設(shè)計(jì);(2)數(shù)據(jù)分片策略;(3)MapReduce任務(wù)設(shè)計(jì)(Map和Reduce的輸入輸出);(4)容錯(cuò)機(jī)制;(5)性能優(yōu)化點(diǎn)。答案:(1)系統(tǒng)架構(gòu)設(shè)計(jì):采用Hadoop生態(tài),包括HDFS存儲(chǔ)原始日志、YARN資源管理、MapReduce計(jì)算框架。日志通過(guò)Flume實(shí)時(shí)采集到HDFS,按日期分區(qū)存儲(chǔ)(如/hive/logs/date=2023-10-01)。分析任務(wù)由Hive或直接提交MapReduce作業(yè)觸發(fā),結(jié)果存儲(chǔ)到HDFS或HBase供查詢。(2)數(shù)據(jù)分片策略:采用默認(rèn)的HDFS塊分片(128MB/塊),并結(jié)合時(shí)間分區(qū)(按天劃分目錄)。對(duì)于大日志文件(如單日100GB),自動(dòng)分割為多個(gè)分片,每個(gè)Map任務(wù)處理一個(gè)分片。為避免小文件問(wèn)題,使用CombineFileInputFormat合并小文件(如每小時(shí)日志合并為128MB的文件)。(3)MapReduce任務(wù)設(shè)計(jì):①M(fèi)ap輸入:<偏移量,日志行>(如“1696176000,user123,page456,click”);Map處理:解析日志行,提取用戶ID(Key)和操作類型(Value),輸出<userID,operationType>。②Shuffle階段:按userID分組,將同一用戶的所有操作發(fā)送到同一個(gè)Reduce節(jié)點(diǎn)。③Reduce輸入:<userID,[operationType1,operationType2,...]>;Reduce處理:統(tǒng)計(jì)每個(gè)用戶的操作次數(shù)(如click:10次,scroll:5次),輸出<userID,{click:10,scroll:5}>。(4)容錯(cuò)機(jī)制:①HDFS層面:日志文件存儲(chǔ)3副本,節(jié)點(diǎn)故障時(shí)自動(dòng)切換副本;②MapReduce層面:任務(wù)失敗時(shí)(如Map任務(wù)所在節(jié)點(diǎn)故障),YARN重新調(diào)度任務(wù)到其他節(jié)點(diǎn),重新執(zhí)行該分片的Map任務(wù);③元數(shù)據(jù)保護(hù):NameNode通過(guò)EditLog和FsImage保證元數(shù)據(jù)可靠,SecondaryNameNode定期合并日志;④推測(cè)執(zhí)行(SpeculativeExecution):對(duì)運(yùn)行緩慢的任務(wù)啟動(dòng)備份任務(wù),取先完成的結(jié)果。(5)性能優(yōu)化點(diǎn):①壓縮:日志文件存儲(chǔ)時(shí)使用Snappy壓縮(壓縮比高、速度快),減少HDFS存儲(chǔ)和網(wǎng)絡(luò)傳輸開銷;②增加Map/Reduce并行度:根據(jù)集群資源調(diào)整分片大小(如64MB),增加Map任務(wù)數(shù),充分利用CPU核心;③自定義分區(qū)器:按用戶ID的哈希值分區(qū),避免數(shù)據(jù)傾斜(如某些活躍用戶操作過(guò)多);④Combiner:在Map節(jié)點(diǎn)本地聚合操作類型計(jì)數(shù)(如統(tǒng)計(jì)每個(gè)Map輸出的userID操作次數(shù)),減少Shuffle數(shù)據(jù)量;⑤內(nèi)存調(diào)優(yōu):增大Map/Reduce任務(wù)的JVM堆內(nèi)存(-Xmx),減少磁盤IO(如Map輸出先寫入內(nèi)存緩沖區(qū),滿后再溢寫磁盤)。2.分析Spark在處理實(shí)時(shí)流數(shù)據(jù)時(shí)的架構(gòu)(以StructuredStreaming為例),說(shuō)明:(1)DStream與Dataset的區(qū)別;(2)容錯(cuò)實(shí)現(xiàn)機(jī)制;(3)窗口操作的處理邏輯;(4)資源調(diào)度策略。答案:(1)DStream與Dataset的區(qū)別:①抽象層級(jí):DStream(離散流)是SparkStreaming的舊API,基于RDD的時(shí)間序列抽象;Dataset是StructuredStreaming的新API,基于關(guān)系型數(shù)據(jù)模型(類似DataFrame),支持更豐富的操作(如SQL查詢)。②處理模型:DStream是微批處理(Micro-Batch),將流數(shù)據(jù)劃分為固定時(shí)間間隔的批次;Dataset支持事件時(shí)間(EventTime)和水?。╓atermark),可處理亂序數(shù)據(jù),支持完全流式處理(ContinuousProcessing)。③類型安全:Dataset是類型安全的(強(qiáng)類型化的Row對(duì)象),DStream基于RDD,類型由用戶控制。④優(yōu)化:Dataset利用SparkSQL的Catalyst優(yōu)化器,自動(dòng)優(yōu)化查詢執(zhí)行計(jì)劃;DStream需手動(dòng)優(yōu)化RDD操作。(2)容錯(cuò)實(shí)現(xiàn)機(jī)制:StructuredStreaming通過(guò)檢查點(diǎn)(Checkpoint)實(shí)現(xiàn)容錯(cuò),記錄以下信息:①偏移量(Offset):記錄每個(gè)輸入源已處理的數(shù)據(jù)位置(如Kafka的ConsumerOffset);②中間狀態(tài)(State):對(duì)于有狀態(tài)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論