版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
Spark性能優(yōu)化之?dāng)?shù)據(jù)傾斜調(diào)優(yōu)與shuffle調(diào)優(yōu)
本文將深入分析數(shù)據(jù)傾斜調(diào)優(yōu)與shuffle調(diào)優(yōu),以解決
更加棘手的性能問題。
調(diào)優(yōu)概述
有的時(shí)候,我們可能會(huì)遇到大數(shù)據(jù)計(jì)算中一個(gè)最棘手的
問題一一數(shù)據(jù)傾斜,此時(shí)Spark作業(yè)的性能會(huì)比期望差很
多。數(shù)據(jù)傾斜調(diào)優(yōu),就是使用各種技術(shù)方案解決不同類型的
數(shù)據(jù)傾斜問題,以保證Spark作業(yè)的性能。
數(shù)據(jù)傾斜發(fā)生時(shí)的現(xiàn)象
絕大多數(shù)task執(zhí)行得都非常快,但個(gè)別task執(zhí)行極慢。
比如,總共有1000個(gè)task,997個(gè)task都在1分鐘之內(nèi)執(zhí)
行完了,但是剩余兩三個(gè)task卻要一兩個(gè)小時(shí)。這種情況
很常見。
原本能夠正常執(zhí)行的Spark作業(yè),某天突然報(bào)出00M(內(nèi)
存溢出)異常,觀察異常棧,是我們寫的業(yè)務(wù)代碼造成的。
這種情況比較少見。
數(shù)據(jù)傾斜發(fā)生的原理
數(shù)據(jù)傾斜的原理很簡(jiǎn)單:在進(jìn)行shuffle的時(shí)候,必須
將各個(gè)節(jié)點(diǎn)上相同的key拉取到某個(gè)節(jié)點(diǎn)上的一個(gè)task來
進(jìn)行處理,比如按照key進(jìn)行聚合或join等操作。此時(shí)如
果某個(gè)key對(duì)應(yīng)的數(shù)據(jù)量特別大的話,就會(huì)發(fā)生數(shù)據(jù)傾斜。
比如大部分key對(duì)應(yīng)10條數(shù)據(jù),但是個(gè)別key卻對(duì)應(yīng)了100
萬條數(shù)據(jù),那么大部分task可能就只會(huì)分配到10條數(shù)據(jù),
然后1秒鐘就運(yùn)行完了;但是個(gè)別task可能分配到了100
萬數(shù)據(jù),要運(yùn)行一兩個(gè)小時(shí)。因此,整個(gè)Spark作業(yè)的運(yùn)行
進(jìn)度是由運(yùn)行時(shí)間最長(zhǎng)的那個(gè)task決定的。
因此出現(xiàn)數(shù)據(jù)傾斜的時(shí)候,Spark作業(yè)看起來會(huì)運(yùn)行得
非常緩慢,甚至可能因?yàn)槟硞€(gè)task處理的數(shù)據(jù)量過大導(dǎo)致
內(nèi)存溢出。
下圖就是一個(gè)很清晰的例子:hello這個(gè)key,在三個(gè)
節(jié)點(diǎn)上對(duì)應(yīng)了總共7條數(shù)據(jù),這些數(shù)據(jù)都會(huì)被拉取到同一個(gè)
task中進(jìn)行處理;而world和you這兩個(gè)key分別才對(duì)應(yīng)1
條數(shù)據(jù),所以另外兩個(gè)task只要分別處理1條數(shù)據(jù)即可。
此時(shí)第一個(gè)task的運(yùn)行時(shí)間可能是另外兩個(gè)task的7倍,
而整個(gè)stage的運(yùn)行速度也由運(yùn)行最慢的那個(gè)task所決定。
如何定位導(dǎo)致數(shù)據(jù)傾斜的代碼
數(shù)據(jù)傾斜只會(huì)發(fā)生在shuffle過程中。這里給大家羅列
一些常用的并且可能會(huì)觸發(fā)shuffle操作的算子:
distinct>groupByKey、reduceByKey>aggregateByKey>
join、cogroup>repartition等。出現(xiàn)數(shù)據(jù)傾斜時(shí),可能
就是你的代碼中使用了這些算子中的某一個(gè)所導(dǎo)致的。
某個(gè)task執(zhí)行特別慢的情況
首先要看的,就是數(shù)據(jù)傾斜發(fā)生在第幾個(gè)stage中。
如果是用yarn-client模式提交,那么本地是直接可以
看到log的,可以在log中找到當(dāng)前運(yùn)行到了第幾個(gè)stage;
如果是用yarn-cluster模式提交,則可以通過SparkWebUI
來查看當(dāng)前運(yùn)行到了第幾個(gè)stage。此外,無論是使用
yarn-client模式還是yarn-cluster模式,我們都可以在
SparkWebUI上深入看一下當(dāng)前這個(gè)stage各個(gè)task分配
的數(shù)據(jù)量,從而進(jìn)一步確定是不是task分配的數(shù)據(jù)不均勻
導(dǎo)致了數(shù)據(jù)傾斜。
比如下圖中,倒數(shù)第三列顯示了每個(gè)task的運(yùn)行時(shí)間。
明顯可以看到,有的task運(yùn)行特別快,只需要幾秒鐘就可
以運(yùn)行完;而有的task運(yùn)行特別慢,需要幾分鐘才能運(yùn)行
完,此時(shí)單從運(yùn)行時(shí)間上看就已經(jīng)能夠確定發(fā)生數(shù)據(jù)傾斜
To此外,倒數(shù)第一列顯示了每個(gè)task處理的數(shù)據(jù)量,明
顯可以看到,運(yùn)行時(shí)間特別短的task只需要處理幾百KB
的數(shù)據(jù)即可,而運(yùn)行時(shí)間特別長(zhǎng)的task需要處理幾千KB
的數(shù)據(jù),處理的數(shù)據(jù)量差了10倍。此時(shí)更加能夠確定是發(fā)
生了數(shù)據(jù)傾斜。
知道數(shù)據(jù)傾斜發(fā)生在哪一個(gè)stage之后,接著我們就需
要根據(jù)stage劃分原理,推算出來發(fā)生傾斜的那個(gè)stage
對(duì)應(yīng)代碼中的哪一部分,這部分代碼中肯定會(huì)有一個(gè)
shuffle類算子。精準(zhǔn)推算stage與代碼的對(duì)應(yīng)關(guān)系,需要
對(duì)Spark的源碼有深入的理解,這里我們可以介紹一個(gè)相對(duì)
簡(jiǎn)單實(shí)用的推算方法:只要看到Spark代碼中出現(xiàn)了一個(gè)
shuffle類算子或者是SparkSQL的SQL語句中出現(xiàn)了會(huì)導(dǎo)
致shuffle的語句(比如groupby語句),那么就可以判
定,以那個(gè)地方為界限劃分出了前后兩個(gè)stage。
這里我們就以Spark最基礎(chǔ)的入門程序一一單詞計(jì)數(shù)
來舉例,如何用最簡(jiǎn)單的方法大致推算出一個(gè)stage對(duì)應(yīng)的
代碼。如下示例,在整個(gè)代碼中,只有一個(gè)reduceByKey
是會(huì)發(fā)生shuffle的算子,因此就可以認(rèn)為,以這個(gè)算子為
界限,會(huì)劃分出前后兩個(gè)stage。*stageO,主要是執(zhí)行從
textFile到map操作,以及執(zhí)行shufflewrite操作。
shufflewrite操作,我們可以簡(jiǎn)單理解為對(duì)pairsRDD中
的數(shù)據(jù)進(jìn)行分區(qū)操作,每個(gè)task處理的數(shù)據(jù)中,相同的key
會(huì)寫入同一個(gè)磁盤文件內(nèi)。*stagel,主要是執(zhí)行從
reduceByKey到collect操作,stagel的各個(gè)task一開始
運(yùn)行,就會(huì)首先執(zhí)行shuffleread操作。執(zhí)行shuffleread
操作的task,會(huì)從stageO的各個(gè)task所在節(jié)點(diǎn)拉取屬于
自己處理的那些key,然后對(duì)同一個(gè)key進(jìn)行全局性的聚合
或join等操作,在這里就是對(duì)key的value值進(jìn)行累加。
stagel在執(zhí)行完reduceByKey算子之后,就計(jì)算出了最終
的wordCountsRDD,然后會(huì)執(zhí)行collect算子,將所有數(shù)
據(jù)拉取到Driver上,供我們遍歷和打印輸出。
valconf=newSparkConf()
valsc=newSparkContext(conf)
vallines=sc.textFile("hdfs://...*,)
valwords=lines.flatMap(_.split(""))
valpairs=words.map((_,1))
valwordCounts=pairs.reduceByKey(_+_)
wordcounts.coliect().foreach(println(_))
通過對(duì)單詞計(jì)數(shù)程序的分析,希望能夠讓大家了解最基
本的stage劃分的原理,以及stage劃分后shuffle操作是
如何在兩個(gè)stage的邊界處執(zhí)行的。然后我們就知道如何快
速定位出發(fā)生數(shù)據(jù)傾斜的stage對(duì)應(yīng)代碼的哪一個(gè)部分了。
比如我們?cè)赟parkWebUI或者本地log中發(fā)現(xiàn),stagel的
某幾個(gè)task執(zhí)行得特別慢,判定stagel出現(xiàn)了數(shù)據(jù)傾斜,
那么就可以回到代碼中定位出stagel主要包括了
reduceByKey這個(gè)shuffle類算子,此時(shí)基本就可以確定是
由educeByKey算子導(dǎo)致的數(shù)據(jù)傾斜問題。比如某個(gè)單詞出
現(xiàn)了100萬次,其他單詞才出現(xiàn)10次,那么stagel的某個(gè)
task就要處理100萬數(shù)據(jù),整個(gè)stage的速度就會(huì)被這個(gè)
task拖慢o
某個(gè)task莫名其妙內(nèi)存溢出的情況
這種情況下去定位出問題的代碼就比較容易了。我們建
議直接看yarn-client模式下本地log的異常棧,或者是通
過YARN查看yarn-cluster模式下的log中的異常棧。一般
來說,通過異常棧信息就可以定位到你的代碼中哪一行發(fā)生
了內(nèi)存溢出。然后在那行代碼附近找找,一般也會(huì)有
shuffle類算子,此時(shí)很可能就是這個(gè)算子導(dǎo)致了數(shù)據(jù)傾
斜。
但是大家要注意的是,不能單純靠偶然的內(nèi)存溢出就判
定發(fā)生了數(shù)據(jù)傾斜。因?yàn)樽约壕帉懙拇a的bug,以及偶然
出現(xiàn)的數(shù)據(jù)異常,也可能會(huì)導(dǎo)致內(nèi)存溢出。因此還是要按照
上面所講的方法,通過SparkWebUI查看報(bào)錯(cuò)的那個(gè)stage
的各個(gè)task的運(yùn)行時(shí)間以及分配的數(shù)據(jù)量,才能確定是否
是由于數(shù)據(jù)傾斜才導(dǎo)致了這次內(nèi)存溢出。
查看導(dǎo)致數(shù)據(jù)傾斜的key的數(shù)據(jù)分布情況
知道了數(shù)據(jù)傾斜發(fā)生在哪里之后,通常需要分析一下那
個(gè)執(zhí)行了shuffle操作并且導(dǎo)致了數(shù)據(jù)傾斜的RDD/Hive表,
查看一下其中key的分布情況。這主要是為之后選擇哪一種
技術(shù)方案提供依據(jù)。針對(duì)不同的key分布與不同的shuffle
算子組合起來的各種情況,可能需要選擇不同的技術(shù)方案來
解決。
此時(shí)根據(jù)你執(zhí)行操作的情況不同,可以有很多種查看
key分布的方式:
如果是SparkSQL中的groupby、join語句導(dǎo)致的數(shù)
據(jù)傾斜,那么就查詢一下SQL中使用的表的key分布情況。
如果是對(duì)SparkRDD執(zhí)行shuffle算子導(dǎo)致的數(shù)據(jù)傾
斜,那么可以在Spark作業(yè)中加入查看key分布的代碼,比
如RDD.countByKey()0然后對(duì)統(tǒng)計(jì)出來的各個(gè)key出現(xiàn)的
次數(shù),collect/take到客戶端打印一下,就可以看到key
的分布情況。
舉例來說,對(duì)于上面所說的單詞計(jì)數(shù)程序,如果確定了
是stagel的reduceByKey算子導(dǎo)致了數(shù)據(jù)傾斜,那么就應(yīng)
該看看進(jìn)行reduceByKey操作的RDD中的key分布情況,在
這個(gè)例子中指的就是pairsRDD。如下示例,我們可以先對(duì)
pairs采樣10%的樣本數(shù)據(jù),然后使用countByKey算子統(tǒng)計(jì)
出每個(gè)key出現(xiàn)的次數(shù),最后在客戶端遍歷和打印樣本數(shù)據(jù)
中各個(gè)key的出現(xiàn)次數(shù)。
valsampledPairs=pairs.sample(faIse,0.1)
valsampledWordCounts=sampledPairs.countByKey()
sampledWordCounts.foreach(println(_))
數(shù)據(jù)傾斜的解決方案
解決方案一:使用HiveETL預(yù)處理數(shù)據(jù)
方案適用場(chǎng)景:導(dǎo)致數(shù)據(jù)傾斜的是Hive表。如果該Hive
表中的數(shù)據(jù)本身很不均勻(比如某個(gè)key對(duì)應(yīng)了100萬數(shù)據(jù),
其他key才對(duì)應(yīng)了10條數(shù)據(jù)),而且業(yè)務(wù)場(chǎng)景需要頻繁使用
Spark對(duì)Hive表執(zhí)行某個(gè)分析操作,那么比較適合使用這種技
術(shù)方案。
方案實(shí)現(xiàn)思路:此時(shí)可以評(píng)估一下,是否可以通過Hive來
進(jìn)行數(shù)據(jù)預(yù)處理(即通過HiveETL預(yù)先對(duì)數(shù)據(jù)按照key進(jìn)行聚
合,或者是預(yù)先和其他表進(jìn)行join),然后在Spark作業(yè)中針
對(duì)的數(shù)據(jù)源就不是原來的Hive表了,而是預(yù)處理后的Hive表。
此時(shí)由于數(shù)據(jù)已經(jīng)預(yù)先進(jìn)行過聚合或join操作了,那么在Spark
作業(yè)中也就不需要使用原先的shuffle類算子執(zhí)行這類操作了。
方案實(shí)現(xiàn)原理:這種方案從根源上解決了數(shù)據(jù)傾斜,因?yàn)?/p>
徹底避免了在Spark中執(zhí)行shuffle類算子,那么肯定就不會(huì)
有數(shù)據(jù)傾斜的問題了。但是這里也要提醒一下大家,這種方式
屬于治標(biāo)不治本。因?yàn)楫吘箶?shù)據(jù)本身就存在分布不均勻的問題,
所以HiveETL中進(jìn)行g(shù)roupby或者join等shuffle操作時(shí),
還是會(huì)出現(xiàn)數(shù)據(jù)傾斜,導(dǎo)致HiveETL的速度很慢。我們只是把
數(shù)據(jù)傾斜的發(fā)生提前到了HiveETL中,避免Spark程序發(fā)生數(shù)
據(jù)傾斜而已。
方案優(yōu)點(diǎn):實(shí)現(xiàn)起來簡(jiǎn)單便捷,效果還非常好,完全規(guī)避
掉了數(shù)據(jù)傾斜,Spark作業(yè)的性能會(huì)大幅度提升。
方案缺點(diǎn):治標(biāo)不治本,HiveETL中還是會(huì)發(fā)生數(shù)據(jù)傾斜。
方案實(shí)踐經(jīng)驗(yàn):在一些Java系統(tǒng)與Spark結(jié)合使用的項(xiàng)目
中,會(huì)出現(xiàn)Java代碼頻繁調(diào)用Spark作業(yè)的場(chǎng)景,而且對(duì)Spark
作業(yè)的執(zhí)行性能要求很高,就比較適合使用這種方案。將數(shù)據(jù)
傾斜提前到上游的HiveETL,每天僅執(zhí)行一次,只有那一次是
比較慢的,而之后每次Java調(diào)用Spark作業(yè)時(shí),執(zhí)行速度都會(huì)
很快,能夠提供更好的用戶體驗(yàn)。
項(xiàng)目實(shí)踐經(jīng)驗(yàn):在美團(tuán)?點(diǎn)評(píng)的交互式用戶行為分析系統(tǒng)
中使用了這種方案,該系統(tǒng)主要是允許用戶通過JavaWeb系統(tǒng)
提交數(shù)據(jù)分析統(tǒng)計(jì)任務(wù),后端通過Java提交Spark作業(yè)進(jìn)行數(shù)
據(jù)分析統(tǒng)計(jì)。要求Spark作業(yè)速度必須要快,盡量在10分鐘以
內(nèi),否則速度太慢,用戶體驗(yàn)會(huì)很差。所以我們將有些Spark
作業(yè)的shuffle操作提前到了HiveETL中,從而讓Spark直接
使用預(yù)處理的Hive中間表,盡可能地減少Spark的shuffle操
作,大幅度提升了性能,將部分作業(yè)的性能提升了6倍以上。
解決方案二:過濾少數(shù)導(dǎo)致傾斜的key
方案適用場(chǎng)景:如果發(fā)現(xiàn)導(dǎo)致傾斜的key就少數(shù)幾個(gè),而
且對(duì)計(jì)算本身的影響并不大的話,那么很適合使用這種方案。
比如99%的key就對(duì)應(yīng)10條數(shù)據(jù),但是只有一個(gè)key對(duì)應(yīng)了100
萬數(shù)據(jù),從而導(dǎo)致了數(shù)據(jù)傾斜。
方案實(shí)現(xiàn)思路:如果我們判斷那少數(shù)幾個(gè)數(shù)據(jù)量特別多的
key,對(duì)作業(yè)的執(zhí)行和計(jì)算結(jié)果不是特別重要的話,那么干脆就
直接過濾掉那少數(shù)幾個(gè)key。比如,在SparkSQL中可以使用
where子句過濾掉這些key或者在SparkCore中對(duì)RDD執(zhí)行
filter算子過濾掉這些key。如果需要每次作業(yè)執(zhí)行時(shí),動(dòng)態(tài)
判定哪些key的數(shù)據(jù)量最多然后再進(jìn)行過濾,那么可以使用
sample算子對(duì)RDD進(jìn)行采樣,然后計(jì)算出每個(gè)key的數(shù)量,取
數(shù)據(jù)量最多的key過濾掉即可。
方案實(shí)現(xiàn)原理:將導(dǎo)致數(shù)據(jù)傾斜的key給過濾掉之后,這
些key就不會(huì)參與計(jì)算了,自然不可能產(chǎn)生數(shù)據(jù)傾斜。
方案優(yōu)點(diǎn):實(shí)現(xiàn)簡(jiǎn)單,而且效果也很好,可以完全規(guī)避掉
數(shù)據(jù)傾斜。
方案缺點(diǎn):適用場(chǎng)景不多,大多數(shù)情況下,導(dǎo)致傾斜的key
還是很多的,并不是只有少數(shù)幾個(gè)。
方案實(shí)踐經(jīng)驗(yàn):在項(xiàng)目中我們也采用過這種方案解決數(shù)據(jù)
傾斜。有一次發(fā)現(xiàn)某一天Spark作業(yè)在運(yùn)行的時(shí)候突然00M了,
追查之后發(fā)現(xiàn),是Hive表中的某一個(gè)key在那天數(shù)據(jù)異常,導(dǎo)
致數(shù)據(jù)量暴增。因此就采取每次執(zhí)行前先進(jìn)行采樣,計(jì)算出樣
本中數(shù)據(jù)量最大的幾個(gè)key之后,直接在程序中將那些key給
過濾掉。
解決方案三:提高shuffle操作的并行度
方案適用場(chǎng)景:如果我們必須要對(duì)數(shù)據(jù)傾斜迎難而上,那
么建議優(yōu)先使用這種方案,因?yàn)檫@是處理數(shù)據(jù)傾斜最簡(jiǎn)單的一
種方案。
方案實(shí)現(xiàn)思路:在對(duì)RDD執(zhí)行shuffle算子時(shí),給shuffle
算子傳入一個(gè)參數(shù),比如reduceByKey(1000),該參數(shù)就設(shè)置了
這個(gè)shuffle算子執(zhí)行時(shí)shufflereadtask的數(shù)量。對(duì)于Spark
SQL中的shuffle類語句,比如groupby、join等,需要設(shè)置
一個(gè)參數(shù),即spark,sql.shuffle,partitions,該參數(shù)代表了
shufflereadtask的并行度,該值默認(rèn)是200,對(duì)于很多場(chǎng)景
來說都有點(diǎn)過小。
方案實(shí)現(xiàn)原理:增加shufflereadtask的數(shù)量,可以讓
原本分配給一個(gè)task的多個(gè)key分配給多個(gè)task,從而讓每個(gè)
task處理比原來更少的數(shù)據(jù)。舉例來說,如果原本有5個(gè)key,
每個(gè)key對(duì)應(yīng)10條數(shù)據(jù),這5個(gè)key都是分配給一個(gè)task的,
那么這個(gè)task就要處理50條數(shù)據(jù)。而增加了shufflereadtask
以后,每個(gè)task就分配到一個(gè)key,即每個(gè)task就處理10條
數(shù)據(jù),那么自然每個(gè)task的執(zhí)行時(shí)間都會(huì)變短了。具體原理如
下圖所示。
方案優(yōu)點(diǎn):實(shí)現(xiàn)起來比較簡(jiǎn)單,可以有效緩解和減輕數(shù)據(jù)
傾斜的影響。
方案缺點(diǎn):只是緩解了數(shù)據(jù)傾斜而已,沒有徹底根除問題,
根據(jù)實(shí)踐經(jīng)驗(yàn)來看,其效果有限。
方案實(shí)踐經(jīng)驗(yàn):該方案通常無法徹底解決數(shù)據(jù)傾斜,因?yàn)?/p>
如果出現(xiàn)一些極端情況,比如某個(gè)key對(duì)應(yīng)的數(shù)據(jù)量有100萬,
那么無論你的task數(shù)量增加到多少,這個(gè)對(duì)應(yīng)著100萬數(shù)據(jù)的
key肯定還是會(huì)分配到一個(gè)task中去處理,因此注定還是會(huì)發(fā)
生數(shù)據(jù)傾斜的。所以這種方案只能說是在發(fā)現(xiàn)數(shù)據(jù)傾斜時(shí)嘗試
使用的第一種手段,嘗試去用嘴簡(jiǎn)單的方法緩解數(shù)據(jù)傾斜而已,
或者是和其他方案結(jié)合起來使用。
解決方案四:兩階段聚合(局部聚合+全局聚合)
方案適用場(chǎng)景:對(duì)RDD執(zhí)行reduceByKey等聚合類shuffle
算子或者在SparkSQL中使用groupby語句進(jìn)行分組聚合時(shí),
比較適用這種方案。
方案實(shí)現(xiàn)思路:這個(gè)方案的核心實(shí)現(xiàn)思路就是進(jìn)行兩階段
聚合。第一次是局部聚合,先給每個(gè)key都打上一個(gè)隨機(jī)數(shù),
比如10以內(nèi)的隨機(jī)數(shù),此時(shí)原先一樣的key就變成不一樣的了,
比如(hello,1)(hello,1)(hello,1)(hello,1),就會(huì)變
成(l_hello,1)(l_hello,1)(2_hello,1)(2_hello,1)o
接著對(duì)打上隨機(jī)數(shù)后的數(shù)據(jù),執(zhí)行reduceByKey等聚合操作,
進(jìn)行局部聚合,那么局部聚合結(jié)果,就會(huì)變成了(Lhello,2)
(2_hello,2)o然后將各個(gè)key的前綴給去掉,就會(huì)變成
(hello,2)(hello,2),再次進(jìn)行全局聚合操作,就可以得到最
終結(jié)果了,比如(hello,4)o
方案實(shí)現(xiàn)原理:將原本相同的key通過附加隨機(jī)前綴的方
式,變成多個(gè)不同的key,就可以讓原本被一個(gè)task處理的數(shù)
據(jù)分散到多個(gè)task上去做局部聚合,進(jìn)而解決單個(gè)task處理
數(shù)據(jù)量過多的問題。接著去除掉隨機(jī)前緩,再次進(jìn)行全局聚合,
就可以得到最終的結(jié)果。具體原理見下圖。
方案優(yōu)點(diǎn):對(duì)于聚合類的shuffle操作導(dǎo)致的數(shù)據(jù)傾斜,
效果是非常不錯(cuò)的。通常都可以解決掉數(shù)據(jù)傾斜,或者至少是
大幅度緩解數(shù)據(jù)傾斜,將Spark作業(yè)的性能提升數(shù)倍以上。
方案缺點(diǎn):僅僅適用于聚合類的shuffle操作,適用范圍
相對(duì)較窄。如果是join類的shuffle操作,還得用其他的解決
方案。
給RDD中的每個(gè)key都打上一個(gè)隨機(jī)前綴。
3avaPairRDD<String>Long>randomPrefixRdd=rdd.mapToPair(
newPairFunction<Tuple2<LongJLong>JString,Long>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicTuple2<String,Long>call(Tuple2<LongJLong>tuple)
throwsException{
Randomrandom=newRandom();
intprefix=random.nextInt(10);
returnnewTuple2<String,Long>(prefix++tuple.」,tu
Ple._2);
}
});
//第二步,對(duì)打上隨機(jī)前綴的key進(jìn)行局部聚合。
3avaPairRDD<String>Long>localAggrRdd=randomPrefixRdd.reduceByKey(
newFunction2<Long^Long〉Long>(){
privatestaticfinallongserialVersionUID=IL;
0Override
publicLongcall(Longvl.Longv2)throwsException{
returnvl+v2;
}
});
//第三步,去除RDD中每個(gè)key的隨機(jī)前綴。
JavaPairRDD<Long,Long>removedRandomPrefixRdd=localAggrRdd.mapToPair(
newPairFunction<Tuple2<String,Long>jLong,Long>(){
privatestaticfinallongserialVersionlllD=IL;
gOverride
publicTuple2<Long^Long>call(Tuple2<String,Long>tuple)
throwsException{
longoriginalKey=Long.valueOf(tuple._1.split()[1]);
returnnewTuple2<Long>Long)(originalKey,tuple._2);
}
});
//第四步,對(duì)去除了隨機(jī)前綴的RDD進(jìn)行全局聚合。
3avaPairRDD<Long,Long>globalAggrRdd=removedRandomPrefixRdd.reduceByKey(
newFunction2<Long,Long,Long>(){
privatestaticfinallongserialVersionUID=IL;
0Override
publicLongcall(Longvl,Longv2)throwsException{
returnvl+v2;
}
));
解決方案五:將reducejoin轉(zhuǎn)為mapjoin
方案適用場(chǎng)景:在對(duì)RDD使用join類操作,或者是在
SparkSQL中使用join語句時(shí),而且join操作中的一個(gè)RDD
或表的數(shù)據(jù)量比較小(比如幾百M(fèi)或者一兩G),比較適用
此方案。
方案實(shí)現(xiàn)思路:不使用join算子進(jìn)行連接操作,而使
用Broadcast變量與map類算子實(shí)現(xiàn)join操作,進(jìn)而完全
規(guī)避掉shuffle類的操作,徹底避免數(shù)據(jù)傾斜的發(fā)生和出
現(xiàn)。將較小RDD中的數(shù)據(jù)直接通過collect算子拉取到
Driver端的內(nèi)存中來,然后對(duì)其創(chuàng)建一個(gè)Broadcast變量;
接著對(duì)另外一個(gè)RDD執(zhí)行111ap類算子,在算子函數(shù)內(nèi),從
Broadcast變量中獲取較小RDD的全量數(shù)據(jù),與當(dāng)前RDD的
每一條數(shù)據(jù)按照連接key進(jìn)行比對(duì),如果連接key相同的話,
那么就將兩個(gè)RDD的數(shù)據(jù)用你需要的方式連接起來。
方案實(shí)現(xiàn)原理:普通的join是會(huì)走shuffle過程的,
而一旦shuffle,就相當(dāng)于會(huì)將相同key的數(shù)據(jù)拉取到一個(gè)
shufflereadtask中再進(jìn)行join,此時(shí)就是reducejoin。
但是如果一個(gè)RDD是比較小的,則可以采用廣播小RDD全量
數(shù)據(jù)+map算子來實(shí)現(xiàn)與join同樣的效果,也就是mapjoin,
此時(shí)就不會(huì)發(fā)生shuffle操作,也就不會(huì)發(fā)生數(shù)據(jù)傾斜。具
體原理如下圖所示。
方案優(yōu)點(diǎn):對(duì)join操作導(dǎo)致的數(shù)據(jù)傾斜,效果非常好,
因?yàn)楦揪筒粫?huì)發(fā)生shuffle,也就根本不會(huì)發(fā)生數(shù)據(jù)傾
斜。
方案缺點(diǎn):適用場(chǎng)景較少,因?yàn)檫@個(gè)方案只適用于一個(gè)
大表和一個(gè)小表的情況。畢竟我們需要將小表進(jìn)行廣播,此
時(shí)會(huì)比較消耗內(nèi)存資源,driver和每個(gè)Executor內(nèi)存中都
會(huì)駐留一份小RDD的全量數(shù)據(jù)。如果我們廣播出去的RDD
數(shù)據(jù)比較大,比如10G以上,那么就可能發(fā)生內(nèi)存溢出了。
因此并不適合兩個(gè)都是大表的情況。
//首先將數(shù)據(jù)量比較小的RDD的數(shù)據(jù),collect到Driver中來。
List<Tuple2<LongJRow>>rddlData=rddl.collect()
//然后使用Spark的廣播功能,將小RDD的數(shù)據(jù)轉(zhuǎn)換成廣播變量,這樣每個(gè)Executor就只
有一份RDD的數(shù)據(jù)。
//可以盡可能節(jié)省內(nèi)存空間,并且減少網(wǎng)絡(luò)傳輸性能開銷。
finalBroadcast<List<Tuple2<Long,Row>>>rddlDataBroadcast=sc.broadcast(r
ddlData);
//對(duì)另外一個(gè)RDD執(zhí)行map類操作,而不再是join類操作。
DavaPairRDD<String,Tuple2<String>Row>>joinedRdd=rdd2.mapToPair(
newPairFunction<Tuple2<Long,String>>String,Tuple2<StringRow>>(
){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicTuple2<String,Tuple2<String,Row>>call(Tuple2<Long,St
ring>tuple)
throwsException{
//在算子函數(shù)中,通過廣播變量,獲取到本地Executor中的rddl數(shù)據(jù)。
List<Tuple2<Long,Row>>rddlData=rddlDataBroadcast.value(
);
//可以將rddl的數(shù)據(jù)轉(zhuǎn)換為一個(gè)Map,便于后面進(jìn)行join操作。
Map<Long,Row>rddlDataMap=newHashMap<Long,Row>();
for(Tuple2<Long,Row>data:rddlData){
rddlDataMap.put(data._1,data._2);
}
//獲取當(dāng)前RDD數(shù)據(jù)的hey以及value。
Stringkey=tuple._1;
Stringvalue=tuple._2;
//從rddl數(shù)據(jù)Map中,根據(jù)hey獲取到可以join到的數(shù)據(jù)。
RowrddlValue=rddlDataMap.get(key);
returnnewTuple2<String,String>(key,newTuple2<String,R
ow>(value,rddlValue));
}
});
//這里得提示一下。
//上面的做法,僅僅適用于rddl中的hey沒有重復(fù),全部是唯一的場(chǎng)景。
//如果rddl中有多個(gè)相同的hey,那么就得用flatMap類的操作,在進(jìn)行jotn的時(shí)候不能
用map,而是得遍歷rddl所有數(shù)據(jù)進(jìn)行join0
//rdd2中每條數(shù)據(jù)都可能會(huì)返回多條join后的數(shù)據(jù)。
解決方案六:采樣傾斜key并分拆join操作
方案適用場(chǎng)景:兩個(gè)RDD/Hive表進(jìn)行join的時(shí)候,如
果數(shù)據(jù)量都比較大,無法采用“解決方案五”,那么此時(shí)可
以看一下兩個(gè)RDD/Hive表中的key分布情況。如果出現(xiàn)數(shù)
據(jù)傾斜,是因?yàn)槠渲心骋粋€(gè)RDD/Hive表中的少數(shù)幾個(gè)key
的數(shù)據(jù)量過大,而另一個(gè)RDD/Hive表中的所有key都分布
比較均勻,那么采用這個(gè)解決方案是比較合適的。
方案實(shí)現(xiàn)思路:
對(duì)包含少數(shù)幾個(gè)數(shù)據(jù)量過大的key的那個(gè)RDD,通過
sample算子采樣出一份樣本來,然后統(tǒng)計(jì)一下每個(gè)key的
數(shù)量,計(jì)算出來數(shù)據(jù)量最大的是哪幾個(gè)key。
然后將這幾個(gè)key對(duì)應(yīng)的數(shù)據(jù)從原來的RDD中拆分出
來,形成一個(gè)單獨(dú)的RDD,并給每個(gè)key都打上n以內(nèi)的隨
機(jī)數(shù)作為前綴,而不會(huì)導(dǎo)致傾斜的大部分key形成另外一個(gè)
RDDo
接著將需要join的另一個(gè)RDD,也過濾出來那幾個(gè)傾
斜key對(duì)應(yīng)的數(shù)據(jù)并形成一個(gè)單獨(dú)的RDD,將每條數(shù)據(jù)膨脹
成n條數(shù)據(jù),這n條數(shù)據(jù)都按順序附加一個(gè)0?n的前緩,不
會(huì)導(dǎo)致傾斜的大部分key也形成另夕I"一個(gè)RDD。
再將附加了隨機(jī)前綴的獨(dú)立RDD與另一個(gè)膨脹n倍的獨(dú)
立RDD進(jìn)行join,此時(shí)就可以將原先相同的key打散成n
份,分散到多個(gè)task中去進(jìn)行join了。
而另外兩個(gè)普通的RDD就照常join即可。
最后將兩次join的結(jié)果使用union算子合并起來即可,
就是最終的join結(jié)果。
方案實(shí)現(xiàn)原理:對(duì)于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是
某幾個(gè)key導(dǎo)致了傾斜,可以將少數(shù)幾個(gè)key分拆成獨(dú)立
RDD,并附加隨機(jī)前綴打散成n份去進(jìn)行join,此時(shí)這幾個(gè)
key對(duì)應(yīng)的數(shù)據(jù)就不會(huì)集中在少數(shù)幾個(gè)task上,而是分散
到多個(gè)task進(jìn)行join了。具體原理見下圖。
方案優(yōu)點(diǎn):對(duì)于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾
個(gè)key導(dǎo)致了傾斜,采用該方式可以用最有效的方式打散
key進(jìn)行join。而且只需要針對(duì)少數(shù)傾斜key對(duì)應(yīng)的數(shù)據(jù)進(jìn)
行擴(kuò)容n倍,不需要對(duì)全量數(shù)據(jù)進(jìn)行擴(kuò)容。避免了占用過多
內(nèi)存。
方案缺點(diǎn):如果導(dǎo)致傾斜的key特別多的話,比如成千
上萬個(gè)key都導(dǎo)致數(shù)據(jù)傾斜,那么這種方式也不適合。
1(OOl.worW)
(001.hello)
(002.wor1d)
(003,MOO)(003,workJ)
正量的千玄貨的町對(duì)a/3
Q.所以無論左道的RDQ妁key
打上的■個(gè)W機(jī)為■?以佻
行上哀硒!5??n任一定版■右工的ROO中的某一
V條歐購(gòu)NC上
(3003,wortcnJ
//首先將數(shù)據(jù)量比較小的RDD的數(shù)據(jù),collect到Driver中來。
List<Tuple2<Long,Row>>rddlData=rddl.collect()
//然后使用Spark的廣播功能,將小RDD的數(shù)據(jù)轉(zhuǎn)換成廣播變量,這樣每個(gè)Executor就只
有一份RDD的數(shù)據(jù)。
//可以盡可能節(jié)省內(nèi)存空間,并且減少網(wǎng)絡(luò)傳輸性能開銷。
finalBroadcast<List<Tuple2<Long,Row>>>rddlDataBroadcast=sc.broadcast(r
ddlData);
//對(duì)另外一個(gè)RDD執(zhí)行map類操作,而不再是join類操作。
3avaPairRDD<String,Tuple2<String,Row>>joinedRdd=rdd2.mapToPair(
newPairFunction<Tuple2<LongJString>JStringsTuple2<String?Row>>(
){
privatestaticfinallongserialVersionlllD=IL;
gOverride
publicTuple2<StringjTuple2<StringRow>>call(Tuple2<LongJSt
ring>tuple)
throwsException{
//在算子函數(shù)中,通過廣播變量,獲取到本地Executor中的rddl數(shù)據(jù)。
List<Tuple2<Long>Row>>rddlData=rddlDataBroadcast.value(
);
//可以將rddl的數(shù)據(jù)轉(zhuǎn)換為一個(gè)Map,便于后面進(jìn)行jotn操作。
Map<LongRow>rddlDataMap=newHashMap<Long,Row>();
for(Tuple2<LongJRow>data:rddlData){
rddlDataMap.put(data._1,data._2);
}
//獲取當(dāng)前RDD數(shù)據(jù)的key以及value0
Stringkey=tuple._1;
Stringvalue=tuple._2;
//從rddl數(shù)據(jù)Map中,根據(jù)hey獲取到可以join到的數(shù)據(jù)。
RowrddlValue=rddlDataMap.get(key);
returnnewTuple2<StringJString>(key,newTuple2<String?R
ow>(value,rddlValue));
}
});
//這里得提示一下。
//上面的做法,僅僅適用于rddl中的hey沒有重復(fù),全部是唯一的場(chǎng)景。
//如果rddl中有多個(gè)相同的hey,那么就得用于latMap類的操作,在進(jìn)行join的時(shí)候不能
用map,而是得遍歷rddl所有數(shù)據(jù)進(jìn)行join。
//rdd2中每條數(shù)據(jù)都可能會(huì)返回多條join后的數(shù)據(jù)。//首先從包含了少數(shù)幾個(gè)導(dǎo)致數(shù)據(jù)傾
斜hey的rddl中,采樣10%的樣本數(shù)據(jù)。
3avaPairRDD<LongjString>sampledRDD=rddl.sample(false,0.1);
//對(duì)樣本數(shù)據(jù)RDD統(tǒng)計(jì)出每個(gè)key的出現(xiàn)次數(shù),并按出現(xiàn)次數(shù)降序排序。
//對(duì)降序排序后的數(shù)據(jù),取出topI或者top100的數(shù)據(jù),也就是hey最多的前n個(gè)數(shù)據(jù)。
//具體取出多少個(gè)數(shù)據(jù)量最多的hey,由大家自己決定,我們這里就取,個(gè)作為示范。
3avaPairRDD<LongJLong>mappedSampledRDD=sampledRDD.mapToPair(
newPairFunction<Tuple2<Long,String>>Long,Long>(){
privatestaticfinallongserialVersionUID=IL;
0Override
publicTuple2<Long>Long>call(Tuple2<LongJString>tuple)
throwsException{
returnnewTuple2<Long?Long)(tuple?_1,IL);
}
});
3avaPairRDD<Long,Long>countedSampledRDD=mappedSampledRDD.reduceByKey(
newFunction2<Long,Long,Long>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicLongcall(Longvl.Longv2)throwsException{
returnvl+v2;
)
});
3avaPairRDD<Long,Long>reversedSampledRDD=countedSampledRDD.mapToPair(
newPairFunction<Tuple2<Long,Long>JLong,Long>(){
privatestaticfinallongserialVersionUID=IL;
0Override
publicTuple2<Long>Long>call(Tuple2<Long>Long>tuple)
throwsException{
returnnewTuple2<Long,Long)(tuple?_2,tuple._1);
}
});
finalLongskewedUserid=reversedSampledRDD.sortByKey(false).take(l).get(0
)._2;
//Arddl中分拆出導(dǎo)致數(shù)據(jù)傾斜的hey,形成獨(dú)立的RDD。
JavaPairRDDcLong,String>skewedRDD=rddl.filter(
newFunction<Tup1e2<Long,StringBoolean>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicBooleancall(Tuple2<Long>String>tuple)throwsExceptio
n{
returntuple._1.equals(skewedUserid);
)
));
//JArddl中分拆出不導(dǎo)致數(shù)據(jù)傾斜的普通key,形成獨(dú)立的RDD。
3avaPairRDD<LongJString>commonRDD=rddl.filter(
newFunction<Tuple2<Long,String>Boolean>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicBooleancall(Tuple2<LongJString>tuple)throwsExceptio
n{
return!tuple._1.equals(skewedUserid);
)
});
//rdd2,就是那個(gè)所有hey的分布相對(duì)較為均勻的rdd。
//這里將rdd2中,前面獲取到的key對(duì)應(yīng)的數(shù)據(jù),過濾出來,分拆成單獨(dú)的rdd,并對(duì)rdd
中的數(shù)據(jù)使用flatMap算子都擴(kuò)容1。。倍。
//對(duì)擴(kuò)容的每條數(shù)據(jù),都打上0?100的前綴。
3avaPairRDD<String>Row>skewedRdd2=rdd2.filter(
newFunction<Tuple2<Long,Row>,Boolean>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicBooleancall(Tuple2<LongJRow>tuple)throwsException{
returntuple._1.equals(skewedUserid);
}
}).flatMapToPair(newPairFlatMapFunction<Tuple2<Long,Row>,String,
Row>(){
privatestaticfinallongserialVersionUID=IL;
0Override
publicIterable<Tuple2<StringyRow>>call(
Tuple2<Long,Row>tuple)throwsException{
Randomrandom=newRandom();
List<Tuple2<StringJRow>>list=newArrayList<Tuple2<Strin
g,Row>>();
for(inti=0;i<100;i++){
list.add(newTuple2<String,Row>(i++tuple._1,tu
ple._2));
)
returnlist;
}
});
//將rddl中分拆出來的導(dǎo)致傾斜的hey的獨(dú)立rdd,每條數(shù)據(jù)都打上100以內(nèi)的隨機(jī)前綴。
//然后將這個(gè)rddl中分拆出來的獨(dú)立rdd,與上面rdd2中分拆出來的獨(dú)立rdd,進(jìn)行join0
3avaPairRDD<Long,Tuple2<String,Row>>joinedRDDl=skewedRDD.mapToPair(
newPairFunction<Tuple2<LongJString>JString〉String>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicTuple2<StringjString>call(Tuple2<Long,String>tuple)
throwsException{
Randomrandom=newRandom();
intprefix=random.nextInt(100);
returnnewTuple2<String,String>(prefix++tuple,_1,
tuple._2);
}
))
.join(skewedUserid2infoRDD)
.mapToPair(newPairFunction<Tuple2<String>Tuple2<String>Row>Long
,Tuple2<String^Row>>(){
privatestaticfinallongserialVersionUID=IL;
?Override
publicTuple2<Long,Tuple2<String>Row>>call(
Tuple2<String,Tuple2<StringJRow>>tuple)
throwsException{
longkey=Long.valueOf(tuple._1.split()[1]);
returnnewTuple2<Long?Tuple2<String?Row>>(ke
y,tuple._2);
)
});
//將rddl中分拆出來的包含普通hey的獨(dú)立rdd,直接與rdd2進(jìn)行join。
DavaPairRDD<LongJTuple2<String,Row>>joinedRDD2=commonRDD.join(rdd2);
//將傾斜Meyjoin后的結(jié)果與普通heyjoin后的結(jié)果,utnon起來。
//就是最終的join結(jié)果。
3avaPairRDD<LongJTuple2<String>Row>>joinedRDD=joinedRDDl.union(joinedR
DD2);//首先從包含了少數(shù)幾個(gè)導(dǎo)致數(shù)據(jù)傾斜hey的rddl中,采樣10%的樣本數(shù)據(jù)。
3avaPairRDD<Long,String>sampledRDD=rddl.sample(false,0.1);
//對(duì)樣本數(shù)據(jù)RDD統(tǒng)計(jì)出每個(gè)key的出現(xiàn)次數(shù),并按出現(xiàn)次數(shù)降序排序。
//對(duì)降序排序后的數(shù)據(jù),取出top1或者top10。的數(shù)據(jù),也就是hey最多的前n個(gè)數(shù)據(jù)。
//具體取出多少個(gè)數(shù)據(jù)量最多的hey,由大家自己決定,我們這里就取1個(gè)作為示范。
3avaPairRDD<Long,Long>mappedSampledRDD=sampledRDD.mapToPair(
newPairFunction<Tuple2<LongJString>>Long,Long>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicTuple2<LongJLong>call(Tuple2<Long?String>tuple)
throwsException{
returnnewTuple2〈Long,Long>(tuple._1,IL);
}
});
3avaPairRDD<Long,Long>countedSampledRDD=mappedSampledRDD.reduceByKey(
newFunction2<LongJLong,Long>(){
privatestaticfinallongserialVersionUID=IL;
gOverride
publicLongcall
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 胖東來親子烘焙坊體驗(yàn)館運(yùn)營(yíng)規(guī)范
- 糧油成品市場(chǎng)準(zhǔn)入檢測(cè)項(xiàng)目
- 未來五年城鄉(xiāng)規(guī)劃設(shè)計(jì)企業(yè)數(shù)字化轉(zhuǎn)型與智慧升級(jí)戰(zhàn)略分析研究報(bào)告
- 未來五年醫(yī)用金屬縫合材料行業(yè)市場(chǎng)營(yíng)銷創(chuàng)新戰(zhàn)略制定與實(shí)施分析研究報(bào)告
- 未來五年多層金屬片制密封墊企業(yè)數(shù)字化轉(zhuǎn)型與智慧升級(jí)戰(zhàn)略分析研究報(bào)告
- 未來五年Cr-Mo合金鋼厚板企業(yè)縣域市場(chǎng)拓展與下沉戰(zhàn)略分析研究報(bào)告
- 未來五年數(shù)字化儀器儀表制造企業(yè)ESG實(shí)踐與創(chuàng)新戰(zhàn)略分析研究報(bào)告
- 未來五年磁性元件企業(yè)縣域市場(chǎng)拓展與下沉戰(zhàn)略分析研究報(bào)告
- 大型冷庫(kù)專項(xiàng)工程冷庫(kù)墻體保溫板(聚氨酯彩鋼板)安裝施工方案
- 九年級(jí)科學(xué)《宇宙的層次與尺度》教學(xué)設(shè)計(jì)(華東師大版)
- 2026年自動(dòng)駕駛政策法規(guī)報(bào)告
- 2026年輔警招聘考試試題庫(kù)附答案【完整版】
- 浙江省《檢驗(yàn)檢測(cè)機(jī)構(gòu)技術(shù)負(fù)責(zé)人授權(quán)簽字人》考試題及答案
- 新媒體評(píng)論管理制度規(guī)范(3篇)
- 2025課堂懲罰 主題班會(huì):馬達(dá)加斯加企鵝課堂懲罰 課件
- 建筑施工風(fēng)險(xiǎn)辨識(shí)與防范措施
- 浙江省杭州地區(qū)六校2026屆化學(xué)高一第一學(xué)期期末學(xué)業(yè)水平測(cè)試試題含解析
- 2025年CFA二級(jí)估值與財(cái)務(wù)報(bào)表分析試卷(含答案)
- 2025年宜昌化學(xué)真題試卷及答案
- 醫(yī)療質(zhì)量安全培訓(xùn)計(jì)劃
- GB/T 39693.4-2025硫化橡膠或熱塑性橡膠硬度的測(cè)定第4部分:用邵氏硬度計(jì)法(邵爾硬度)測(cè)定壓入硬度
評(píng)論
0/150
提交評(píng)論