欧美一区二区三区,国内熟女精品熟女A片视频小说,日本av网,小鲜肉男男GAY做受XXX网站

如何管理Spark內存

錢瀠龍2年前17瀏覽0評論

如何管理Spark內存?

Spark內存管理

Spark執行應用程序時,Spark集群會啟動Driver和Executor兩種JVM進程,Driver負責創建SparkContext上下文,提交任務,task的分發等。Executor負責task的計算任務,并將結果返回給Driver。同時需要為需要持久化的RDD提供儲存。Driver端的內存管理比較簡單,這里所說的Spark內存管理針對Executor端的內存管理。

Spark內存管理分為靜態內存管理和統一內存管理,Spark1.6之前使用的是靜態內存管理,Spark1.6之后引入了統一內存管理。

靜態內存管理中存儲內存、執行內存和其他內存的大小在 Spark 應用程序運行期間均為固定的,但用戶可以應用程序啟動前進行配置。

統一內存管理與靜態內存管理的區別在于儲存內存和執行內存共享同一塊空間,可以互相借用對方的空間。

Spark1.6以上版本默認使用的是統一內存管理,可以通過參數spark.memory.useLegacyMode 設置為true(默認為false)使用靜態內存管理。

一、具體細節

1、靜態內存管理分布圖

2、統一內存管理分布圖

3、reduce 中OOM如何處理?

拉取數據的時候一次都放不下,放下的話可以溢寫磁盤

1) 減少每次拉取的數據量

2) 提高shuffle聚合的內存比例

3) 提高Excutor的總內存

4、Shuffle調優

spark.shuffle.file.buffer默認值:32k參數說明:該參數用于設置shuffle write task的BufferedOutputStream的buffer緩沖大小。將數據寫到磁盤文件之前,會先寫入buffer緩沖中,待緩沖寫滿之后,才會溢寫到磁盤。調優建議:如果作業可用的內存資源較為充足的話,可以適當增加這個參數的大小(比如64k,一定是成倍的增加),從而減少shuffle write過程中溢寫磁盤文件的次數,也就可以減少磁盤IO次數,進而提升性能。在實踐中發現,合理調節該參數,性能會有1%~5%的提升。spark.reducer.maxSizeInFlight默認值:48m參數說明:該參數用于設置shuffle read task的buffer緩沖大小,而這個buffer緩沖決定了每次能夠拉取多少數據。調優建議:如果作業可用的內存資源較為充足的話,可以適當增加這個參數的大小(比如96m),從而減少拉取數據的次數,也就可以減少網絡傳輸的次數,進而提升性能。在實踐中發現,合理調節該參數,性能會有1%~5%的提升。spark.shuffle.io.maxRetries默認值:3參數說明:shuffle read task從shuffle write task所在節點拉取屬于自己的數據時,如果因為網絡異常導致拉取失敗,是會自動進行重試的。該參數就代表了可以重試的最大次數。如果在指定次數之內拉取還是沒有成功,就可能會導致作業執行失敗。調優建議:對于那些包含了特別耗時的shuffle操作的作業,建議增加重試最大次數(比如60次),以避免由于JVM的full gc或者網絡不穩定等因素導致的數據拉取失敗。在實踐中發現,對于針對超大數據量(數十億~上百億)的shuffle過程,調節該參數可以大幅度提升穩定性。shuffle file not find taskScheduler不負責重試task,由DAGScheduler負責重試stagespark.shuffle.io.retryWait默認值:5s參數說明:具體解釋同上,該參數代表了每次重試拉取數據的等待間隔,默認是5s。調優建議:建議加大間隔時長(比如60s),以增加shuffle操作的穩定性。spark.shuffle.memoryFraction默認值:0.2參數說明:該參數代表了Executor內存中,分配給shuffle read task進行聚合操作的內存比例,默認是20%。調優建議:在資源參數調優中講解過這個參數。如果內存充足,而且很少使用持久化操作,建議調高這個比例,給shuffle read的聚合操作更多內存,以避免由于內存不足導致聚合過程中頻繁讀寫磁盤。在實踐中發現,合理調節該參數可以將性能提升10%左右。spark.shuffle.manager默認值:sort|hash參數說明:該參數用于設置ShuffleManager的類型。Spark 1.5以后,有三個可選項:hash、sort和tungsten-sort。HashShuffleManager是Spark 1.2以前的默認選項,但是Spark 1.2以及之后的版本默認都是SortShuffleManager了。tungsten-sort與sort類似,但是使用了tungsten計劃中的堆外內存管理機制,內存使用效率更高。調優建議:由于SortShuffleManager默認會對數據進行排序,因此如果你的業務邏輯中需要該排序機制的話,則使用默認的SortShuffleManager就可以;而如果你的業務邏輯不需要對數據進行排序,那么建議參考后面的幾個參數調優,通過bypass機制或優化的HashShuffleManager來避免排序操作,同時提供較好的磁盤讀寫性能。這里要注意的是,tungsten-sort要慎用,因為之前發現了一些相應的bug。spark.shuffle.sort.bypassMergeThreshold默認值:200參數說明:當ShuffleManager為SortShuffleManager時,如果shuffle read task的數量小于這個閾值(默認是200),則shuffle write過程中不會進行排序操作,而是直接按照未經優化的HashShuffleManager的方式去寫數據,但是最后會將每個task產生的所有臨時磁盤文件都合并成一個文件,并會創建單獨的索引文件。調優建議:當你使用SortShuffleManager時,如果的確不需要排序操作,那么建議將這個參數調大一些,大于shuffle read task的數量。那么此時就會自動啟用bypass機制,map-side就不會進行排序了,減少了排序的性能開銷。但是這種方式下,依然會產生大量的磁盤文件,因此shuffle write性能有待提高。spark.shuffle.consolidateFiles默認值:false參數說明:如果使用HashShuffleManager,該參數有效。如果設置為true,那么就會開啟consolidate機制,會大幅度合并shuffle write的輸出文件,對于shuffle read task數量特別多的情況下,這種方法可以極大地減少磁盤IO開銷,提升性能。調優建議:如果的確不需要SortShuffleManager的排序機制,那么除了使用bypass機制,還可以嘗試將spark.shffle.manager參數手動指定為hash,使用HashShuffleManager,同時開啟consolidate機制。在實踐中嘗試過,發現其性能比開啟了bypass機制的SortShuffleManager要高出10%~30%。

5、Shuffle調優設置

SparkShuffle調優配置項如何使用?

1) 在代碼中,不推薦使用,硬編碼。

new SparkConf().set(“spark.shuffle.file.buffer”,”64”)

2) 在提交spark任務的時候,推薦使用。

spark-submit --conf spark.shuffle.file.buffer=64 –conf ….

3) 在conf下的spark-default.conf配置文件中,不推薦,因為是寫死后所有應用程序都要用。

java map 合并,如何管理Spark內存