YARN and MapReduce的【記憶體】最佳化配置詳解
使之專注於其擅長的資料處理任務, 將無需考慮資源排程. 如下圖所示
YARN會管理叢集中所有機器的可用計算資源. 基於這些資源YARN會排程應用(比如MapReduce)發來的資源請求, 然後YARN會透過分配Co
ntainer來給每個應用提供處理能力, Container是YARN中處理能力的基本單元, 是對記憶體, CPU等的封裝.
目前我這裡的伺服器情況:6臺slave,每臺:32G記憶體,2*6核CPU。
由於hadoop 1.x存在JobTracker和TaskTracker,資源管理有它們實現,在執行mapreduce作業時,資源分為map task和reduce task。
所有存在下面兩個引數分別設定每個TaskTracker可以執行的任務數:
點選(此處)摺疊或開啟
-
<property>
-
<name>mapred.tasktracker.map.tasks.maximum</name>
-
<value>6</value>
-
<description><![CDATA[CPU數量=伺服器CPU總核數 / 每個CPU的核數;伺服器CPU總核數 = more /proc/cpuinfo | grep 'processor' | wc -l;每個CPU的核數 = more /proc/cpui nfo | grep 'cpu cores']]></description>
-
</property>
-
<property>
-
<name>mapred.tasktracker.reduce.tasks.maximum</name>
-
<value>4</value>
-
<description>一個task tracker最多可以同時執行的reduce任務數量</description>
- </property>
但是在hadoop 2.x中,引入了Yarn架構做資源管理,在每個節點上面執行NodeManager負責節點資源的分配,而slot也不再像1.x那樣區分Map slot和Reduce slot。在Yarn上面Container是資源的分配的最小單元。
Yarn叢集的記憶體分配配置在yarn-site.xml檔案中配置:
點選(此處)摺疊或開啟
-
<property>
-
<name>yarn.nodemanager.resource.memory-mb</name>
-
<value>22528</value>
-
<discription>每個節點可用記憶體,單位MB</discription>
-
</property>
-
-
<property>
-
<name>yarn.scheduler.minimum-allocation-mb</name>
-
<value>1500</value>
-
<discription>單個任務可申請最少記憶體,預設1024MB</discription>
-
</property>
-
-
<property>
-
<name>yarn.scheduler.maximum-allocation-mb</name>
-
<value>16384</value>
-
<discription>單個任務可申請最大記憶體,預設8192MB</discription>
- </property>
由於我Yarn叢集還需要跑Spark的任務,而Spark的Worker記憶體相對需要大些,所以需要調大單個任務的最大記憶體(預設為8G)。
而Mapreduce的任務的記憶體配置:
點選(此處)摺疊或開啟
-
<property>
-
<name>mapreduce.map.memory.mb</name>
-
<value>1500</value>
-
<description>每個Map任務的實體記憶體限制</description>
-
</property>
-
-
<property>
-
<name>mapreduce.reduce.memory.mb</name>
-
<value>3000</value>
-
<description>每個Reduce任務的實體記憶體限制</description>
-
</property>
-
-
<property>
-
<name>mapreduce.map.java.opts</name>
-
<value>-Xmx1200m</value>
-
</property>
-
-
<property>
-
<name>mapreduce.reduce.java.opts</name>
-
<value>-Xmx2600m</value>
- </property>
mapreduce.map.memory.mb:每個map任務的記憶體,應該是大於或者等於Container的最小記憶體。
按照上面的配置:每個slave可以執行map的資料<= 22528/1500,reduce任務的數量<=22528/3000 。
mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts
mapreduce.map.java.opts / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80
在yarn container這種模式下,JVM程式跑在container中,mapreduce.{map|reduce}.java.opts 能夠透過Xmx設定JVM最大的heap的使用,
一般設定為0.75倍的memory.mb,
則預留些空間會儲存java,scala code等。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31511218/viewspace-2149133/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- yarn記憶體配置Yarn記憶體
- Hadoop 新 MapReduce 框架 Yarn 詳解Hadoop框架Yarn
- 記憶體配置的最佳化記憶體
- JVM記憶體引數詳解及其配置調優JVM記憶體
- 堆記憶體和棧記憶體詳解(轉載)記憶體
- JVM記憶體模型詳解JVM記憶體模型
- JVM堆記憶體詳解JVM記憶體
- iOS記憶體管理詳解iOS記憶體
- YARN的Memory和CPU調優配置詳解Yarn
- Swift 中的記憶體管理詳解Swift記憶體
- Java中的記憶體模型詳解Java記憶體模型
- 【記憶體管理】Oracle AMM自動記憶體管理詳解記憶體Oracle
- Java記憶體管理原理及記憶體區域詳解Java記憶體
- Yarn詳解Yarn
- 記憶體最佳化記憶體
- iOS Memory 記憶體詳解 (長文)iOS記憶體
- 九、JVM記憶體模型詳解JVM記憶體模型
- Apache Spark 記憶體管理詳解ApacheSpark記憶體
- Linux記憶體使用詳解Linux記憶體
- hadoop_MapReduce yarnHadoopYarn
- Redis的記憶體回收機制和記憶體過期淘汰策略詳解Redis記憶體
- Android記憶體優化(五)詳解記憶體分析工具MATAndroid記憶體優化
- JVM之記憶體結構詳解JVM記憶體
- Redis 記憶體淘汰機制詳解Redis記憶體
- Android 記憶體洩露詳解Android記憶體洩露
- ARC記憶體管理機制詳解記憶體
- android,記憶體優化詳解Android記憶體優化
- hadoop YARN配置引數剖析—MapReduce相關引數HadoopYarn
- c 結構體記憶體對齊詳解結構體記憶體
- mapreduce框架詳解框架
- Unity效能最佳化記憶體最佳化Unity記憶體
- aix記憶體最佳化(轉)AI記憶體
- Java直接(堆外)記憶體使用詳解Java記憶體
- C/C++記憶體對齊詳解C++記憶體
- flink記憶體模型詳解與案例記憶體模型
- Java記憶體分析利器MAT使用詳解Java記憶體
- C++六種記憶體序詳解C++記憶體
- 詳解JVM中的記憶體模型是什麼?JVM記憶體模型