• 主页
  • 随笔
  • 相册
所有文章 关于我

  • 主页
  • 随笔
  • 相册

记一次Hive任务OOM的问题

2019-04-04 阅读量 256

本文记录了Hive任务出现OOM的排查经过…

1 背景

为节约存储成本,我们在产品侧帮助用户将Text格式表更改为Orc格式,但在修改之后,用户原有离线任务出现OOM异常:

1
Error: GC overhead limit exceeded
1
Error: Java heap space
1
Exception from container-launch. Container id: container_e10_1582793079899_23336729_01_001009 Exit code: 255 Stack trace: ExitCodeException exitCode=255: at org.apache.hadoop.util.Shell.runCommand(Shell.java:545) at org.apache.hadoop.util.Shell.run(Shell.java:456) at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:722) at org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor.launchContainer(LinuxContainerExecutor.java:372) at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:306) at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:85) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at java.lang.Thread.run(Thread.java:745) Shell output: main : command provided 1 main : user is yarn main : requested yarn user is dj_dw Container exited with a non-zero exit code 255. Last 4096 bytes of stderr : SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/home/yarn/nodemanager-hadoop-2.7.2-4901/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/data7/hadoopdata/nodemanager/local/usercache/dj_dw/filecache/5953/udf_sec_data_masking.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] log4j:WARN No appenders could be found for logger (org.apache.hadoop.yarn.YarnUncaughtExceptionHandler). log4j:WARN Please initialize the log4j system properly. log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info. Halting due to Out Of Memory Error...

2 排查经过

2.1 定位到异常栈

首先我们需要定位到异常栈,看看到底为什么OOM。如下所示,在reduce阶段:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
2020-04-04 22:00:49,755 INFO [communication thread] org.apache.hadoop.mapred.Task: Communication exception: java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.regex.Matcher.<init>(Matcher.java:225)
at java.util.regex.Pattern.matcher(Pattern.java:1093)
at org.apache.hadoop.yarn.util.ProcfsBasedProcessTree.getProcessList(ProcfsBasedProcessTree.java:514)
at org.apache.hadoop.yarn.util.ProcfsBasedProcessTree.updateProcessTree(ProcfsBasedProcessTree.java:212)
at org.apache.hadoop.mapred.Task.updateResourceCounters(Task.java:870)
at org.apache.hadoop.mapred.Task.updateCounters(Task.java:1021)
at org.apache.hadoop.mapred.Task.access$500(Task.java:78)
at org.apache.hadoop.mapred.Task$TaskReporter.run(Task.java:758)
at java.lang.Thread.run(Thread.java:745)

2020-04-04 22:00:50,961 INFO [main] org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Stopping ReduceTask metrics system...
2020-04-04 22:00:51,238 INFO [main] org.apache.hadoop.metrics2.impl.MetricsSystemImpl: ReduceTask metrics system stopped.
2020-04-04 22:00:51,239 INFO [main] org.apache.hadoop.metrics2.impl.MetricsSystemImpl: ReduceTask metrics system shutdown complete.

都明白是OOM了,该怎么办呢?如何调整MR参数呢?

2.2 先一起来看看MR任务资源相关的参数

  • 1)MapReduce任务资源相关参数:

  • *mapreduce.map.memory.mb: **
    一个 Map Task 可使用的内存上限(单位:MB),默认为 1024。如果 Map Task 实际使用的资源量超过该值,则会被强制杀死。

  • *mapreduce.reduce.memory.mb: **
    一个 Reduce Task 可使用的资源上限(单位:MB),默认为 1024。如果 Reduce Task 实际使用的资源量超过该值,则会被强制杀死。

  • *mapreduce.map.cpu.vcores: **
    每个 Maptask 可用的最多 cpu core 数目, 默认值: 1

  • *mapreduce.reduce.cpu.vcores: **
    每个 Reducetask 可用最多 cpu core 数目默认值: 1

  • *mapreduce.map.java.opts: **
    Map Task 的 JVM 参数,你可以在此配置默认的 java heap size 等参数, 例如:“-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc” (@taskid@会被 Hadoop 框架自动换为相应的 taskid), 默认值: “”

  • *mapreduce.reduce.java.opts: **
    Reduce Task 的 JVM 参数,你可以在此配置默认的 java heap size 等参数, 例如:“-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc”, 默认值: “”

  • 2)yarn资源调度相关参数:(需要在 yarn 启动之前就配置在服务器的配置文件中才能生效)

  • yarn.scheduler.minimum-allocation-mb:*

RM 中每个容器请求的最小配置,以 MB 为单位,默认 1024。

yarn.scheduler.maximum-allocation-mb:

RM 中每个容器请求的最大分配,以 MB 为单位,默认 8192。

yarn.scheduler.minimum-allocation-vcores:

默认值1

yarn.scheduler.maximum-allocation-vcores:

默认值 32

yarn.nodemanager.resource.memory-mb:

表示该节点上YARN可使用的物理内存总量,默认是 8192(MB),注意,如果你的节点内存资源不够 8GB,则需要调减小这个值,而 YARN不会智能的探测节点的物理内存总量。

  • 3)shuffle 性能优化的关键参数:(需要在 yarn 启动之前就配置好)

  • mapreduce.task.io.sort.mb:*

    100 shuffle 的环形缓冲区大小,默认 100m

  • mapreduce.map.sort.spill.percent:*

    0.8 环形缓冲区溢出的阈值,默认 80%

2.3 分析调优

再看下异常栈,是在getProcessList时OOM:

1
2
3
4
5
6
7
8
9
10
2020-04-04 22:00:49,755 INFO [communication thread] org.apache.hadoop.mapred.Task: Communication exception: java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.regex.Matcher.<init>(Matcher.java:225)
at java.util.regex.Pattern.matcher(Pattern.java:1093)
at org.apache.hadoop.yarn.util.ProcfsBasedProcessTree.getProcessList(ProcfsBasedProcessTree.java:514)
at org.apache.hadoop.yarn.util.ProcfsBasedProcessTree.updateProcessTree(ProcfsBasedProcessTree.java:212)
at org.apache.hadoop.mapred.Task.updateResourceCounters(Task.java:870)
at org.apache.hadoop.mapred.Task.updateCounters(Task.java:1021)
at org.apache.hadoop.mapred.Task.access$500(Task.java:78)
at org.apache.hadoop.mapred.Task$TaskReporter.run(Task.java:758)
at java.lang.Thread.run(Thread.java:745)

这里在干什么呢?找到源码位置:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
  private List<String> getProcessList() {
String[] processDirs = (new File(procfsDir)).list();
List<String> processList = new ArrayList<String>();

for (String dir : processDirs) {
Matcher m = numberPattern.matcher(dir);
if (!m.matches()) continue;
try {
if ((new File(procfsDir, dir)).isDirectory()) {
processList.add(dir);
}
} catch (SecurityException s) {
// skip this process
}
}
return processList;
}
...
public Matcher matcher(CharSequence input) {
if (!compiled) {
synchronized(this) {
if (!compiled)
compile();
}
}
Matcher m = new Matcher(this, input);
return m;
}
...
Matcher(Pattern parent, CharSequence text) {
this.parentPattern = parent;
this.text = text;

// Allocate state storage
int parentGroupCount = Math.max(parent.capturingGroupCount, 10);
groups = new int[parentGroupCount * 2];
locals = new int[parent.localCount];

// Put fields into initial states
reset();
}

最后OOM位置是groups = new int[parentGroupCount * 2];

至此,你应该能想到应该调整JVM参数。查看reduce的jvm默认参数:

1
mapreduce.reduce.java.opts	-Xmx1024m

调整为2048,问题解决。

1
set mapreduce.reduce.java.opts=-Xmx1024m

3 总结

通常遇到MR调优,往往用户盲目调整参数,没有找到根因。另外,要善于抓住异常栈,习惯从源码入手(源码不可怕,可怕的是你打开源码的勇气)。

本文作者: Jeff.R
本文链接: https://stefanxiepj.github.io/archives/b4b5c81c.html
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!
知识共享许可协议
赏

谢谢你请我吃糖果

  • Hive
  • Hive

扫一扫,分享到微信

微信分享二维码
如何向Apache Hive社区贡献力量
记一次Hive任务端口不释放的问题
© 2021 Jeff.R 本站已安全运行 2470 天 13 小时 07 分 01 秒
Hexo Theme Yilia by Litten 本站总访问量:20240次 | 本站访客数:15220人
  • 所有文章
  • 关于我

tag:

  • java
  • mysql
  • log4j2
  • Thrift
  • ssh
  • jvm
  • sort
  • cpu
  • Hive
  • Spark
  • Mysql
  • livy
  • git
  • hive
  • spark
  • hadoop
  • Hadoop
  • Bigdata
  • 大数据
  • 随笔
  • mac
  • iceberg

    缺失模块。
    1、请确保node版本大于6.2
    2、在博客根目录(注意不是yilia根目录)执行以下命令:
    npm i hexo-generator-json-content --save

    3、在根目录_config.yml里添加配置:

      jsonContent:
        meta: false
        pages: false
        posts:
          title: true
          date: true
          path: true
          text: false
          raw: false
          content: false
          slug: false
          updated: false
          comments: false
          link: false
          permalink: false
          excerpt: false
          categories: false
          tags: true
    

  • 数据湖技术Iceberg是如何集成Spark的

    2021-05-09

    #iceberg

  • Spark的Shuffle原理深度解析

    2021-05-01

    #spark

  • HiveMetricsCpuHigh

    2021-04-24

    #hive

  • HiveJDBCTimeout

    2021-04-24

    #hive

  • ApacheIceberg

    2021-02-24

    #Bigdata

  • 记一次Hive SQL优化提速10倍的案例

    2020-09-10

    #Hive

  • HivePrecisionDiffrenentFromSpark

    2020-07-29

  • SparkSql与HiveSql的兼容性——如何解决兼容性问题?

    2020-06-24

    #Spark

  • Hive元数据服务MS修改Mysql字符集在滴滴的实践

    2020-06-23

    #Hive

  • SparkSql与HiveSql的兼容性——踩过的十大坑

    2020-06-15

    #spark

  • 隐秘的角落——那些年你偷偷改过的字段

    2020-06-03

    #Spark

  • 批量修改Mysql库表字段字符集的调研

    2020-04-03

    #Mysql

  • 记一次Mysql服务CPU打满的问题

    2020-04-03

    #Hive

  • 数据迁移方案调研

    2020-04-01

    #Mysql

  • 旯坡园子——老院

    2019-09-15

    #随笔

  • 旯坡园子——旯坡屲

    2019-09-15

    #随笔

  • 旯坡园子——坷旯沟

    2019-09-15

    #随笔

  • 旯坡园子——泉滩下

    2019-09-14

    #随笔

  • Spark 任务调优

    2019-07-22

  • beeline -f 导出结果文件包含特殊字符

    2019-06-12

    #hive

  • Spark在ClassCastException异常时日志中打印出抛出异常的具体字段

    2019-06-07

    #Spark

  • 针对元数据服务MetaStore的简易性能测试方法

    2019-06-01

    #Hive

  • 基于 TPC-DS 的 Hive 性能测试

    2019-05-10

    #Hive

  • HowToTroubleShootCPUHigh

    2019-04-24

    #cpu

  • 如何向Apache Hive社区贡献力量

    2019-04-13

    #Hive

  • 记一次Hive任务OOM的问题

    2019-04-04

    #Hive

  • 记一次Hive任务端口不释放的问题

    2019-03-31

    #Hive

  • 记一次Hive任务hang住的问题(2)

    2019-03-31

    #Hive

  • 记一次Hive任务hang住的问题(1)

    2019-03-31

    #Hive

  • Hive元数据升级工具源码剖析

    2019-03-31

    #Hive

  • 虚拟机环境下 hive-2.3.4 环境搭建

    2018-10-02

    #Hive

  • 基于Git的代码开发测试发布流程

    2018-09-25

    #git

  • Mac 办公软件装机指南

    2018-08-26

    #mac

  • photo

    2018-08-20

  • Thrift架构及源码解读

    2018-06-15

    #Thrift

  • Apache Livy 0.5.0 简介及安装教程

    2018-04-01

    #livy

  • Spark2.4.0 源码剖析(4):SparkSubmit

    2017-06-18

    #Spark

  • Spark2.4.0 源码剖析(4):SparkApp提交至yarn核心代码解密

    2017-06-18

    #Spark

  • Spark2.4.0 源码剖析(4):脚本详解

    2017-06-16

    #Spark

  • 大数据之路——阿里巴巴大数据实践

    2017-06-08

    #大数据

  • Spark2.4.0 源码剖析(3):分布式环境搭建

    2017-04-30

    #Spark

  • Spark2.4.0 源码剖析(2):example范例调试

    2017-04-09

    #Spark

  • 虚拟机环境下 Hadoop2.7.7 的集群搭建

    2017-04-01

    #Hadoop

  • Spark2.4.0 源码剖析(1):源码编译

    2017-03-31

    #Spark

  • 走进大数据的世界

    2016-03-20

    #hadoop

  • 多台服务器命令执行神器——pssh-pssh

    2015-06-10

    #ssh

  • MysqlNote_timeout

    2015-05-20

    #mysql

  • 教你如何新建一个NB的Maven工程

    2015-04-30

    #java

  • log4j2.xml.template

    2015-04-26

    #log4j2

  • Linux命令——lsof

    2015-04-08

    #jvm

  • 虚拟机性能监控与故障处理工具(5)——jstack

    2015-04-06

    #jvm

  • 虚拟机性能监控与故障处理工具(4)——jmap

    2015-04-06

    #jvm

  • 虚拟机性能监控与故障处理工具(3)——jinfo

    2015-04-06

    #jvm

  • 虚拟机性能监控与故障处理工具(2)——jstat

    2015-04-06

    #jvm

  • 虚拟机性能监控与故障处理工具(1)——jps

    2015-04-06

    #jvm

  • 数据结构与算法分析-7

    2014-09-24

    #sort

  • mysql-5-7-install

    2014-09-02

    #mysql

  • 单例模式的几种写法

    2014-09-01

    #java

  • HashMap的原理

    2014-09-01

    #java

  • Hello World

    2014-08-20

笔名井地儿, 现就职于桔厂。

专注于Hive,Spark等大数据计算引擎方向。

梦想仗剑走天涯

带心爱的蓉儿去看一看世界的繁华。