博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Container killed on request. Exit code is 143
阅读量:4171 次
发布时间:2019-05-26

本文共 538 字,大约阅读时间需要 1 分钟。

升级hadoop集群后,跑hive sql发现任务一直报错跑不了。

在hive的cli界面执行sql,提示错误

ERROR: FAILED: Execution Error,return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask

查看详细的日志,发现该job分发到4个节点执行,其中都报相同的错误,提示类似:

Current usage: 1GB of 1 GB physical memory used; 2.5 GB of 1.1 GB virtual memory used. Killing container.

可看到,这里提示使用的是1GB内存。

而后查看CDH界面配置,发现

mapreduce.map.memory.mb 参数设置为0,也就是使用默认配置为1024MB

map.reduce.memory.mb同上

可看出每个map给的内存最大为1G,而我sql读取的数据表数据量很大,有1亿多条

尝试将该参数改为2 (注意CDH管理界面配置默认单位为G,即吉字节) ,reduce也是。
重启后,再跑sql就可正常运行。
因此是升级集群后,未对这些必要的参数进行配置。导致一些任务异常。

转载地址:http://bfkai.baihongyu.com/

你可能感兴趣的文章
SpringBoot之快速部署
查看>>
javaWeb监听器、过滤器、拦截器
查看>>
RESTFUL风格的接口
查看>>
后台参数验证配置
查看>>
SpringBoot之外置Tomcat配置
查看>>
java 删除 list 中的元素
查看>>
idea启动优化
查看>>
java发展史
查看>>
Java内存区域
查看>>
数字签名的原理
查看>>
showDialog
查看>>
Flex 拖拽范例
查看>>
flash builder 4 编译器参数
查看>>
flex常用网站
查看>>
flex 页面跳转
查看>>
cat | wc -l 少一行的问题
查看>>
socket 科普文章
查看>>
Mutex, semaphore, spinlock的深度解析
查看>>
pthread线程使用小结
查看>>
A Game of Thrones(59)
查看>>