前两天创建调度任务的时候是重新创建表
语句: insert overwrite table
select …
在集群上跑的时候报了这样的错:
Error: Error while processing statement: FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask (state=08S01,code=2)
然后根据job的id去yarn上面查询了一下日志,发现报错如下:
FATAL [main] org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: GC overhead limit exceeded
原来是内存溢出了,原因是数据量太大,导致在map的阶段内存不足。这时在SQL语句中加上设置参数的语句
set mapreduce.map.memory.mb=10150;
set mapreduce.map.java.opts=-Xmx6144m;
当然这种情况还可能出现在reduce的阶段
set mapreduce.reduce.memory.mb=10150;
set mapreduce.reduce.java.opts=-Xmx8120m;
参数的值自己可调,根据自己的需要设置就好。完结撒花
因篇幅问题不能全部显示,请点此查看更多更全内容