码迷,mamicode.com
首页 > 其他好文 > 详细

Spark在StandAlone模式下提交任务,spark.rpc.message.maxSize太小而出错

时间:2017-09-23 17:21:12      阅读:663      评论:0      收藏:0      [点我收藏+]

标签:tag   failure   错误   cee   ...   dep   schedule   stand   org   

1.错误信息
org.apache.spark.SparkException: Job aborted due to stage failure:Serialized task 32:5 was 1728746673 bytes, which exceeds max allowed: spark.rpc.message.maxSize (134217728 bytes).
Consider increasing spark.rpc.message.maxSize or using broadcast variables for large values.at org.apache.spark.scheduler.DAGScheduler……
2.错误原因
  Spark节点间传输传输过大,超过系统默认的128M,因此需要提高
spark.rpc.message.maxSize的大小或者选择用broadcast广播数据。
然而在某些情况下,广播数据并不能契合我们的需求,这时我们可以在提交任务时对
spark.rpc.message.maxSize进行配置,调高maxSize即可。
3.具体解决方案

./bin/spark-submit \
  --class <main-class>
  --master <master-url> \
  --deploy-mode <deploy-mode> \
  --conf spark.rpc.message.maxSize=256
  ... # other options
  <application-jar> \
  [application-arguments]
红色区域即可根据需求更改spark.rpc.message.maxSize的大小,举例改为256M,实测有效。
 

Spark在StandAlone模式下提交任务,spark.rpc.message.maxSize太小而出错

标签:tag   failure   错误   cee   ...   dep   schedule   stand   org   

原文地址:http://www.cnblogs.com/liujStudy/p/7581603.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!