2017-10-19 67 views
0

我们有一个运行火花命令,但我们正面临着一些磁盘空间问题 所以我们想利用分配纱构造的火花命令EMR

conf,yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk- 
     percentage=99.0 

,但我们得到了我们的日志Warning: Ignoring non-spark config property: yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage=99.0

我们如何得到它使火花借此配置

""Spark_Command": "command-runner.jar,spark-submit, --class,com.go.ccc.ew.modules.fred.fmodel, --name,\\\"f module Module\\\", --master,yarn, --deploy-mode,client, --executor-memory,36G, --executor-cores,4, --conf,spark.sql.shuffle.partitions=640, --conf,spark.yarn.am.memoryOverhead=5120, --conf,yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk- percentage=99.0,/home/hadoop/linking.jar,jobId=# {myJobId},environment=dev"

回答

0

的属性是在纱线的site.xml而不是aspark相关的属性。

您必须在纱线中设置此属性并重新启动纱线。然后你可以提交这份工作。

<property> 
<name> 
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage 
</name> 
<value>90.0</value> 
<source>yarn-default.xml</source> 
</property> 

或者你也可以用更高的产量引导它。

我已经研究了一些关于动态改变纱线配置的内容。

但是纱线是集群级属性

因此不能为不同的应用程序动态更改。如果您找到解决方案,请发布。它非常有趣。