打开调试模式后,我正在EMR上运行一个spark任务(yarn,cluster-mode,transient - 集群在作业完成后关闭)。所有的火花日志上传到S3的预期,但我不能上传自己的自定义日志... 使用log4j的,我想给他们写了如下因素路径acording火花DOC log4j.appender.algoLog.File=${spark.yarn.app.container.log.dir}/algoLog.log
来自aws EMR的spark定制用户日志
好像该变量是未定义的。它试图直接写入根目录。 /algoLog.log
。 如果我将它写入其他任意位置。它只是不会出现在S3上。 如果我希望EMR在群集关闭后将它们上传到s3,我应该在哪里写自己的日志文件?
您正在使用哪个Spark版本? –
EMR版本5.5.0,Spark 2.1.0 – NetanelRabinowitz