如何从运行Spark应用程序中获取聚合日志

时间:2016-10-03 12:27:10

标签: apache-spark spark-streaming

我有一个连续运行的Spark应用程序,它从Kafka读取消息并进行一些处理。有没有办法聚合"应用程序日志" ?

AFAIK,只有在SparkContext被销毁时才会发生日志聚合。

1 个答案:

答案 0 :(得分:0)

您是否尝试过日志的标准YARN命令?

纱线日志-applicationId some-id