如何在独立群集上杀死spark应用程序

时间:2016-09-20 03:47:48

标签: apache-spark

我尝试了三种杀死它的方法,但没有成功。

  1. 点击了MasterWebUI上的kill链接,有时主人和作品的进程已被删除。
  2. spark-submit --master spark:// xx:7077 --kill app-20160920095657-0000,主网址是正确的,但抛出异常Exception in thread "main" org.apache.spark.deploy.rest.SubmitRestConnectionException: Unable to connect to server at org.apache.spark.deploy.rest.RestSubmissionClient$$anonfun$killSubmission$3.apply(RestSubmissionClient.scala:130)
  3. spark-class org.apache.spark.deploy.Client kill spark:// xx:7077 20160920095657-0000,仅输出Use ./bin/spark-submit with "--master spark://host:port"并在短时间内完成。

1 个答案:

答案 0 :(得分:1)

Spark UI

从spark UI获取正在运行的driverId,并点击post rest调用(spark主休息端口,如6066)来终止管道。

curl -X POST http://localhost:6066/v1/submissions/kill/driverId

希望有所帮助