Hadoop作业如何自行杀死

时间:2011-05-19 07:35:02

标签: hadoop

有没有办法杀死Hadoop作业本身或发送信号来杀死它。 我已经从jobConf中读取了配置设置,其中说如果用户指定了错误的设置我需要终止作业或抛出错误,因为map / reduce config 方法不允许抛出异常

public void configure(JobConf job) {
    System.out.println("Inside config start processing");
     try {

            String strFileName =  job.get("hadoop.rules");
            LoadFile(strFileName );
     } catch (Exception e) {
         e.printStackTrace();
        //Here i need to write code to kill job
     }
}

2 个答案:

答案 0 :(得分:2)

在configure()方法中,只抛出一个RuntimeException。

更好的是,如果可能的话,最好在作业运行之前执行验证步骤。

答案 1 :(得分:0)

只需将状态保存到名为kill的布尔变量中,并在地图步骤中评估变量,然后抛出IOException