Mule批量提交和记录失败

时间:2016-02-03 07:45:50

标签: mule batch-processing dataweave

我目前的情况:

我有 10000条记录作为批次的输入。 根据我的理解,批处理仅用于逐个记录处理。因此,我在批处理步骤中使用dataweave组件转换每个记录(注意:我没有使用任何批处理提交)并将每个记录写入文件。进行逐记录处理的原因是假设在任何特定记录中都存在无效数据,只有该特定记录失败,其余部分将被正确处理。

但在我看到的许多博客中,他们使用带有dataweave组件的 batchcommit(带流媒体)。因此,根据我的理解,所有记录将一次性提供给数据编织,如果一条记录包含无效数据,则所有10000条记录都将失败(在数据编织时)。然后,逐个记录处理的点丢失。 以上假设是正确的还是我错误的思考方式?

这就是我没有使用批量提交的原因。

现在,正如我所说,我将每条记录发送到一个文件。实际上,我确实要求将每条记录发送到 5个不同的CSV文件。所以,目前我在 BatchStep 中使用 Scatter-Gather 组件将其发送到五个不同的路线。enter image description here

因为,你可以看到图像。输入阶段提供10000条记录的集合。每条记录将使用Scatter-Gather发送到5条路线。

是,我使用的方法很好,或者可以遵循任何更好的设计?

此外,我已经创建了第二个批处理步骤,以捕获仅失败的错误。但是,使用当前的设计,我无法捕获失败的记录。

1 个答案:

答案 0 :(得分:4)

简短的回答

  

上述假设是正确的还是我错误的想法?

简而言之,是的,你在想错误的方法。用例子阅读我的loooong解释,了解原因,希望你会欣赏它。

  

另外,我创建了第二批处理步骤,仅捕获FAILEDRECORDS。   但是,使用当前的设计,我无法捕获失败的记录。

您可能忘记在批处理作业上设置max-failed-records = "-1"(无限制)。默认值为0,第一个失败的记录批次将返回,不执行后续步骤。

  

是,我使用的方法很好,或者任何更好的设计都可以   接着??

我认为,如果性能对您来说是必不可少的,那么您就无法应对按顺序执行此操作所产生的开销。 相反,你可以放慢一点,在5个不同的步骤中执行此操作是有意义的,你将失去并行性,但你可以更好地控制失败的记录,特别是如果使用批量提交。

实践中的多次工作

我认为通过一个例子解释它是如何工作的最佳方式。

考虑以下情况: 您的批处理配置为max-failed-records = "-1"(无限制)。

<batch:job name="batch_testBatch" max-failed-records="-1">

在这个过程中,我们输入一个由6个字符串组成的集合。

 <batch:input>
            <set-payload value="#[['record1','record2','record3','record4','record5','record6']]" doc:name="Set Payload"/>
 </batch:input>

处理由3个步骤组成“ 第一步只是记录处理,第二步将执行记录并在record3上抛出异常以模拟故障。

<batch:step name="Batch_Step">
        <logger message="-- processing #[payload] in step 1 --" level="INFO" doc:name="Logger"/>
 </batch:step>
 <batch:step name="Batch_Step2">
     <logger message="-- processing #[payload] in step 2 --" level="INFO" doc:name="Logger"/>
     <scripting:transformer doc:name="Groovy">
         <scripting:script engine="Groovy"><![CDATA[
         if(payload=="record3"){
             throw new java.lang.Exception();
         }
         payload;
         ]]>
         </scripting:script>
     </scripting:transformer>
</batch:step>

第三步将仅包含提交计数值为2的提交。

<batch:step name="Batch_Step3">
    <batch:commit size="2" doc:name="Batch Commit">
        <logger message="-- committing #[payload] --" level="INFO" doc:name="Logger"/>
    </batch:commit>
</batch:step>

现在,您可以关注我执行此批处理:

enter image description here

开始时,第一步将处理所有6条记录,登录控制台将如下所示:

 -- processing record1 in step 1 --
 -- processing record2 in step 1 --
 -- processing record3 in step 1 --
 -- processing record4 in step 1 --
 -- processing record5 in step 1 --
 -- processing record6 in step 1 --
Step Batch_Step finished processing all records for instance d8660590-ca74-11e5-ab57-6cd020524153 of job batch_testBatch

现在事情会更有意思,第2步记录3会失败,因为我们显式抛出异常但是尽管如此,步骤将继续处理其他记录,这里的日志将如何。

-- processing record1 in step 2 --
-- processing record2 in step 2 --
-- processing record3 in step 2 --
com.mulesoft.module.batch.DefaultBatchStep: Found exception processing record on step ...
Stacktrace
....
-- processing record4 in step 2 --
-- processing record5 in step 2 --
-- processing record6 in step 2 --
Step Batch_Step2 finished processing all records for instance d8660590-ca74-11e5-ab57-6cd020524153 of job batch_testBatch

此时,尽管此步骤记录失败,批处理仍将继续,因为参数max-failed-records设置为-1(无限制),而不是默认值0。

此时所有成功的记录都将传递给第3步,这是因为默认情况下,某个步骤的accept-policy参数设置为NO_FAILURES。 (其他可能的值为ALLONLY_FAILURES)。

现在,包含计数等于2的提交阶段的step3将逐个提交记录:

-- committing [record1, record2] --
-- committing [record4, record5] --
Step: Step Batch_Step3 finished processing all records for instance d8660590-ca74-11e5-ab57-6cd020524153 of job batch_testBatch
-- committing [record6] --

正如您所看到的,这证实了失败的记录3未传递到下一步,因此未提交。

从这个例子开始,我认为你可以想象并测试更复杂的场景,例如在提交之后,你可以有另一个步骤来处理失败的记录,以便知道管理员和失败的邮件。 您可以随时使用外部存储来存储有关记录的更多高级信息,您可以在my answer to this other question中阅读。

希望这有帮助