Spark流应用程序的核心和执行程序数量是多少?

时间:2017-11-17 00:07:55

标签: apache-kafka streaming spark-streaming kafka-consumer-api

我有一个Spark流媒体应用程序,可以读取4个不同的Kafka主题,每个主题有3个分区。 读取操作在不同的时刻完成(我有4个流程按顺序处理)所以在我的想法中,我只需要3个驻留执行器(每个主题的每个分区一个),每个执行器一个核心。 以这种方式提交应用程序我可以看到执行程序和处理时间之间的执行没有并行化是非常高的计算复杂性。这个假设有什么问题?

如果我使用4个执行程序运行相同的应用程序,每个执行程序通过所有执行程序并行处理,并且处理时间很短。

我想知道在使用带有Spark Streaming的Kafka主题时,是否存在关于主题/分区和核心的执行者的最佳实践。

0 个答案:

没有答案
相关问题