阅读更多Kafka主题,而不是CPU核心数

时间:2016-01-18 18:50:28

标签: scala apache-spark apache-kafka spark-streaming

来自Spark Streaming Programming Guide

  

将逻辑扩展到在群集上运行,分配给Spark Streaming应用程序的核心数必须大于接收者数量。否则系统将接收数据,但无法处理数据。

这是否意味着如果我在整个Spark群集中有16个CPU核心,我无法读取超过15个Kafka主题的数据?

1 个答案:

答案 0 :(得分:4)

仅当您使用基于消费者/接收者的API时。这不适用于直接流。

看看here了解两者之间的差异