在Spark中加入并行化很好吗?

时间:2014-06-06 22:01:19

标签: apache-spark

我在一个非常小的数据集小于400MB 上运行一个相当小的Spark程序,其中包含一些map和reduceByKey操作。

在某些时候,我有一个我要排序的元组RDD,我称之为 sortByKey 。这是我程序中最慢的部分。其他所有东西似乎都会立即运行,但这需要 20秒

问题是,我的笔记本电脑以及AWS m3.large机器群集需要20秒。我尝试过1,2和3个奴隶,执行时间的差异非常小。 Ganglia和spark web控制台表明CPU和内存正在被用于所有从站的最大容量,所以我认为配置是可以的。

我还发现执行问题在我预期之前发生,但后来发现I read this thread,这指向Spark中的一个未解决的问题。我不认为这完全相关。

它是 sortByKey 本来就很慢而且我添加了多少个节点并不重要,它会决定我程序的最短执行时间?希望不是,而且我只是做错了,可以修复。

修改

事实证明,我所看到的与我发布的链接有关。 sortByKey恰好是第一个动作(记录为转换),看起来好像程序在排序时很慢,但实际排序速度非常快。问题出在之前的加入操作中。

我说的所有内容都适用于通过连接更改排序。当我添加更多节点(或numTask到连接函数)时,为什么执行时间不会下降,为什么它甚至不比普通的SQL连接更好?我之前找到了someone else having this problem,但除了建议调整序列化之外没有答案,我真的不认为是我的情况。

1 个答案:

答案 0 :(得分:16)

连接本质上是一个繁重的操作,因为具有相同键的值必须移动到同一台机器(网络随机播放)。添加更多节点只会增加额外的IO开销。

我能想到两件事:

选项1

如果您要使用较小的数据集加入大型数据集,则可以为广播较小的数据集付出代价:

val large = sc.textFile("large.txt").map(...) 
val smaller = sc.textFile("smaller.txt").collect().toMap() 
val bc = sc.broadcast(smaller)

然后进行'手动加入':

large.map(x => (x.value, bc.value(x.value)))

this Advanced Spark presentation中详细介绍了这一点。

选项2

您可以使用与大数据集相同的分区来重新分区小数据集(即确保相同的键位于同一台计算机上)。因此,调整小集的分区以匹配大集的分区。

这将仅触发小套装的随机播放。一旦分区正确,连接应该相当快,因为​​它将在每个群集节点上本地运行。

相关问题