“风暴”数据处理能力

时间:2012-11-06 10:22:58

标签: hadoop bigdata apache-storm

对于我们每天必须处理最少“2-3 TB”数据的业务用例,我正在对“Hadoop& Storm”进行分析。

毋庸置疑,“风暴”看起来令人印象深刻,因为它在处理传入的大数据方面的效率,但我不确定“风暴”是否足以处理“太字节”的数据,同时为我提供真实的数据时间结果与否?

有人可以解释一下吗?

谢谢, 加金德拉

1 个答案:

答案 0 :(得分:3)

Storm是由twitter开发的。他们每天处理超过8 TB。这听起来应该足够你的情况了。 Afaik storm是分布式计算的最佳流媒体/实时系统。由于作业启动时间而不是本地处理流数据,hadoop不适合它。

事实上,当您拥有足够的服务器电源和存储空间等时,两者都可以处理您希望的每日数据。