我可以将日志写入/附加到位于hdfs中的压缩文件吗?

时间:2012-02-06 08:49:40

标签: logging hadoop compression hdfs

我正在测试hadoop和hive,我想在日志分析中使用它们。

这里我有一个问题,我可以将日志写入/附加到位于hdfs的压缩文件中吗?

我们的系统每天都会生成大量日志文件,我可以每小时压缩这些日志,然后将它们放入hdfs。

但是如果我想将日志写入已经存在于hdfs中并被压缩的文件中呢?

这些文件是否未压缩,那么这项工作似乎很简单,但如何将日志写入或附加到压缩日志中?

我能这样做吗?

有人可以给我一些建议或给我一些例子吗?

非常感谢!

2 个答案:

答案 0 :(得分:0)

HDFS就像任何文件系统一样(但是分布式)。如果压缩算法支持附加,那么应该可以在HDFS中附加。请注意,只有部分Hadoop版本支持HDFS追加。

答案 1 :(得分:0)

在zlib发行版中,有两个示例程序可以执行此操作。 gzappend和gzlog。您可以从http://zlib.net获取zlib分发。