如何有效地使用git重新打包日志文件

时间:2015-08-17 02:33:30

标签: git mysqldump logfiles

我在服务器上有多个永久增长的文件(日志,数据库转储,...),我想在存储库中进行带有历史记录的完整备份。

两个状态之间的简单差异非常小,文件本身也是如此,但不知何故git存储库变得非常大,现在差不多100 GB。

我找到了重新包装命令,但它现在运行了几个小时,我不知道它到底有多远。我能以某种方式看到已经处理了多少百分比?

同样在开始时有一些重新包装问题,所以我找到了以下参数,不确定这些值是否适合我的用例:

repack -a -f -d --window-memory=400M --max-pack-size=400M --depth=100 --window=100

是否可以将git配置为:

  • ..分别处理每个文件?我读它按大小和类型对所有文件进行排序,如果它们接近,它会对它们进行差异,与文件名无关。这可以被禁用,只检查同一个文件吗?它们永远不会重命名。我还想过为每个文件制作一个git,但这将是很多存储库。那会不会常见?

  • ..仅将每个新文件与同一文件的最后2-3个版本进行比较?或者甚至只到最后一个?由于新内容仅适用,因此与早期版本进行比较并没有多大意义。对于db-dumps数据可能会在中间发生变化,但很少会发生变化。文件不是很大,所以我不想拆分它们。

  • ..在文件再次完全存储而不是差异之前定义一个提交的大小?像mpeg中的I帧和P帧一样?

  • 我使用的params好吗?我还应该使用其他人吗?

最终包装尺寸并不像效率那么重要。所以,如果它创建了2 GB而不是1 GB这样的东西(或者我的max-pack-size将其限制为400MB?!?),但如果它也可以在10分钟内完成,则它不应该运行10个小时

非常感谢每一位帮助!

0 个答案:

没有答案
相关问题