达到Github存储库数据限制

时间:2018-06-26 21:24:11

标签: github git-lfs

即使LFS(Github的大文件存储)现在跟踪了我剩下的单个大文件(138 mb),我仍然以某种方式达到了github数据限制。我重置为经过的最后一次提交,确保LFS跟踪了唯一的(据我所知)问题文件。我仍然收到以下错误,并且不知道该怎么办。

batch response: This repository is over its data quota. Purchase more data packs to restore access.  
Uploading LFS objects:   0% (0/1), 0 B | 0 B/s, done
error: failed to push some refs to <repo name>

在成功使用LFS之前,我已经使用它存储了多个大文件。我不知道是什么引起了这个问题。

1 个答案:

答案 0 :(得分:1)

说实话,我发现远程服务器上的存储条款和条件真的很奇怪。 GitHub在其基础架构上“ 跟踪”您的大型文件,对于拥有GitHub Free帐户的个人,最大限制为1 GB。

但是有一个警告:说您使用Git LFS初始化了本地存储库,将138 MB的文件推送到LFS服务器,一切正常。现在,如果由于某种原因或其他原因,您决定更改文件的某些方面,即使它只是一个1字节的大更改,Git LFS会将其作为一个全新文件进行跟踪。因此,随着时间的推移,当您不断更改大文件时,它将占用服务器上宝贵的存储空间。

奇怪的是,甚至官方文档都没有提到删除大文件的先前版本以释放宝贵空间的任何方法。

下面是一个示例,详细说明了我刚才提到的内容:

如果将500 MB文件推送到Git LFS,则将使用500 MB 分配的存储空间,没有带宽。如果你做一个1字节 更改并再次推送文件,您将再使用500 MB的存储空间 而且没有带宽,这两次的总使用量为1 GB的存储空间和零带宽。

您可以在此处的官方文档中了解更多信息-Tracking storage and bandwidth use