Gitlab的大规模备份?

分享于 

3分钟阅读

互联网

  繁體 雙語

问题:

当asking对如何做 3TB 备份的支持 asking premise他们回答use使用我们的工具 produces产生一个tar文件。

这在所有级别上都是错误的。 这里tarball包含postgres转储。Docker 映像。repo 数据。GIT LFS等配置等等。 将 static 数据备份到数据与KB非常动态的数据并不正确。 接下来我们要做的是每小时做一个备份。

问题

我真的想从它的他人那里知道他们如何做到一致的备份。

如果这是解决方案的一部分,那么Linux上的ZFS将是很好的。


回答 1:

备份备份( ( 1h ) ) 之间的短时间,你最好的选择是依赖文件系统级别快照( filesystem ) 和。

如果你的环境中没有使用 ZoL插件,我强烈建议你使用它。 ZFS是一个非常健壮的文件系统,你将非常喜欢所有附加组件( 例如: 它提供了与 sanoid/syncoid 插件的连接,它可以提供非常强大的备份策略。 主disvantage是不包含在主线内核中,因这里你需要分别安装/更新它。

或者,如果你确实需要将自己限制在主线中,那么你可以使用 BTRFS。 但一定要了解它的( 多) 缺陷和 pita。

最后,另一种解决方案是使用 lvmthin 定期备份( 例如: 使用 snapper,依赖于第三方工具( 例如: bdsyncblocksync 等,仅复制/ship delta。

另一种不同的方法是使用复制的两台机器,在那里你可以通过 lvmthin 获取indipendent快照。


回答 2:

我将回顾你所备份的内容,并可能使用"多路径"方法。 例如可以通过在备份服务器上持续运行Git来备份Git存储库。 这样只复制差异,让你得到所有Git库的第二个副本。 假设你可以使用API检测新的仓库。

使用"内置"备份过程来备份这些问题,等等 我怀疑 3TB 来自这部分,因这里很少成本的备份。 你还可以使用带有复制功能的热备份来设置PostgreSQL数据库。

可能你的3TB 来自 Docker 注册表中的容器映像。 你需要把这些? 如果是这样,那么可能会有更好的方法。

基本上,我建议你真正了解构建备份和备份各个部分的数据。

即使从GitLab备份工具也有选项来包括/排除系统的某些部分,比如 Docker 注册表。



GIT  SCA  备份  Scale  Gitlab  
相关文章