我正在设置一个备份服务器,大约有10个2TB硬盘被突袭。这台机器的目的只是为了备份来自另一台服务器的大约3-10TB的数据。
实现此备份的最佳方法是什么。有版本历史会很好。我想过要做一次口臭手术,然后再做一次手术。另一台机器只需在一定的时间间隔内将git提交和git推到此服务器上。但我不确定git能不能处理这样的TBs数据。这些文件由90%的图像(jpeg、tiff等)组成,不会改变,所以这些是小文件,10%是大数据库转储,每天都会改变。
最好的解决方案是将其同步到备份机器并使用LVM获取快照吗?使用TimeVault怎么样?我想要的不仅仅是备份的一个副本,而是不同时间间隔的多个版本。有关这一问题的任何信息都将是很好的。
发布于 2011-05-26 23:04:02
我用NextentaStor社区版 (ZFS!)将该框设置为NAS。或OpenFiler.
除非你计划把它当作其他的东西,否则为什么要费心使用一个完整的发行版呢?更少的错误,因为它的目的是建立一个较小的足迹;OpenFiler和NextentaStor都有各自的优点和缺点,但对于纯存储设备来说,这两种选择都比简单的Ubuntu更好。
发布于 2011-05-26 21:45:18
我强烈建议不要用git来做这个。当然可以,但它很不理想。
如果您愿意,可以使用rsync、LVM和快照。对于这样的实例,我首选的备份方法是使用凝固汽油或rdiff-备份。它们可以利用rsync提供的优化,同时提供一组增量备份。
发布于 2011-05-26 22:48:38
Rsync的“--备份-dir=”选项可以消除对每日快照的需求。任何被更改的文件都会被放置到备份文件夹中,并可以从那里还原。
我有一个夜间脚本将数据从远程站点拖到中央备份中,备份目录被脚本化为备份完成的任何日期,所以我有一个每个文件的版本历史记录,这些文件可以追溯到我的存储空间。
如果您想让我发布这个脚本,它非常难看,并且适合我们的需要,所以我不认为它会有多大用处。
https://serverfault.com/questions/274240
复制相似问题