我最近与Rackspace签约,托管一些数据库服务器。我已经设置了两个MySQL服务器,并有一个创建备份的方法(使用Percona和innobackupex工具)。我一直试图使用欺骗的方式将这些备份复制到S3和CloudFiles存储中,这是不正确的!我预计S3备份不会很快,但是CloudFiles备份需要15小时才能备份9GB。这太慢了,我也不能接受。
我已经看过了这些重复的源代码,默认情况下,它不会利用Rackspace Servicenet传输到cloudfiles。然后,我查看了用于CF后端的lib的cloudfiles源代码,并看到了利用Servicenet (RACKSPACE_SERVICENET)的环境选项。只要将其设置为某种内容,cloudfiles库就应该通过Rackspace Servicenet连接到cloudfiles,这将实现快速传输。事实并非如此。
我不确定速度限制是由于CloudFiles的某些限制,还是cloudfiles python库实际上没有通过RackSpace服务网进行连接。
对于我应该如何/如何将这些备份从服务器上移到第三方或远程备份服务上,你们有什么其他建议吗?
发布于 2011-06-29 14:28:13
我们使用的是Rackspace服务器备份(即. JungleDisk服务器备份),它像重复一样进行本地dedupe和压缩,然后通过HTTP将“块”上传到云提供商。我们看到了一些性能问题,其根本原因是云文件的供应点与云服务器不同。我们的云服务器是在DFW数据中心中创建的,但是所有用于JungleDisk的云文件桶都在ORD数据中心中。
Rackspace目前不允许人们选择使用哪个数据中心,因为DFW设施已接近容量。因此,在ORD中为“较新”帐户提供的所有内容。因此,您必须打开一张支持票才能更改您的供应点。
另外,您不能在Rackspace数据中心之间使用ServiceNet (尚未)。
尽管如此,在备份期间,我们确实看到了40+ Mbps,甚至在Rackspace数据中心之间使用Rackspace云备份,因此我怀疑您在备份过程中存在某种形式的配置问题,或者是磁盘或CPU绑定。您是否尝试过从外部云文件中运行对同一个目标的备份?一个大型文件的简单HTTP放置是如何执行的(即测试的外挂式欺骗)?
发布于 2011-06-13 07:54:02
也许不是一个完整的答案,更多的是一个建议。您能不能不设置一个连续镜像(或跟踪几分钟)主DB服务器的Amazon实例。然后,您可以直接将该EC2实例备份到S3,并获得更快的传输速度,以及减少主DB计算机上的负载。
虽然15小时的9GB是,如果我的心理数学是正确的(它可能不是),少于2MB/s,这听起来像一个问题。也许有必要联系Rackspace支持部门,问他们为什么传输速度慢。
https://serverfault.com/questions/278258
复制相似问题