首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >关键: HDFS-HAWQ -向新硬件的迁移

关键: HDFS-HAWQ -向新硬件的迁移
EN

Stack Overflow用户
提问于 2016-11-14 19:12:44
回答 1查看 60关注 0票数 0

我们有版本PHD3.0Hadoop集群用于5个节点,使用ambari安装在rackspace上。我们必须迁移到Google。

但没有得到步骤如何进行以下操作

Q1:如何将数据、元数据配置从旧机器迁移到新机器。(旧机器版本是第6.5章到目标机器版本centos 6.5)

Q2:要备份哪些组件和文件夹?什么是命令?

Q3:如何备份名称和数据?

Q4:我们也需要备份ambari数据库吗?

有什么能帮上忙的吗?

EN

回答 1

Stack Overflow用户

发布于 2017-02-02 00:19:50

我个人更喜欢在GCP中提供hadoop集群,并使用distcp将数据移动到新集群。对于hawq托管表,将数据移动到hdfs,然后执行distcp。在AWS的某些情况下,我将数据转移到s3并导入到hadoop中。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40596123

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档