首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Hadoop distcp复制蜂窝表

Hadoop distcp复制蜂窝表
EN

Stack Overflow用户
提问于 2022-10-07 05:13:04
回答 2查看 36关注 0票数 0

我是hadoop和hive的新手,我正在尝试使用hadoop / -overwrite -overwrite。

此命令运行正常,没有错误,但我仍然看不到目标hdfs集群上的test.db。

EN

回答 2

Stack Overflow用户

发布于 2022-10-08 13:12:44

您已经复制了文件,但没有修改实际注册表信息的Hive亚稳态。

如果您想在集群之间进行复制,我建议查看一个名为马戏团列车的工具,否则,使用SparkSQL与两个集群的Hiveserver交互,而不是只使用hdfs工具。

票数 0
EN

Stack Overflow用户

发布于 2022-10-22 07:07:19

复制文件和目录后,必须重新创建表(ddl),以便有关这些表的数据出现在亚稳态中。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/73982651

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档