首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Datanode挂起ambari hadoop

Datanode挂起ambari hadoop
EN

Stack Overflow用户
提问于 2015-01-26 20:30:52
回答 1查看 1.9K关注 0票数 1

我已经使用ambari 1.7设置了hadoop集群,我正面临一个奇怪的问题。一开始,数据节点会启动,但在几秒之内就会自动死亡。当我尝试重新启动datanode时,它没有启动。请帮我解决这个问题。

重启datanode的日志如下

代码语言:javascript
复制
2015-01-26 17:58:02,233 - Error while executing command 'start':
Traceback (most recent call last):
  File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 123, in execute
    method(env)
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/services/HDFS/package/scripts/datanode.py", line 37, in start
    datanode(action="start")
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/services/HDFS/package/scripts/hdfs_datanode.py", line 55, in datanode
    create_log_dir=True
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/services/HDFS/package/scripts/utils.py", line 102, in service
    not_if=service_is_up
  File "/usr/lib/python2.6/site-packages/resource_management/core/base.py", line 148, in __init__
    self.env.run()
  File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 149, in run
    self.run_action(resource, action)
  File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 115, in run_action
    provider_action()
  File "/usr/lib/python2.6/site-packages/resource_management/core/providers/system.py", line 241, in action_run
    raise ex
Fail: Execution of 'ulimit -c unlimited;  su -s /bin/bash - hdfs -c 'export HADOOP_LIBEXEC_DIR=/usr/hdp/current/hadoop-client/libexec && /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /etc/hadoop/conf start datanode'' returned 1. stdin: is not a tty
starting datanode, logging to /var/log/hadoop/hdfs/hadoop-hdfs-datanode-node1.out

在重新启动hadoop集群后,我遇到了类似的问题。这是我来自/var/log/hadoop/hdfs/hadoop-hdfs-datanode-master.hadoopcluster.out的日志文件

代码语言:javascript
复制
ulimit -a for user hdfs
core file size          (blocks, -c) unlimited
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 62510
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 128000
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 65536
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited
EN

回答 1

Stack Overflow用户

发布于 2016-08-12 14:44:48

以下是我如何解决这个问题(这不是一个完美的解决方案,但我把它放在这里供你参考)。

经过几次尝试和谷歌搜索,我释放了它可能是由于名称节点和数据节点之间的不一致造成的。

因此,我从每个数据节点中删除了整个HDFS目录。可以从hdfs-site.xml查看数据节点目录的位置。

之后,我通过命令hadoop namenode -format对namenode进行格式化

那时,我可以启动数据节点,但无法启动namenode。

最后,我从我的主计算机上删除了name node目录,并重新启动了整个集群。

现在它工作得很好,但我不可避免地在旧的HDFS中丢失了原始数据。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/28150175

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档