在下面的例子中,土星是主节点,冥王星是从节点。
hadoop@saturn:~$ start-dfs.sh
16/02/22 15:51:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [saturn]
hadoop@saturn's password:
saturn: starting namenode, logging to /usr/local/hadoop/logs/hadoop-hadoop-namenode-saturn.out
hadoop@saturn's password: pluto: starting datanode, logging to /usr/local/hadoop/logs/hadoop-hadoop-datanode-pluto.out它在最后一条指令下被吊死。
我不明白为什么会发生这样的事情。
更新:早些时候,我有土星和冥王星都在usr/local/hadoop/奴隶文件中,但当我将其更改为pluto时,它才运行。但是现在datanode没有在从/pluto节点中启动。
应@running的请求:
/usr/local/hadoop/logs/hadoop-hadoop-datanode-pluto.out日志
-a用于用户hadoop核心文件大小(块,-c) 0数据seg大小(千字节,-d)无限调度优先级(-e) 0文件大小(块,-f)无限挂起信号(-i) 15838最大锁定内存(kbytes,-l) 64个最大内存大小(千字节,-m)无限打开文件(-n) 1024管道大小(512个字节,-p) 8个POSIX消息队列(字节,-q) 819200实时优先级(-r) 0堆栈大小(千字节,-s) 8192 cpu时间(秒,-t)无限最大用户进程(-u) 15838虚拟内存-v)无限文件锁(-x)无限
/usr/local/hadoop/logs/hadoop-hadoop-namenode-saturn.out日志
-a用于用户hadoop核心文件大小(块,-c) 0数据seg大小(千字节,-d)无限调度优先级(-e) 0文件大小(块,-f)无限挂起信号(-i) 1031371最大锁定内存(kbytes,-l) 64个最大内存大小(千字节,-m)无限打开文件(-n) 1024管道大小(512个字节,-p) 8个POSIX消息队列(字节,-q) 819200实时优先级(-r) 0堆栈大小(千字节,-s) 8192 cpu时间(秒,-t)无限最大用户进程(-u) 1031371虚拟内存-v)无限文件锁(-x)无限
(很抱歉格式化)
发布于 2016-02-22 11:00:57
之所以发生这种情况,是因为这两个文件没有写入所需的权限。所以我对/usr/local/做了chown和chmod,它起了作用。
https://stackoverflow.com/questions/35551278
复制相似问题