我正在尝试在CentOS 6.5上设置hadoop伪分布式集群用户。我使用的Hadoop版本是0.20。我也在使用Apache Pig版本0.12.1。
我修改了以下conf文件:
core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8020</value>
</property>
hdfs-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>127.0.0.1:8021</value>
</property>
</configuration>因此,在配置了适当的文件之后,我发出了命令hadoop namenode -format和sh start-all.sh。但是,在运行jps命令之后,我看到名称节点、第二名称和数据节点都在运行,但运行的时间很短。查看日志文件,我看到以下内容:
2014-11-28 20:32:59,434 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: Call to /0.0.0.1:8020 failed on local exception: java.net.SocketException: Invalid argument
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775)我该如何着手解决这个问题?
发布于 2014-12-01 06:15:24
您可能会发现需要使用机器的主机名,而不是localhost或127.0.0.1。
发布于 2014-12-01 15:22:40
您应该使用适当的端口指定namenode
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>https://stackoverflow.com/questions/27216415
复制相似问题