我使用ubuntu 12,Hadoop 1.0.3,我使用webhdfs curl创建文件。
curl -i -X PUT "http://localhost:50070/webhdfs/v1/test.txt?op=CREATE或使用
curl -i -X PUT -T /home/hadoop/TestFile/test.txt "http://localhost:50070/webhdfs/v1/test?op=CREATE"两个值得称赞的结果是
HTTP/1.1 307 TEMPORARY_REDIRECT
什么设置缺乏hdfs-site.xml?或其他未设定的许可?
谢谢!
发布于 2012-06-18 12:32:57
根据Web的文档,预期如下:
当您进行第一个put时,您将得到datanode的临时重定向URL,然后可以发出另一个PUT命令将文件实际上载到HDFS中。
该文档还解释了这种2步创建方法背后的原因:
注意,创建/追加两步的原因是为了防止客户端在重定向之前发送数据。HTTP/1.1中的"Expect: 100-继续“报头解决了这个问题;参见RFC 2616,第8.2.3节。不幸的是,有一些软件库错误(例如Jetty6HTTP服务器和Java6HTTP客户端),它们没有正确地实现"Expect: 100-继续“。两步创建/追加是软件库错误的临时解决方案.
发布于 2016-09-15 14:31:50
我知道我回复得太晚了,但是其他在这里寻找答案的人都能看到答案。嗨@Krishna Pandey这是WebHDFS https://hadoop.apache.org/docs/r1.0.4/webhdfs.html#CREATE的新链接
有关步骤和命令https://wordpress.com/post/had00ping.wordpress.com/194,可以参考本博客。
https://stackoverflow.com/questions/11064229
复制相似问题