首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何用python在hadoop中保存文件

如何用python在hadoop中保存文件
EN

Stack Overflow用户
提问于 2014-05-23 11:55:49
回答 2查看 2.4K关注 0票数 1

我试图用python2.7在Hadoop中保存文件。我在网上搜索。我有一些代码可以在Hadoop中保存一个文件,但是它在保存时占用了整个文件夹(该文件夹中的总文件正在Hadoop中保存)。但我需要保存一个特定的文件。

下面是在Hadoop中保存文件夹的链接:http://www.hadoopy.com/en/latest/tutorial.html#putting-data-on-hdfs

现在,我需要的是在Hadoop中保存一个特定的文件,比如abc.txt

这是我的代码:

代码语言:javascript
复制
import hadoopy
hdfs_path = 'hdfs://192.168.x.xxx:xxxx/video/py5'
def main():
   local_path = open('abc.txt').read()
   hadoopy.writetb(hdfs_path, local_path)


if __name__ == '__main__':
    main()

我得到了need more than one value to unpack

任何帮助都将不胜感激。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2014-05-23 12:00:31

hadoopy.writetb似乎期望两个值的可迭代性作为其第二个参数。尝试:

代码语言:javascript
复制
hadoopy.writetb(hdfs_path, [("abc.txt", open("abc.txt").read())])
票数 1
EN

Stack Overflow用户

发布于 2014-05-23 12:00:50

http://www.hadoopy.com/en/latest/api.html?highlight=hadoopy.writetb#hadoopy.writetb

写b需要第二位arg作为kvs - Iterator of (键,值)

根据您提供的链接,您已经忘记在代码中复制函数read_local_dir

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/23828574

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档