首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用s3fs处理大文件?

如何使用s3fs处理大文件?
EN

Stack Overflow用户
提问于 2018-06-13 15:38:13
回答 1查看 867关注 0票数 1

我正在研究AWS电子病历集群。我有关于我的S3存储器的数据。清理数据后,我将通过S3库再次发送到我的s3fs存储。该代码适用于大小在200到500 mb之间的文件。然而,当我上传2.0到2.5GB的大小。代码给出了一个错误,即"MemoryError“。你们对这个问题有什么想法或经验吗?

代码语言:javascript
复制
import s3fs
bytes_to_write = nyc_green_20161.to_csv(None).encode()
fs = s3fs.S3FileSystem(key='#', secret='#')
with fs.open('s3://ludditiesnyctaxi/new/2016/yellow/yellow_1.csv', 'wb') as f:
f.write(bytes_to_write)
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-06-17 19:40:22

我处理这个问题是为了分割我的csv文件。本文解释了如何分割csv文件splitting one csv into multiple files in python

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50841190

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档