首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用Python通过云端数据流将CSV文件导入云Bigtable?

如何使用Python通过云端数据流将CSV文件导入云Bigtable?
EN

Stack Overflow用户
提问于 2019-03-09 12:24:44
回答 3查看 818关注 0票数 2

描述我正在做什么的最简单的方法基本上是遵循这个教程:Import a CSV file into a Cloud Bigtable table,但是在他们开始数据流作业的部分中,他们使用了Java:

代码语言:javascript
复制
mvn package exec:exec \
    -DCsvImport \
    -Dbigtable.projectID=YOUR_PROJECT_ID \
    -Dbigtable.instanceID=YOUR_INSTANCE_ID \
    -Dbigtable.table="YOUR_TABLE_ID" \
    -DinputFile="YOUR_FILE" \
    -Dheaders="YOUR_HEADERS"

有没有办法在python中完成这一特定的步骤?我能找到的最接近的是apache_beam.examples.wordcount示例here,但最终我希望看到一些代码,我可以在其中使用Python向数据流作业中添加一些定制。

EN

回答 3

Stack Overflow用户

发布于 2019-03-14 06:22:27

有一个a connector for writing to Cloud Bigtable,您可以将其用作导入CSV文件的起点。

票数 3
EN

Stack Overflow用户

发布于 2019-03-09 13:39:10

Google Dataflow没有用于BigTable的Python连接器。

以下是Java和Python的Apache光束连接器的链接:

Built-in I/O Transforms

票数 0
EN

Stack Overflow用户

发布于 2019-03-11 12:57:52

我建议做这样的事情。

代码语言:javascript
复制
DataFrame.to_gbq(destination_table, project_id, chunksize=10000, verbose=True, reauth=False, if_exists='fail', private_key=None)

您可以在下面的链接中找到所有参数以及每个参数的解释。

https://pandas.pydata.org/pandas-docs/version/0.21/generated/pandas.DataFrame.to_gbq.html#pandas.DataFrame.to_gbq

票数 -3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55073971

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档