描述我正在做什么的最简单的方法基本上是遵循这个教程:Import a CSV file into a Cloud Bigtable table,但是在他们开始数据流作业的部分中,他们使用了Java:
mvn package exec:exec \
-DCsvImport \
-Dbigtable.projectID=YOUR_PROJECT_ID \
-Dbigtable.instanceID=YOUR_INSTANCE_ID \
-Dbigtable.table="YOUR_TABLE_ID" \
-DinputFile="YOUR_FILE" \
-Dheaders="YOUR_HEADERS"有没有办法在python中完成这一特定的步骤?我能找到的最接近的是apache_beam.examples.wordcount示例here,但最终我希望看到一些代码,我可以在其中使用Python向数据流作业中添加一些定制。
发布于 2019-03-14 06:22:27
有一个a connector for writing to Cloud Bigtable,您可以将其用作导入CSV文件的起点。
发布于 2019-03-09 13:39:10
发布于 2019-03-11 12:57:52
我建议做这样的事情。
DataFrame.to_gbq(destination_table, project_id, chunksize=10000, verbose=True, reauth=False, if_exists='fail', private_key=None)您可以在下面的链接中找到所有参数以及每个参数的解释。
https://stackoverflow.com/questions/55073971
复制相似问题