我有一个数百万条记录SQL表,我计划使用py箭头库将它写入文件夹中的许多拼板文件。数据内容似乎太大,无法存储在一个单一的拼花文件。
但是,我似乎找不到一个API或参数,它允许我指定如下内容:
file_scheme="hive"正如快速拼板python库所支持的那样。
下面是我的示例代码:
#!/usr/bin/python
import pyodbc
import pandas as pd
import pyarrow as pa
import pyarrow.parquet as pq
conn_str = 'UID=username;PWD=passwordHere;' +
'DRIVER=FreeTDS;SERVERNAME=myConfig;DATABASE=myDB'
#----> Query the SQL database into a Pandas dataframe
conn = pyodbc.connect( conn_str, autocommit=False)
sql = "SELECT * FROM ClientAccount (NOLOCK)"
df = pd.io.sql.read_sql(sql, conn)
#----> Convert the dataframe to a pyarrow table and write it out
table = pa.Table.from_pandas(df)
pq.write_table(table, './clients/' )这会引发一个错误:
File "/usr/local/lib/python2.7/dist-packages/pyarrow/parquet.py", line 912, in write_table
os.remove(where)
OSError: [Errno 21] Is a directory: './clients/'如果我用以下内容替换最后一行,它可以正常工作,但只写一个大文件:
pq.write_table(table, './clients.parquet' )有什么想法吗?我怎样才能用pyarrow实现多文件输出呢?
发布于 2017-11-25 22:43:49
试试pyarrow.parquet.write_to_dataset https://github.com/apache/arrow/blob/master/python/pyarrow/parquet.py#L938。
我打开了https://issues.apache.org/jira/browse/ARROW-1858,介绍了添加更多有关这方面的文档。
我建议在邮件列表dev@arrow.apache.org中寻求对Apache的支持。谢谢!
https://stackoverflow.com/questions/47482434
复制相似问题