首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >加快数据提取

加快数据提取
EN

Stack Overflow用户
提问于 2018-05-10 10:13:03
回答 1查看 55关注 0票数 1

我在SQL数据库中有超过100万行数据。我想把整个数据写到TSV文件中。我正在使用下面的代码来获取前100000行。获取并写入TSV文件需要近20分钟。还有其他方法来加快这一过程吗?

代码语言:javascript
复制
 cursor.execute("select top(100000) from dbo.StoreLocations_Repo_V10")       
 store_details = cursor.fetchall()
 store_details_list = [list(elem) for elem in store_details] 
 df = pd.DataFrame(store_details_list)          

 with open('result.tsv', 'w', encoding='UTF-8') as f:
    df.to_csv(f, header=False, sep='\t')
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-05-10 10:36:31

你可以这样做:

代码语言:javascript
复制
import pyodbc

import pandas as pd

connection = pyodbc.connect('Driver={SQL Server Native Client 11.0};'
                            'Server=YourServer;'
                            'Database=YourDB;'
                            'Trusted_Connection=yes;')

data = "select top(100000) from dbo.StoreLocations_Repo_V10"

df = pd.read_sql(data, connection)

df.to_csv('result.tsv', header=False, sep='\t')
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50270511

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档