首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用Spring-Batch进行大容量插入?

如何使用Spring-Batch进行大容量插入?
EN

Stack Overflow用户
提问于 2014-12-11 20:09:51
回答 2查看 4.2K关注 0票数 1

我使用spring-batch和spring- data -jpa来读取大型csv数据文件,并使用hibernate将现有条目持久化(或更新)到postgresql数据库中。

如何配置spring才能使用批量/批量插入?

在配置作业step时,我相应地设置了chunk大小:

代码语言:javascript
复制
StepBuilderFactory step;
step.chunk(10000).reader(csvReader).writer(jpaItemWriter).build();

我还需要关注hibernate.jdbc.batch_size属性吗?我是否还需要设置它,可能设置为与块大小相同的大小?

EN

回答 2

Stack Overflow用户

发布于 2014-12-11 20:20:35

当您设置块大小时,您的读取器将以指定的块向写入器发送数据。因此,区块大小决定了在spring batch中对数据库的实际批量更新。

我认为batch_size并不重要,因为您已经为特定步骤设置了特定块大小的作业。

票数 0
EN

Stack Overflow用户

发布于 2014-12-13 16:22:50

在写入数据库时,还需要使用批量更新查询。Google获取详细信息--因此,根据您执行JDBC查询的方式,您将需要使用相应的批量更新机制。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/27422560

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档