在测试用于大容量插入的activerecord-import库之后,我发现它执行的不是一个巨大的INSERT,而是大量的小INSERTs
Xml.import(
insert_values,
ignore: true,
validate: false,
batch_size: 1000
)
# =>
INSERT INTO `xmls` (`path`,`import_id`,`status`,`last_modified`,`created_at`,`updated_at`) VALUES ('test-folder/0_0.xml',114,10,'2019-08-16 20:02:20','2019-08-16 20:02:20','2019-08-16 20:02:20')
INSERT INTO `xmls` (`path`,`import_id`,`status`,`last_modified`,`created_at`,`updated_at`) VALUES ('test-folder/0_1.xml',114,10,'2019-08-16 20:02:20','2019-08-16 20:02:20','2019-08-16 20:02:20')
#...
INSERT INTO `xmls` (`path`,`import_id`,`status`,`last_modified`,`created_at`,`updated_at`) VALUES ('test-folder/0_2.xml',114,10,'2019-08-16 20:02:20','2019-08-16 20:02:20','2019-08-16 20:02:20')我尝试将insert_values设置为XML.new的数组,也可以设置为纯数组的数组:
cols = [:path, :import_id, :status, :last_modified]
insert_values = [
[ 0] [
[0] "test-folder/0_0.xml",
[1] 115,
[2] 10,
[3] Sat, 17 Aug 2019 05:37:02 EDT -04:00
],
[ 1] [
[0] "test-folder/0_1.xml",
[1] 115,
[2] 10,
[3] Sat, 17 Aug 2019 05:37:02 EDT -04:00
],
#...
]
Xml.import(
cols,
insert_values,
ignore: true,
validate: false,
batch_size: 1000
)有人知道为什么它是这样工作的吗?我在文档中找不到任何东西。
发布于 2019-08-20 01:20:15
所以,目前,我发现了一个修改过的第三方解决方案https://gist.github.com/abratashov/155bcd0ea2e02940cc6157e6970e7a2b
它创建批处理(默认情况下为1000批)并执行巨大的BULK INSERT。
https://stackoverflow.com/questions/57530626
复制相似问题