首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何优化AWS DMS MySql极光到红移复制?

如何优化AWS DMS MySql极光到红移复制?
EN

Stack Overflow用户
提问于 2017-12-27 16:22:56
回答 2查看 884关注 0票数 2

我一直在使用AWS DMS执行从MySql Aurora到Redshift的持续复制。但是,正在进行的复制会在目标系统上造成持续的25-30%的CPU负载。这是因为它在S3上生成了许多小文件,并不间断地加载/处理它们。Redshift并不是真正为处理大量小任务而设计的。

为了进行优化,我使该过程在每小时开始时开始,等待目标同步,然后停止。因此,它不是连续工作,而是在每个小时开始时工作5-8分钟。尽管如此,它仍然非常慢,而且没有得到优化,因为它仍然需要处理成百上千个小的s3文件,而且时间跨度更短。

这还能进一步优化吗?有没有办法告诉DMS在更长的一段时间内缓冲这些更改,而不是生成更少的大文件而不是许多小的s3文件?我们真的不介意有更高的目标延迟。

Aurora和Redshift之间传输的数据量相当小。每小时大约有20K的变化,我们使用4节点dc1大红移集群。它应该能够在几秒钟内处理这些20K的变化,而不是几分钟

EN

回答 2

Stack Overflow用户

发布于 2019-01-18 10:29:53

也许,你可以试试BatchApplyTimeoutMin和BatchApplyTimeoutMax。https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.ChangeProcessingTuning.html

BatchApplyTimeoutMin设置AWS DMS在每次批处理更改应用之间等待的最短时间(以秒为单位)。默认值为1。

您可以将该值更改为1200,甚至3600。

票数 1
EN

Stack Overflow用户

发布于 2018-01-04 19:08:47

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47988723

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档