摘要 在上一篇中我们介绍了数据迁移的套路,但是没有介绍具体的方案,这篇着重介绍下具体的数据迁移方案 一. 设计目标 设计一个数据迁移的方案,需要实现以下目标 迁移速度 qps 需要达到1k,这样能保证1亿的数据能够在1~2天内跑完 迁移qps可控 迁移有可能对线上服务有影响,需要可动态调整qps 数据完整, 不丢失 不能遗漏数据,虽然事后我们有数据校验的过程,但是设计数据迁移方案时,需要尽可能的包装数据不丢失。 进度可控 迁移过程可中断,可重试。比如先迁移10分之一的数据,再继续来 二. 架构设计 数据迁移任务大致分为3个步骤,如下图所示 ? 可以可以将成功遍历完, 写入到任务队列的数据记录到某个存储,比如redis中,这样可以保证游标中断,或者服务重启后,可以从这个key中继续遍历,这样就实现了迁移的可中断 2.
Ss Sep25 2:17 /usr/sbin/keepalived -D root 73610 0.0 0.0 112500 2908 ? S Sep25 2:21 \_ /usr/sbin/keepalived -D root 73611 0.0 0.0 112484 2064 ? ]$ Note: 优先级相对原master要低,否则会抢ip 两个keepalived 上 advert_int 要设为 1 为了尽快完成切换 ---- 切换时间选择在业务低点 一般选择业务低点进行数据库操作 ,目的是为了降低业务风险,和数据丢失的风险 通过监控历史数据可以确定这个时间窗口
切换时间选择在业务低点 一般选择业务低点进行数据库操作,目的是为了降低业务风险,和数据丢失的风险 通过监控历史数据可以确定这个时间窗口 ---- 关闭原集群mha 由于集群软件在侦测到主服务器失效后会干预相关资源 [mysql@slave02 bin]$ masterha_check_status --conf=/etc/app1.cnf app1 is stopped(2:NOT_RUNNING). [mysql@slave02 bin]$ ps faux | grep manager mysql 27192 0.0 0.0 103244 864 pts/2 S+ 00:23 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2:
数据库环境: 1、SQLServer 2008R2 2、SQLServer 代理打开 一、新建一个数据库 创建数据库 Incremental_DB ? image.png 二、创建俩张测试表 ---- 数据库脚本链接 ---- --创建用户表 CREATE TABLE [dbo]. 新增表.png 数据库可编程性中增加俩个函数 ? 新增函数.png 同时SQLServer 代理中新增俩个作业 capture(捕获作业) clean(清理作业) ? END 描述 FROM sys.tables WHERE OBJECT_ID IN(OBJECT_ID('Person'),OBJECT_ID('Department')) 四、禁用数据库或数据表 禁用后系统表截图.png 禁用数据库CDC EXEC sys.sp_cdc_disable_db
因为一个数据库结构发生改变的时候源代码也经常会需要做出改变,Yii 提供了一个 数据库迁移 功能,该功能可以记录数据库的变化, 以便使数据库和源代码一起受版本控制。 创建一个数据库迁移: yii migrate/create <name> 这是一个通用的创建数据迁移格式,其中<name>是必填的参数,用来描述当前迁移。 而mssql数据库中并没有text数据类型,但是有个类似的数据类型,叫做ntext。如果在数据库迁移到mysql的时候直接写实体字段类型text,那么如果改换数据库为mssql的时候就会很麻烦。 数据库中会出现一个叫做migration的表,用来记录迁移记录,如图: ? 选中的就是当前迁移操作生成的记录。 会生成一个数据表test_table并且插入一条数据。 ? \yii migrate/down 3 重做迁移: 重做迁移的意思是先还原指定的迁移,然后再次提交: .\yii migrate/redo ##重做最近一次提交的迁移 .
-i ova centos-dev-test01-v2v.ova -o local -os /vmhost/dev/dev-test01 -of qcow2 [ 0.0] Opening the centos-dev-test01-v2v.xml <? 已开始 1.1.5 测试可用性 登陆迁移后的虚拟机测试 [root@clsn7 ~]# ssh root@192.168.19.123 The authenticity of host '192.168.19.123 [root@clsn7 ~]# virsh autostart centos-dev-test01-v2v 域 centos-dev-test01-v2v标记为自动开始 至此一台机器的迁移完成, 后续按照相同的方式将其他的虚拟机进行迁移即可。
-i ova centos-dev-test01-v2v.ova -o local -os /vmhost/dev/dev-test01 -of qcow2 [ 0.0] Opening the centos-dev-test01-v2v.xml <? 已开始 1.1.5 测试可用性 登陆迁移后的虚拟机测试 [root@clsn7 ~]# ssh root@192.168.19.123 The authenticity of host '192.168.19.123 [root@clsn7 ~]# virsh autostart centos-dev-test01-v2v 域 centos-dev-test01-v2v标记为自动开始 至此一台机器的迁移完成, 后续按照相同的方式将其他的虚拟机进行迁移即可。
'authManager' => [ 'class' => 'yii\rbac\DbManager', 'itemTable' => 'auth_item', 'assignmentTable' => 'auth_assignment', 'itemChildTable' => 'auth_item_child', ], 生成权限表命令: yii migrate --migrationPath
究竟怎么如何操作才能达到最佳效果; 起源: (1):起初仅仅是为了测试用,所以迁移的时候不必把数据库中的数据全部迁移过去,仅仅需要数据库的架构即可; (2):某些时候需要更换服务器,那么此时已经在内部存储了大量数据了 ,此时只能把架构+数据全部迁移过来; 解说: 以本地“Login”数据库为例,帮助大家理解四种迁移方式; 一:“分离”—>“附加” 说明: (1)或许会遇到分离数据库后,无法在其它服务器附加数据库的问题 (权限不够,自行更改属性) (2)推荐把数据库放到默认的数据库文件存放目录(E:\Microsoft SQL Server\实例根目录\MSSQL12.SQLEXPRESS\MSSQL\DATA); ( 3)数据库文件可以设置jia兼容级别,高版本兼容低版本 ---- 二:“脱机”—>“附加” 说明:暂时脱离管理数据库,进行资料拷贝后,在重新联机即可; ---- 三: “备份”—>“还原” 说明:为的是还原原始数据 ,防止误操作,类似于保存不同版本信息; ---- 四:生成“SQL脚本” 说明:兼容性最好,轻松避免数据库迁移的其它问题 ----
按照计划在周二开始了数据迁移,本来之前也做了不少的准备工作。但是还是在迁移的过程中出现了一些问题。简单做一个总结。 1.constraint导致的数据reject 在数据加载的时候,报了如下的错误。 TOT_OBJ") 2.foreign key 导致的constraint enable 在数据加载之前,对于foreign key都做了diable的操作,在加载的过程中也没有出现任何问题。 4.sequence检查对于sequence的检查也是数据迁移的重中之重,在最后的检查中,尽管之前的sequence的值做了一个很大的buffer,胆识还是有一些sequence的问题。 TABLE_NAME SEQ_NAME SEQ_MAX COLUMN_MAX sequence_1 EXTRACT_FILE_SEQ 22144093 22044092 sequence_2 RC_RATES
在使用ClickHouse过程中免不了需要数据迁移,比如更新表结构、迁移数据到新的集群。如何尽量将影响降低,加快迁移过程是数据迁移的关键。 海量数据迁移且希望低资源开销 数据插入不可停止的实时迁移 部分可变:可以修改表meta 执行查询前务必将max_execution_time设置为0或者一个极大值,避免数据插入一半因为超时被中止。数据迁移一旦中途中止,需要手动清理目标实例中迁移的数据后重试,否则会有数据重复。 该方案需要额外的zookeeper,但是可以同时执行大量数据迁移。 使用clickhouse-copier时,源表、目标表的数据插入都要停止。迁移时设置好数据时间范围,方便迁移完成后补全迁移期间空档数据。
在之前的文章中,我们介绍了基于 CBBACK 以及 CBRESTORE 等操作方式进行的分布式数据库 Couchbase 集群迁移方案,具体可参考链接:分布式数据库Couchbase 集群迁移 其实,在基于不同的业务场景以及架构方案,针对分布式数据库 Couchbase 集群迁移有多种不同的实现策略,只有能够达到高效、稳定及安全,才是最优选择。 vBucket 系统被用于分布式数据,以及支持多节点间的数据复制。 基本思路: 1、备份老的 Couchbase 服务数据 2、将新 Couchbase 服务器加入到老服务器集群中,并通过 Rebalance 同步两台服务器 Cache 数据 --- 应用服务:Couchbase-server-enterprise-5.5.2-centos6.x86_64.rpm版本 CBTRANSFER 基于集群之间或者数据文件进行转换以实现无缝迁移
数据迁移 迁移就像是数据库的版本控制, 允许团队简单轻松的编辑并共享应用的数据库表结构,迁移通常和 Laravel 的 数据库结构生成器配合使用,让你轻松地构建数据库结构。 如果你曾经试过让同事手动在数据库结构中添加字段,那么数据库迁移可以让你不再需要做这样的事情。 每个迁移文件名都包含时间戳,以便让 Laravel 确认迁移的顺序。 --table和--create选项可用来指定数据表的名称,或是该迁移被执行时是否将创建的新数据表。 这些选项需在预生成迁移文件时填入指定的数据表: php artisan make:migration create_users_table --create=users php artisan make migrate:reset 复制代码 使用单个命令来执行回滚或迁移 migrate:refresh命令不仅会回滚数据库的所有迁移还会接着运行migrate命令。
文本 this is normal text超链接文本标题1引用const a = 2;粗体文本 斜体文本 中划线文本 粗体斜体中划线文本 内联代码内联代码且文本加粗有序列表普通有序列表行间公式 x=2;a+v=c; 表格内容1 表格内容4阿斯顿发顺丰第一页阿斯顿发顺丰第二页
Clickhouse 数据迁移 Clickhouse 数据迁移 [TOP] 背景 数据报表即将上线,需准备一个Clickhouse测试库用作后续开发 方案调研 迁移集群实际上就是要把所有数据库 、表、DDL、分区、表引擎等信息 在目标集群上,运行 DDL 创建表,然后运行上述迁移语句复制数据 遍历所有表,执行 2 使用 clickhouse-copier Clickhouse-copier 是 ClickHouse 官方提供的一款数据迁移工具,可用于把表从一个集群迁移到另一个(也可以是同一个)集群。 有些地方也不是很清楚,最终决定使用 remote 函数来做数据迁移。 必须为两个相同的库,例如从阿里云Clickhouse迁移数据到本地基本就不可行。
https://blog.csdn.net/xc_zhou/article/details/90550221 键迁移 有时候我们想将一个redis的数据迁移到另一个redis中,redis 提供了三种方式来满足数据迁移的需求,分别是move、dump+restore、migrate move key db Redis支持多数据库,多数据库之间彼此在数据上是隔离的。 move key db就是把指定的键从源数据库迁移到目标数据库中。由于多数据库在生产环境中不建议使用,所以此命令很少使用到。 Redis3.06版本之后支持迁移多个键,如果迁移多个键则此处填写空字符串’’ destination-db:目标数据库索引,例如要迁移到0号数据库,这里就写0 - timeout:迁移的超时时间(单位毫秒 ) [copy]:添加此选项后迁移后并不删除源键 - [replace]:添加此选项后,不管目标redis是否存在该键,都会正常迁移进行数据覆盖 - [keys key[key…]]:迁移多个键,例如要迁移
在开发的过程中,需要修改数据库的模型,而且需要在修改之后更新数据库,最直接就是删除旧表,但是会丢失数据。所有最好的方式就是数据库迁移。 它可以追踪数据库模型的变化,然后把变动应用到数据库中。 在flask中可以使用Flask-Migrate扩展,来实现数据迁移。 会创建migrations文件夹,所有的迁移文件都放在里面。 python manage.py db init 创建自动迁移脚本: upgrade():函数把迁移中的改动应用到数据库中。 自动创建的迁移脚本会 根据模型定义和数据库当前状态的差异,生成upgrade()和downgrade()函数的内容。 对比不一定完全正确,有可能会遗漏一些细节,需要进行检查。 python manage.py db upgrade 更新完之后,在数据库会出现一个表 versions每迁移一次里面都会生成一个文件。
介绍 pgloader从各种来源加载数据到PostgreSQL。它可以转换动态读取的数据,并在加载前后提交原始SQL。 对于数据库,pgloader连接到live服务,并知道如何直接从它获取所需的元数据。 特征矩阵 下面是根据源数据库引擎所支持的特性的比较。 命令 pgloader实现了自己的命令语言,这是一种DSL,允许指定要实现的数据加载和迁移的各个方面。该语言中提供的一些功能只适用于特定的源类型。 : pgloader [<options>] [<command-file>]...pgloader [<options>] SOURCE TARGET 您可以使用pgloader命令语言拥有一个包含迁移规范的命令文件 ,也可以提供一个数据源和一个PostgreSQL数据库连接目标,以便将数据加载到其中。
对于数据迁移来说,无论准备工作准备的多么充分,在测试和正式生产环境中,心里还是会对冲突的数据有一些疑虑,心里感觉没底,因为生产的数据也是在不断变化的,要迁移的数据也在做相应的改动,在这样的环境中,其实数据抽取的工作还是顾虑比较少的 可能会有一些紧急的数据更改任务,数据的稽核等等。。 对于主键相关的数据排查,如果在数据迁移前能够发现,是最好的了,这样可以极大的减少dba的工作量。 个人就是在这种窘境中这样设想了一个方法,首先通过查询主键信息,得到主键索引相关的列,然后通过Intersect来查询那些主键字段的数据在生产和迁移库上有冲突,这个过程可以创建一个临时的用户来加载外部表, 基本思路就是通过如下的sql语句来找到冗余的数据。 from target_schema.table_01 --目标数据的schema 实现的脚本如下所示: echo check duplicate data between $1.$2 $3.$2
4. sqoop数据迁移 4.1 概述 sqoop是apache旗下一款“Hadoop和关系数据库服务器之间传送数据”的工具。 4.2 sqoop1与sqoop2架构对比 sqoop1架构 ? sqoop2架构 ? sqoop1版本详细下载地址 http://archive.apache.org/dist/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz sqoop2版本详细下载地址 /servers/ 2、修改配置文件 cd /export/servers/hadoop‐3.1.1/conf/ cp sqoop‐env‐template.sh sqoop‐env.sh vim ‐‐m 1 ‐‐fields‐terminated‐by '\t' 查看文件内容 hdfs dfs ‐text /sqoop/emp2/part‐m‐00000 ?