58沈剑:100亿数据平滑数据迁移,不影响服务

开发 开发工具
针对互联网很多“数据量较大,并发量较大,业务复杂度较高”的业务场景,在众多需求下,需要进行数据迁移,完成“平滑迁移数据,迁移过程不停机,保证系统持续服务”有两种常见的解决方案。

数据

一、问题的提出

互联网有很多“数据量较大,并发量较大,业务复杂度较高”的业务场景,其典型系统分层架构如下:

[[186551]]

  • 上游是业务层biz,实现个性化的业务逻辑
  • 中游是服务层service,封装数据访问
  • 下游是数据层db,存储固化的业务数据

服务化分层架构的好处是,服务层屏蔽下游数据层的复杂性,例如缓存、分库分表、存储引擎等存储细节不需要向调用方暴露,而只向上游提供方便的RPC访问接口,当有一些数据层变化的时候,所有的调用方也不需要升级,只需要服务层升级即可。

互联网架构,很多时候面临着这样一些需求:

互联网架构面临的需求

需求1->底层表结构变更:数据量非常大的情况下,数据表增加了一些属性,删除了一些属性,修改了一些属性。

分库个数变换

需求2->分库个数变换:由于数据量的持续增加,底层分库个数非成倍增加。

底层存储介质变换

需求3->底层存储介质变换:底层存储引擎由一个数据库换为另一个数据库。

种种需求,都需要进行数据迁移,如何平滑迁移数据,迁移过程不停机,保证系统持续服务,是文本将要讨论的问题。

二、停机方案

在讨论平滑迁移数据方案之前,先看下不平滑的停机数据迁移方案,主要分三个步骤。

下不平滑的停机数据迁移方案步骤

步骤一:挂一个类似“为了给广大用户提供更好的服务,服务器会在凌晨0:00-0:400进行停机维护”的公告,并在对应时段进行停机,这个时段系统没有流量进入。

下不平滑的停机数据迁移方案步骤

步骤二:停机后,研发一个离线的数据迁移工具,进行数据迁移。针对***节的三类需求,会分别开发不同的数据迁移工具。

  • 底层表结构变更需求:开发旧表导新表的工具
  • 分库个数变换需求:开发2库导3库的工具
  • 底层存储介质变换需求:开发Mongo导Mysql工具

下不平滑的停机数据迁移方案步骤

步骤三:恢复服务,并将流量切到新库,不同的需求,可能会涉及不同服务升级。

  • 底层表结构变更需求:服务要升级到访问新表
  • 分库个数变换需求:服务不需要升级,只需要改寻库路由配置
  • 底层存储介质变换需求:服务升级到访问新的存储介质

总的来说,停机方案是相对直观和简单的,但对服务的可用性有影响,许多游戏公司的服务器升级,游戏分区与合区,可能会采用类似的方案。

除了影响服务的可用性,这个方案还有一个缺点,就是必须在指定时间完成升级,这个对研发、测试、运维同学来说,压力会非常大,一旦出现问题例如数据不一致,必须在规定时间内解决,否则只能回滚。根据经验,人压力越大越容易出错,这个缺点一定程度上是致命的。

无论如何,停机方案并不是今天要讨论的重点,接下来看一下常见的平滑数据迁移方案。

三、平滑迁移-追日志法

平滑迁移方案一,追日志法,这个方案主要分为五个步骤。

平滑迁移-追日志法

数据迁移前,上游业务应用通过旧的服务访问旧的数据。

平滑迁移前

步骤一:服务进行升级,记录“对旧库上的数据修改”的日志(这里的修改,为数据的insert, delete, update),这个日志不需要记录详细数据,主要记录:

  • 被修改的库
  • 被修改的表
  • 被修改的***主键

具体新增了什么行,修改后的数据格式是什么,不需要详细记录。这样的好处是,不管业务细节如何变化,日志的格式是固定的,这样能保证方案的通用性。

这个服务升级风险较小:

  • 写接口是少数接口,改动点较少
  • 升级只是增加了一些日志,对业务功能没有任何影响

平滑迁移-追日志法步骤

步骤二:研发一个数据迁移工具,进行数据迁移。这个数据迁移工具和离线迁移工具一样,把旧库中的数据转移到新库中来。

这个小工具的风险较小:

  • 整个过程依然是旧库对线上提供服务
  • 小工具的复杂度较低
  • 任何时间发现问题,都可以把新库中的数据干掉重来
  • 可以限速慢慢迁移,技术同学没有时间压力

1. 数据迁移完成之后,就能够切到新库提供服务了么?

答案是否定的,在数据迁移的过程中,旧库依然对线上提供着服务,库中的数据随时可能变化,这个变化并没有反映到新库中来,于是旧库和新库的数据并不一致,所以不能直接切库,需要将数据追平。

哪些数据发生了变化呢?

步骤一中日志里记录的不就是么?

平滑迁移-追日志法步骤

步骤三:研发一个读取日志并迁移数据的小工具,要把步骤二迁移数据过程中产生的差异数据追平。这个小工具需要做的是:

  • 读取日志,得到哪个库、哪个表、哪个主键发生了变化
  • 把旧库中对应主键的记录读取出来
  • 把新库中对应主键的记录替换掉

无论如何,原则是数据以旧库为准。

这个小工具的风险也很小:

  • 整个过程依然是旧库对线上提供服务
  • 小工具的复杂度较低
  • 任何时间发现问题,大不了从步骤二开始重来
  • 可以限速慢慢重放日志,技术同学没有时间压力

2. 日志重放之后,就能够切到新库提供服务了么?

答案依然是否定的,在日志重放的过程中,旧库中又可能有数据发生了变化,导致数据不一致,所以还是不能切库,需要进一步读取日志,追平记录。可以看到,重放日志追平数据的程序是一个while(1)的程序,新库与旧库中的数据追平也会是一个“***逼近”的过程。

3. 什么时候数据会完全一致呢?

平滑迁移-追日志法步骤

步骤四:在持续重放日志,追平数据的过程中,研发一个数据校验的小工具,将旧库和新库中的数据进行比对,直到数据完全一致。

这个小工具的风险依旧很小:

  • 整个过程依然是旧库对线上提供服务
  • 小工具的复杂度较低
  • 任何时间发现问题,大不了从步骤二开始重来
  • 可以限速慢慢比对数据,技术同学没有时间压力

平滑迁移-追日志法步骤

步骤五:在数据比对完全一致之后,将流量迁移到新库,新库提供服务,完成迁移。

如果步骤四数据一直是99.9%的一致,不能完全一致,也是正常的,可以做一个秒级的旧库readonly,等日志重放程序完全追上数据后,再进行切库切流量。

至此,升级完毕,整个过程能够持续对线上提供服务,不影响服务的可用性。

四、平滑迁移-双写法

平滑迁移方案二,双写法,这个方案主要分为四个步骤。

平滑迁移-双写法

数据迁移前,上游业务应用通过旧的服务访问旧的数据。

平滑迁移-双写法前

步骤一:服务进行升级,对“对旧库上的数据修改”(这里的修改,为数据的insert, delete, update),在新库上进行相同的修改操作,这就是所谓的“双写”,主要修改操作包括:

  • 旧库与新库的同时insert
  • 旧库与新库的同时delete
  • 旧库与新库的同时update

由于新库中此时是没有数据的,所以双写旧库与新库中的affect rows可能不一样,不过这完全不影响业务功能,只要不切库,依然是旧库提供业务服务。

这个服务升级风险较小:

  • 写接口是少数接口,改动点较少
  • 新库的写操作执行成功与否,对业务功能没有任何影响

平滑迁移-双写法步骤

步骤二:研发一个数据迁移工具,进行数据迁移。这个数据迁移工具在本文中已经出现第三次了,把旧库中的数据转移到新库中来。

这个小工具的风险较小:

  • 整个过程依然是旧库对线上提供服务
  • 小工具的复杂度较低
  • 任何时间发现问题,都可以把新库中的数据干掉重来
  • 可以限速慢慢迁移,技术同学没有时间压力

1. 数据迁移完成之后,就能够切到新库提供服务了么?

答案是肯定的,因为前置步骤进行了双写,所以理论上数据迁移完之后,新库与旧库的数据应该完全一致。

由于迁移数据的过程中,旧库新库双写操作在同时进行,怎么证明数据迁移完成之后数据就完全一致了呢?

平滑迁移-双写法步骤

如上图所示:

  • 左侧是旧库中的数据,右侧是新库中的数据
  • 按照primary key从min到max的顺序,分段,限速进行数据的迁移,假设已经迁移到now这个数据段

数据迁移过程中的修改操作分别讨论:

(1)假设迁移过程中进行了一个双insert操作,旧库新库都插入了数据,数据一致性没有被破坏

(2)假设迁移过程中进行了一个双delete操作,这又分为两种情况

  • 假设这delete的数据属于[min,now]范围,即已经完成迁移,则旧库新库都删除了数据,数据一致性没有被破坏
  • 假设这delete的数据属于[now,max]范围,即未完成迁移,则旧库中删除操作的affect rows为1,新库中删除操作的affect rows为0,但是数据迁移工具在后续数据迁移中,并不会将这条旧库中被删除的数据迁移到新库中,所以数据一致性仍没有被破坏

(3)假设迁移过程中进行了一个双update操作,可以认为update操作是一个delete加一个insert操作的复合操作,所以数据仍然是一致的

除非除非除非,在一种非常非常非常极限的情况下:

  • date-migrate-tool刚好从旧库中将某一条数据X取出
  • 在X插入到新库中之前,旧库与新库中刚好对X进行了双delete操作
  • date-migrate-tool再将X插入到新库中

这样,会出现新库比旧库多出一条数据X。

但无论如何,为了保证数据的一致性,切库之前,还是需要进行数据校验的。

平滑迁移-双写法步骤

步骤三:在数据迁移完成之后,需要使用数据校验的小工具,将旧库和新库中的数据进行比对,完全一致则符合预期,如果出现步骤二中的极限不一致情况,则以旧库中的数据为准。

这个小工具的风险依旧很小:

  • 整个过程依然是旧库对线上提供服务
  • 小工具的复杂度较低
  • 任何时间发现问题,大不了从步骤二开始重来
  • 可以限速慢慢比对数据,技术同学没有时间压力

平滑迁移-双写法

步骤四:数据完全一致之后,将流量切到新库,完成平滑数据迁移。

至此,升级完毕,整个过程能够持续对线上提供服务,不影响服务的可用性。

五、总结

针对互联网很多“数据量较大,并发量较大,业务复杂度较高”的业务场景,在

  • 底层表结构变更
  • 分库个数变换
  • 底层存储介质变换

众多需求下,需要进行数据迁移,完成“平滑迁移数据,迁移过程不停机,保证系统持续服务”有两种常见的解决方案。

1. 追日志法,五个步骤:

  • 服务进行升级,记录“对旧库上的数据修改”的日志
  • 研发一个数据迁移小工具,进行数据迁移
  • 研发一个读取日志小工具,追平数据差异
  • 研发一个数据比对小工具,校验数据一致性
  • 流量切到新库,完成平滑迁移

2. 双写法,四个步骤:

  • 服务进行升级,记录“对旧库上的数据修改”进行新库的双写
  • 研发一个数据迁移小工具,进行数据迁移
  • 研发一个数据比对小工具,校验数据一致性
  • 流量切到新库,完成平滑迁移

【本文为51CTO专栏作者“58沈剑”原创稿件,转载请联系原作者】

戳这里,看该作者更多好文

责任编辑:赵宁宁 来源: 51CTO专栏
相关推荐

2019-07-29 10:18:17

数据库高可用架构

2017-02-10 11:26:39

数据库扩容架构

2018-01-24 09:35:12

高并发数据库设计水平切分

2017-03-23 23:04:03

2023-11-14 08:44:55

数倍数据

2018-03-15 11:23:59

微服务架构实践

2018-06-14 21:47:46

WOT沈剑58速运

2017-04-17 07:00:54

uiduname数据库

2009-01-18 11:11:36

InnoDBMySQLMVCC

2015-10-27 10:33:03

架构设计演进

2019-05-27 09:56:00

数据库高可用架构

2015-01-26 14:35:22

数据中心迁移

2017-01-19 18:20:59

数据架构数据库

2022-09-13 14:52:09

云迁移数据资产数据中心

2020-08-11 10:25:38

数据成本数据大数据

2017-01-05 08:54:15

OctopressHugo迁移

2021-03-01 10:10:39

数据迁移扩容

2019-03-05 10:16:54

数据分区表SQLserver

2020-12-28 13:08:31

Windows 10Windows操作系统

2020-11-16 11:30:34

MySQL数据库MongoDB
点赞
收藏

51CTO技术栈公众号