虚拟化在线迁移优化实践(二):KVM虚拟化跨机迁移优化指南

企业动态
本篇文章将具体分析UCloud在不同应用场景下对KVM虚拟化迁移技术各个阶段所做的优化。

一、前言

上篇我们分析了基于KVM的虚拟化迁移技术原理,通过这种虚拟化迁移技术能够提供很好的在线迁移解决方案。

但是考虑到云平台环境的复杂性,以及用户需求的多样性,在迁移过程中我们需要解决以下几个问题:

  • 宿主机的选择;
  • 磁盘镜像处理;
  • 网络切换设置;
  • 内存磁盘压力的处理等。

因此,UCloud云平台需要对在线迁移过程进行多方面的优化,本篇文章将具体分析UCloud在不同应用场景下对KVM虚拟化迁移技术各个阶段所做的优化。

二、普通迁移优化

1. 准备阶段

在迁移准备阶段,需要选择相同业务类型的宿主机,以便方便创建相同配置的虚拟机。该机型除了具有足够空闲内存和磁盘的物理机外,还需要考虑目标物理机的配置是否合适。特别是需要考虑CPU的型号和内核的版本号。

另外,考虑到迁移过程网络带宽有限,如果带宽被其他任务占用,就会使得迁移速度下降,甚至影响最终迁移的成功率。为此,除非物理机之间的网络带宽足够大,在UCloud平台上原则上并不允许在相同两台物理机之间进行多个并行的迁移任务,以便尽量确保在线迁移的成功率。

2. 迁移阶段

在线迁移过程中需要迁移虚拟机的所有磁盘和内存数据,而且虚拟机在迁移过程中并不停机,这使得需要迁移更多的增量数据。如果能够减少数据的迁移量,就能够减少迁移时间,从而更快的实现云平台的资源动态调整和故障处理。

(1) 零数据优化:

UCloud的虚拟机使用的是本地存储(UDisk除外),磁盘在物理机上是以文件方式存在的,这个文件是sparse文件,假设虚拟机的磁盘是100G,但实际使用了10G,那么这个磁盘文件在物理机上只占用了10G空间。如图 2‑1所示,但是原生的Qemu在迁移磁盘时并没有保持sparse特性,所以这个100G的磁盘迁移到目标物理机上后就实际占用了100G空间。这个对物理机的磁盘空间来说是非常浪费的,而且还严重影响迁移的完成时间。

磁盘文件零块数据迁移前后示意图

图 2‑1磁盘文件零块数据迁移前后示意图

磁盘文件零块数据迁移优化示意图

图 2‑2 磁盘文件零块数据迁移优化示意图

如图 2‑2 所示,我们的优化方案就是在源端读到全0的块,就不发送到目标端,这样目标端就是跳着块来写一个文件,这样就保持了磁盘文件的sparse特性。同时,考虑到线上往往存在多种Qemu版本,还要考虑到原生的Qemu和打了这个patch的Qemu之间迁移机器如何保持sparse。为此,可以通过在Qemu中接收磁盘数据过程判断一个块是否全部为0,如果是就不实际写磁盘,即可解决。所有的零块数据都被跳过,不进行传输。

通过上述方法就可以忽略磁盘迁移过程中的零数据,大大减少传输的数据量。最终,通过Qemu的这些patch,还可以明显减少在线迁移的数据传输量和镜像文件的空间占用量。

(2) UDisk网络盘优化

由于UDisk是网络块存储,在迁移一台带有UDisk机器时, 迁移UDisk盘是没有必要的,因为这个盘可以通过网络挂到目标。为此,我们在迁移时过滤掉虚拟机的UDisk盘,同时对UDisk产品做了改造,支持多点挂载,这样就解决了这个问题,提高了迁移的效率。

在迁移前目标端DestHost会将UDisk进行挂载操作,同时迁移过程中会跳过UDisk的传输,当迁移结束时源端SourceHost会将UDisk进行卸载,这样既避免对UDisk数据进行迁移,同时避免虚拟机在迁移过程中,对UDisk数据的访问,实现迁移过程对用户完全透明。

(3) 迁移结束优化

目前,在线迁移默认情况下它不能很好地处理内存写密集型的虚拟机。由于在线迁移过程中,用户虚拟机并不关机,这就使得迁移过程中用户会不停产生新的内存脏数据。这些新增脏数据需要通过多次迭代的增量数据迁移来传递到目标端DestHost上,并在预期新增脏数据传输时间少于最大停机时间时,进行最后一次停机增量数据传输,然后将虚拟机切换到目标端DestHost。

如果用户产生的脏内存数据过多,就会使得迁移的增量数据传输时间一直大于最大停机时间,使得增量传输阶段不断进行循环迭代,导致整个迁移过程无法完成。

内存迁移的auto-coverge优化

图 2‑3 内存迁移的auto-coverge优化

由于用户产生脏内存数据的速度与虚拟机的vCPU被提交运行的时间有关,因此能够减少用户虚拟机vCPU执行时间可以阻止用户产生过多的内存脏数据,从而让迁移数据传输得以在内存脏数据产生之前的完成。

为此,我们对Qemu的auto-converge功能进行了优化,首先,我们提高了Qemu的throttling迁移速度,避免迁移速度限制迁移的完成时间。其次,我们修改了auto-converge的触发条件。在增量迁移数据时,如果产生脏数据的量大于上次产生传输数据量的50%,并重复发生多次,则自动触发自动auto-converge功能。该功能默认情况下,将削减20%的虚拟机vCPU执行时间,也就减低用户虚机vCPU的执行速度,并减少新增的脏数据。

在每次内存迭代开始时,它会根据之前的削减情况,决定后续削减粒度。如果新增脏数据仍然过多,它将重复削减10%的许可vCPU的运行时间,直至削减CPU直至99%,从而触发最后阶段的停机迁移,以完成迁移过程。

虽然这种优化会使得虚拟机的停机时间稍长,但是根据长期实践结果,整个迁移的停机时间仍然非常小(小于100ms),因此这项优化对提高迁移的成功率有重要意义。

(4) 压缩迁移优化

虽然Qemu的auto-converge功能可以在一定程度上解决用户内存负载对迁移的影响,提高迁移成功率,但如果用户产生的脏数据对vCPU的执行速度依赖不大,则会使迁移的增量数据传输时间一直大于最大停机时间,使整个迁移过程无法完成。考虑到内存负载高的用户,往往会反复修改某一内存页,这些内存页面很容易被压缩。为此,可以考虑在迁移内存数据前进行压缩。

如图 2‑6所示,当前Qemu支持的XBZRLE压缩算法会将之前发送的内存页面维护在其内存缓存区内。在迁移内存页面时,会先查找该页面是否在其XBZRLE缓存内,如果在缓存内,则进行异或编码,只传输被压缩后的增量数据;如果没有,则直接传输内存页面。通过这个过程可以大大减少发送内存页面数据量,并提高内存迁移速度。

内存迁移的xbzrle压缩迁移优化

图 2‑4内存迁移的xbzrle压缩迁移优化

目前,UCloud的在线迁移已经使用XBZRLE进行高内存负载的迁移优化。实际使用表明通过这种压缩方法可以提高高内存负载虚拟机的迁移成功率、并缩短迁移时间,同时CPU使用率提高也在合理范围内;对于普通内存负载虚拟机的迁移,几乎没有额外的CPU使用率消耗。后续还会结合底层硬件加速卡,并适时的开启多线程内存压缩迁移优化。

三、切换阶段

1. 源端paused优化

迁移的过程是由Qemu来具体执行,但是对于整个迁移过程的控制则是来自更上层的Libvirt。当Qemu在执行最后一步机器数据迁移切换时,两边的虚拟机都是处于paused状态。后续Libvirt将关闭源端SourceHost上的被迁移虚拟机,并拉起目标端DestHost上的对应虚拟机。

在线迁移的最大优点在于不能因为迁移失败而导致虚拟机关机,不管成功或者失败,都要保障虚拟机实例的存活(源端或目标端)。为了加强迁移过程的保障,避免源端和目标端关机的情况出现,我们将Libvirt中迁移过程源端开关机的控制逻辑移到UCloud自身的运维管理平台中,以便在出现迁移异常时,及时恢复源端SourceHost上的虚拟机。这个改造上线以来,多年未出现过由于迁移导致虚拟机宕机的情况。

2. OVS切换优化

此外,我们在迁移过程中观察到,在迁移即将完成时存在数秒网络中断的情况,这会导致用户业务出现短暂中断,使得后台的迁移过程对用户不透明。而且为减少对用户业务造成不利影响,往往需要事先和用户协调沟通迁移事项,限制了在线迁移的应用。

为此,我们通过大量的测试迁移实验发现最后一轮的虚拟机的迁移关机时间downtime基本在70ms左右,并不是长时间网络中断的主要原因,而且虚拟机内部压力和迁移速度的变化对迁移downtime并无明显影响。考虑到UCloud的虚拟机网络是采用openswitch来定义组建的,经过大量实验确认迁移过程中的网络中断时间和openswtich设置目标端虚拟机新flow规则的延时时间存在正相关关系。

因此,UCloud专门为在线迁移开发了网络下发虚拟机新flow的接口。在虚拟机迁移后到目标端DestHost后,及时为虚拟机下发的新flow规则。通过优化openswtich的网络配置机制,目前已经将迁移过程中的网络中断时间控制在几百毫秒左右,基本做到用户无感知,不会因为在线迁移造成用户业务的中断。

四、典型应用场景优化

1. 快速迁移场景

在通过上述在线迁移优化之后,UCloud平台上的在线迁移方案已经可以达到很好迁移成功率,为保证用户虚拟机的性能和可靠性提供了重要保障。但是,考虑到部分用户存在大容量的数据盘,如果进行正常在线迁移,整个迁移时间非常长,无法快速降低源物理机的负载,不利于资源动态调整和故障处理。特别是如果用户虚拟机正在运行高IO负载业务,会导致磁盘迁移过程迟迟无法结束,最终导致迁移失败。为此,UCloud平台针对这种场景专门进行了磁盘高负载虚拟机的快速迁移优化。

考虑到正常在线迁移在目标端DestHost上拉起虚拟机之后,需要先通过磁盘迁移来确保目标端DestHost上虚拟机访问的磁盘数据和源端SourceHost相同。为此需要跳过磁盘迁移进行快速的迁移方案。

如图 3‑1所示,首先就需要打通目标端DestHost和源端SourceHost之间的存储系统,即共享两个Host上虚拟机镜像的磁盘数据;同时,在此基础上进行共享存储的跨机迁移,从而实现先进行虚拟机内存和CPU等数据的迁移,以便在目标端DestHost快速拉起虚拟机,缓解源端SourceHost的内存和CPU压力。之后,再将虚拟机的大磁盘数据从源端SourceHost拉取到目标端DestHost。最后,删除源DestHost和目标SourceHost直接的共享存储。

具体快速在线迁移的具体实现步骤如下:

远程拉取磁盘数据示意图

图 3‑1远程拉取磁盘数据示意图

通过快速迁移优化,整个完整的迁移过程所需的时间,和传统的迁移方法所需的时间相当。但是迁移过程中,共享存储迁移的过程非常短暂,可以快速的在目标端DestHost上拉起虚拟机VM,迅速降低源端SourceHost的负载,改善用户VM之间的资源竞争,改善用户VM的性能,特别对于具有大数据盘的VM用户具有重要意义。

目前,UCloud平台的快速迁移方法已经全面上线,已经成功为众多用户完成快速跨机迁移,帮助用户解决VM的性能和可靠性问题。

2. 跨机型场景

前述各种迁移方法,通常用于相同类型的云主机之间进行迁移,特别是目标端云主机和源云主机上的虚拟机配置需要完全一致。在UCloud云平台,除了存在普通云主机机型外,还存在类似方舟机型、SSD机型等许多不同存储类型的虚拟机,这些不同类型的云主机上所使用的虚拟机的磁盘配置并不完全相同。

当用户存在这种机型切换要求时,以往的做法往往需要对用户虚拟机停机进行机型类型转换迁移,造成用户业务中断,不利于用户根据不同业务需要进行不同机型切换。但是当用户提出这种跨机型迁移需求时,往往伴随着其关键业务负载无法满足要求,或者关键业务需要在更加安全可靠的环境下运行,如果对关键业务进行停机切换往往是无法接受的,也极大的限制了云平台的弹性扩展特性。

为了满足用户的业务需求进行机型升级切换,同时不停止虚拟机保证用户业务在升级过程中继续运行,为此UCloud专门开发了跨机型的特殊在线迁移方案。针对这种跨机型的特殊迁移,其关键点在于解决磁盘设备的类型转换问题。在UCloud云平台上,用户虚拟机作为一个Qemu进程运行,该进程需要根据底层的磁盘镜像类型,选用不同底层块设备驱动进行数据读写。

为此,在进行这种特殊跨存储迁移时,需要通过Libvirt的特殊配置,先在目标端建立一个不同存储类型的虚拟机(其他配置完全一样),然后再进行后续数据迁移。

如下图 3‑2所示,通过这种特殊配置之后,源端Qemu将通过qcow2驱动从qcow2磁盘文件中读取客户磁盘数据,再通过网络发送到目标端,目标端Qemu在接收到数据之后,通过raw驱动将数据写入到lvm块设备中。

通过多次的反复迭代最终完成整个磁盘的迁移,并最终将源端普通云主机上的用户虚拟机迁移切换到目标端SSD机型的云主机上。整个迁移过程对用户是透明的,不会对用户业务造成不利影响,即便目标端虚拟机迁移失败也不会影响源端用户虚拟机的正常运行。

跨机型迁移的存储格式变换示意图

图 3‑2跨机型迁移的存储格式变换示意图

通过这种特殊的跨机型在线迁移,目前UCloud平台可以实现普通云主机到SSD云主机的相互迁移,也可以实现普通云主机到方舟高可靠机型的相互迁移,甚至通过这种迁移实现底层磁盘类型的转换,从而方便用户根据业务需要切换不同的云主机类型,而且不需要中断线上业务,实现云平台的弹性和扩展性的提高。

目前,这种跨机型的迁移技术在国内云服务提供商中算是首创,大大提高用户选择的弹性度,有利于用户按需根据业务的运营状况适时的选择不同的云服务。

3. 本地升级场景

通过UCloud云平台的在线迁移方法,可以实现用户在无感知的情况下,将用户虚拟机迁移到一个升级过的新虚拟化运行环境中,在避免中断用户业务的前提下,实现对虚拟化组件的性能优化、故障修复以及新功能上线等软件升级。然而在线迁移需要迁移用户的磁盘镜像数据,这部分花费时间占迁移时间的绝大部分。

特别是大磁盘用户,进行一次跨机在线迁移所需的时间往往需要花费数小时。而且线上运行着大量的虚拟机,如果都进行在线迁移需要花费的时间成本更是非常巨大,这使得在线迁移方法无法大规模用于用户虚拟化环境的升级。

当前UCloud云平台的虚拟化组件就由KVM、Qemu和Libvirt等构成,而且大多数的软件升级都是通过升级Qemu和Libvrit完成。由于Libvirt位于虚拟化组件的最上层,它的升级不会影响正在运行的虚拟机,而且直接可生效,无需停机和迁移就可完成。而Qemu升级以往常需要通过在线迁移才能保证无感知的升级。考虑到磁盘迁移占迁移时间的大部分,如果能够避免磁盘的迁移就可以大大节省软件升级的时间。

为此,UCloud云平台专门开发了本地热迁移方案,以完成对Qemu软件的性能优化、故障修复、漏洞修补以及新功能上线等升级功能。这种方法无需迁移虚拟机的磁盘,只进行内存迁移,从而达到快速的完成软件升级。

如图 3‑3所示,在进行本地热升级的时候,需要在本地安装新版的Qemu_new,而原有已经运行的虚拟机VM_old仍然为旧版Qemu_old,然后将创建一台相同配置的新虚拟机VM_new,此时新建的虚拟机VM_new的Qemu版本为Qemu_new,并且新虚拟机VM_new此时处于paused状态。

新虚拟机VM_new和旧虚拟机VM_old之间通过socket文件进行内存数据迁移,这个迁移过程和普通在线迁移过程一致,也是先进行一次全量的内存迁移,然后再进行多次迭代的增量内存迁移,并最终短暂停机完成最后一次的内存和虚拟机机器信息等迁移。

虚拟机本地迁移的内存迁移过程

图 3‑3虚拟机本地迁移的内存迁移过程

当前本地热迁移方法已经在UCloud平台上大规模应用,在实际使用过程中,不但具有普通在线迁移的优点,而且整个迁移过程更加快速,基本上可以秒级完成用户虚拟机的Qemu升级,对用户基本没有影响。

目前,我们已经使用本地热迁移方法解决了多个高危安全漏洞对线上Qemu的影响。另外,通过本地热迁移方法还实现对线上运行Qemu版本的精简统一,方便对Qemu版本的维护工作。

五、总结

综上所述,目前UCloud虚拟化云平台已经对热迁移技术进行了全方位的优化,包括热迁移技术各个阶段的优化(宿主机的选择、磁盘和内存的优化、和网络的切换设置等)、快速迁移优化、跨存储类型迁移优化、甚至本地热升级优化等。

此外,UCloud虚拟化云平台还提供了单独迁移虚拟机的磁盘内容的磁盘漂移技术、以及针对加密盘的迁移技术。这些迁移技术已经在UCloud云平台上广泛用于用户虚拟机的负载均衡、宿主机的故障处理、甚至各种虚拟化组件的在线升级等。

通过这些全方位的迁移优化,极大的保证了用户虚拟机的不间断稳定运行,有力地支撑了UCloud虚拟化云平台的高效、弹性、高可靠性的优点。

后续我们还将继续对跨机热迁移技术的高内存负载、GPU机型、以及其他使用新型网卡、加速卡的特殊VM的场景进行深入开发和优化。

【本文是51CTO专栏机构作者“大U的技术课堂”的原创文章,转载请通过微信公众号(ucloud2012)联系作者】

 戳这里,看该作者更多好文

责任编辑:赵宁宁 来源: 51CTO专栏
相关推荐

2017-05-25 11:08:20

虚拟化云计算在线迁移

2017-07-08 13:48:19

虚拟化云计算在线迁移

2010-08-30 10:11:25

XenKVM虚拟机迁移

2020-06-18 16:39:10

KVM虚拟化虚拟机

2010-08-30 10:17:00

虚拟机在线迁移

2014-02-21 11:20:34

KVMXen虚拟机

2014-12-11 10:31:22

网络优化KVM

2013-08-06 10:25:18

Hyper-V虚拟机迁移

2009-09-04 11:19:02

Xen虚拟机迁移

2011-11-10 13:44:13

VMwareKVM迁移

2009-07-24 19:57:29

Citrix虚拟化服务器虚拟化

2012-05-16 11:52:23

虚拟化

2011-03-14 16:45:24

大型机实施虚拟化

2019-06-27 15:38:52

KVM虚拟化开源

2023-09-19 10:00:34

Linux虚拟

2013-01-25 11:15:56

RHEV

2018-06-05 14:28:25

KVM嵌套虚拟化

2017-08-16 20:44:23

大数据虚拟化数据分析

2014-10-09 09:43:05

虚拟机迁移

2020-11-23 07:19:15

Linux虚拟化KVM
点赞
收藏

51CTO技术栈公众号