Longhorn,企业级云原生容器分布式存储之备份与恢复

存储 存储软件 云原生 分布式
Longhorn 提供了 allow-recurring-job-while-volume-detached 设置,即使卷已分离,您也可以进行周期性备份(recurring backup)。您可以在 Longhorn UI 中找到该设置。

[[419258]]

目录

  • 创建一个快照
  • 周期性(Recurring)快照和备份
    • 使用 Longhorn UI 设置周期性快照
    • 使用 StorageClass 设置 Recurring Jobs
    • 分离卷时允许 Recurring Job
  • 容灾卷
    • 创建容灾(DR)卷
  • 设置备份目标
    • 设置 AWS S3 备份存储
    • 设置本地测试备份存储
    • 使用自签名 SSL 证书进行 S3 通信
    • 为 S3 兼容的备份存储启用 virtual-hosted-style 访问
    • NFS 备份存储
  • 创建备份
  • 从备份恢复
  • 为 Kubernetes StatefulSets 恢复卷
  • 在集群上启用 CSI 快照支持
    • 添加一个默认的 VolumeSnapshotClass
    • 如果您在 Air Gap 环境中从以前的 Longhorn 版本进行更新
    • 如果您的 Kubernetes 发行版未捆绑 Snapshot Controller
  • 通过 CSI 创建备份
  • 通过 CSI Mechanism 创建备份
    • CSI Mechanism 工作原理
    • 查看备份
    • VolumeSnapshot 示例
  • 通过 CSI 恢复备份
  • 通过 VolumeSnapshot 对象恢复备份
    • 还原没有关联 VolumeSnapshot 的备份

创建一个快照

snapshot 是 Kubernetes Volume 在任何给定时间点的状态。

要创建现有集群的快照,

  • 在 Longhorn UI 的顶部导航栏中,单击 Volume。
  • 单击要为其创建快照的卷的名称。这会导致卷详细信息页面。
  • 单击 Take Snapshot 按钮。

创建快照后,您将在卷头(Volume Head)之前的卷的快照列表中看到它。

周期性快照和备份

从 Longhorn UI,可以安排周期性快照和备份。

要设置时间表(schedule),您将转到 Longhorn 中的卷详细信息视图。然后你将设置:

  • schedule 类型,备份(backup)或快照(snapshot)
  • 将创建备份或快照的时间,以 CRON expression 的形式
  • 要保留的备份或快照的数量
  • 应应用于备份或快照的任何标签(Any labels)

然后 Longhorn 会自动为当时的用户创建快照或备份,只要该卷附加到一个节点。

可以使用 Longhorn UI 或使用 Kubernetes StorageClass 配置周期性快照。

注意:为了避免当卷长时间没有新数据时,recurring jobs 可能会用相同的备份和空快照覆盖旧的备份/快照的问题,Longhorn 执行以下操作:

  1. Recurring backup job 仅在自上次备份以来卷有新数据时才进行新备份。
  2. Recurring snapshot job 仅在卷头(volume head)中有新数据(实时数据)时才拍摄新快照。

使用 Longhorn UI 设置周期性快照

可以从卷详细信息页面配置周期性快照和备份。要导航到此页面,请单击 Volume,,然后单击卷的名称。

使用 StorageClass 设置 Recurring Jobs

可以在 StorageClass 的 recurringJobs 参数中配置计划备份和快照。

使用这个 StorageClass 创建的任何未来卷都将自动设置这些 recurring jobs。

recurringJobs 字段应遵循以下 JSON 格式:

  1. kind: StorageClass 
  2.     apiVersion: storage.k8s.io/v1 
  3.     metadata: 
  4.       name: longhorn 
  5.     provisioner: driver.longhorn.io 
  6.     parameters: 
  7.       numberOfReplicas: "3" 
  8.       staleReplicaTimeout: "30" 
  9.       fromBackup: "" 
  10.       recurringJobs: '[ 
  11.         { 
  12.           "name":"snap"
  13.           "task":"snapshot"
  14.           "cron":"*/1 * * * *"
  15.           "retain":1 
  16.         }, 
  17.         { 
  18.           "name":"backup"
  19.           "task":"backup"
  20.           "cron":"*/2 * * * *"
  21.           "retain":1 
  22.         } 
  23.       ]' 

应为每个 recurring job 指定以下参数:

  1. name:一项 job 的名称。不要在一个 recurringJobs 中使用重复的名称。 并且 name 的长度不能超过 8 个字符。
  2. task:一项 job 的类型。它仅支持 snapshot(定期创建快照)或backup(定期创建快照然后进行备份)。
  3. cron:Cron 表达式。它告诉一项 job 的执行时间。
  4. retain:Longhorn 将为一项 job 保留多少快照/备份(snapshots/backups)。应该不少于 1。

分离卷时允许 Recurring Job

Longhorn 提供了 allow-recurring-job-while-volume-detached 设置,即使卷已分离,您也可以进行周期性备份(recurring backup)。您可以在 Longhorn UI 中找到该设置。

启用该设置后,Longhorn 将自动附加卷并在需要执行周期性快照/备份(recurring snapshot/backup)时进行快照/备份。

请注意,在卷自动附加(attached automatically)期间,卷尚未准备好处理工作负载。Workload 必须等到 recurring job 完成。

容灾卷

容灾 (DR) 卷是一种特殊卷,主要用于在整个主集群出现故障时将数据存储在备份集群中。灾难恢复卷用于提高 Longhorn 卷的弹性。

对于灾难恢复卷,Last Backup 表示其原始备份卷的最新备份。

如果代表灾难卷的图标为灰色,则表示该卷正在恢复 Last Backup,并且该卷无法激活。如果图标为蓝色,则表示该卷已恢复 Last Backup。

创建容灾(DR)卷

先决条件: 设置两个 Kubernetes 集群。它们将被称为集群 A 和集群 B。在两个集群上安装 Longhorn,并在两个集群上设置相同的备份目标。

  1. 在集群 A 中,确保原始卷 X 已创建备份或已安排 recurring backups。
  2. 在集群 B 的备份页面,选择备份卷 X,然后创建容灾卷 Y。强烈建议使用备份卷名作为容灾卷名。
  3. Longhorn 会自动将 DR 卷 Y 附加到随机节点。然后 Longhorn 将开始轮询卷 X 的最后一次备份,并将其增量恢复到卷 Y。

设置备份目标

备份目标是用于访问 Longhorn 中 backupstore 的端点。backupstore 是 NFS 服务器或 S3 兼容服务器,用于存储 Longhorn 卷的备份。备份目标可以在 Settings/General/BackupTarget 中设置。

如果您无权访问 AWS S3 或想先尝试备份存储,我们还提供了一种使用 MinIO 设置本地 S3 测试备份存储的方法。

Longhorn 还支持通过 Longhorn UI 或 Kubernetes Storage Class 为卷设置周期性快照/备份(recurring snapshot/backup)作业。

设置 AWS S3 备份存储

在 AWS S3 中创建一个新存储桶。

为 Longhorn 设置权限。有两种设置凭据的选项。首先,您可以使用 AWS IAM 用户的凭证设置 Kubernetes secret。第二个是您可以使用第三方应用程序通过 annotations 来管理 Pod 的临时 AWS IAM 权限,而不是使用 AWS 凭证进行操作。

  • 选项 1:使用 IAM 用户凭证创建 Kubernetes secret
  • 选项 2:通过 AWS STS AssumeRole(kube2iam 或 kiam)使用 IAM 临时凭证设置权限

kube2iam 或 kiam 是一个 Kubernetes 应用程序,它允许通过 annotations 而不是操作 AWS 凭证来管理 Pod 的 AWS IAM 权限。按照 kube2iam 或 kiam 的 GitHub 存储库中的说明将其安装到 Kubernetes 集群中。

按照指南为 AWS S3 服务创建新的 AWS IAM 角色,并设置以下权限:

  1.   "Version""2012-10-17"
  2.   "Statement": [ 
  3.     { 
  4.       "Sid""GrantLonghornBackupstoreAccess0"
  5.       "Effect""Allow"
  6.       "Action": [ 
  7.         "s3:PutObject"
  8.         "s3:GetObject"
  9.         "s3:ListBucket"
  10.         "s3:DeleteObject" 
  11.       ], 
  12.       "Resource": [ 
  13.         "arn:aws:s3:::<your-bucket-name>"
  14.         "arn:aws:s3:::<your-bucket-name>/*" 
  15.       ] 
  16.     } 
  17.   ] 

使用以下信任关系编辑 AWS IAM 角色:

  1.   "Version""2012-10-17"
  2.   "Statement": [ 
  3.     { 
  4.       "Effect""Allow"
  5.       "Principal": { 
  6.           "Service""ec2.amazonaws.com" 
  7.       }, 
  8.       "Action""sts:AssumeRole" 
  9.     }, 
  10.     { 
  11.       "Effect""Allow"
  12.       "Principal": { 
  13.         "AWS""arn:aws:iam::<AWS_ACCOUNT_ID>:role/<AWS_EC2_NODE_INSTANCE_ROLE>" 
  14.       }, 
  15.       "Action""sts:AssumeRole" 
  16.     } 
  17.   ] 

在 Longhorn 所在的命名空间(默认为 longhorn-system)中创建一个名称为 aws-secret 的 Kubernetes secret。secret 必须在 longhorn-system 命名空间中创建,以便 Longhorn 访问它:

  1. kubectl create secret generic <aws-secret> \ 
  2.     --from-literal=AWS_IAM_ROLE_ARN=<your-aws-iam-role-arn> \ 
  3.     -n longhorn-system 

按照指南创建新的 AWS IAM 用户,并设置以下权限。编辑 Resource 部分以使用您的 S3存储桶名称:

  1.   "Version""2012-10-17"
  2.   "Statement": [ 
  3.     { 
  4.       "Sid""GrantLonghornBackupstoreAccess0"
  5.       "Effect""Allow"
  6.       "Action": [ 
  7.         "s3:PutObject"
  8.         "s3:GetObject"
  9.         "s3:ListBucket"
  10.         "s3:DeleteObject" 
  11.       ], 
  12.       "Resource": [ 
  13.         "arn:aws:s3:::<your-bucket-name>"
  14.         "arn:aws:s3:::<your-bucket-name>/*" 
  15.       ] 
  16.     } 
  17.   ] 

在放置 Longhorn 的命名空间(默认为 longhorn-system)中创建一个名称为 aws-secret 的 Kubernetes secret。secret 必须在 longhorn-system 命名空间中创建,以便 Longhorn 访问它:

  1. kubectl create secret generic <aws-secret> \ 
  2.     --from-literal=AWS_ACCESS_KEY_ID=<your-aws-access-key-id> \ 
  3.     --from-literal=AWS_SECRET_ACCESS_KEY=<your-aws-secret-access-key> \ 
  4.     -n longhorn-system 

转到 Longhorn UI。在顶部导航栏中,单击 Settings。 在 Backup 部分中,将 Backup Target 设置为:

  1. s3://<your-bucket-name>@<your-aws-region>/ 

确保末尾有 /,否则会报错。可以使用子目录(前缀):

  1. s3://<your-bucket-name>@<your-aws-region>/mypath/ 

还要确保您在 URL 中设置了

例如,对于 AWS,您可以在:https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.RegionsAndAvailabilityZones.html 找到区域代码(region codes)。

对于 Google Cloud Storage,您可以在:https://cloud.google.com/storage/docs/locations 找到区域代码。

在备份部分将 备份目标凭据 Secret(Backup Target Credential Secret) 设置为:

  1. aws-secret 

这是具有 AWS 凭证或 AWS IAM 角色的 secret 名称。

Result: Longhorn 可以在 S3 中存储备份。要创建备份,请参阅本节。

Note: 如果您在代理后面操作 Longhorn 并且您想使用 AWS S3 作为备份存储,您必须在 aws-secret 中提供有关您的代理的 Longhorn 信息,如下所示:

  1. kubectl create secret generic <aws-secret> \ 
  2.     --from-literal=AWS_ACCESS_KEY_ID=<your-aws-access-key-id> \ 
  3.     --from-literal=AWS_SECRET_ACCESS_KEY=<your-aws-secret-access-key> \ 
  4.     --from-literal=HTTP_PROXY=<your-proxy-ip-and-port> \ 
  5.     --from-literal=HTTPS_PROXY=<your-proxy-ip-and-port> \ 
  6.     --from-literal=NO_PROXY=<excluded-ip-list> \ 
  7.     -n longhorn-system 

确保 NO_PROXY 包含不应使用代理(proxy)的网络地址(network addresses)、网络地址范围和域(network address ranges and domains)。为了让 Longhorn 运行,NO_PROXY 的最低要求值为:

  • localhost
  • 127.0.0.1
  • 0.0.0.0
  • 10.0.0.0/8 (K8s components' IPs)
  • 192.168.0.0/16 (internal IPs in the cluster)

设置本地测试备份存储

我们在 ./deploy/backupstores 中提供了两个基于 NFS server 和 MinIO S3 server 的测试目的备份存储(backupstore)。

创建 longhorn-system 后,使用以下命令为备份存储设置 MinIO S3 服务器。

  1. kubectl create -f https://raw.githubusercontent.com/longhorn/longhorn/master/deploy/backupstores/minio-backupstore.yaml 

转到 Longhorn UI。在顶部导航栏中,单击 Settings。在 Backup 部分,将 Backup Target 设置为

  1. s3://backupbucket@us-east-1/ 

并将 Backup Target Credential Secret(备份目标凭据 Secret) 设置为:

  1. minio-secret 

minio-secret yaml 如下所示:

  1. apiVersion: v1 
  2. kind: Secret 
  3. metadata: 
  4.   name: minio-secret 
  5.   namespace: longhorn-system 
  6. type: Opaque 
  7. data: 
  8.   AWS_ACCESS_KEY_ID: bG9uZ2hvcm4tdGVzdC1hY2Nlc3Mta2V5 # longhorn-test-access-key 
  9.   AWS_SECRET_ACCESS_KEY: bG9uZ2hvcm4tdGVzdC1zZWNyZXQta2V5 # longhorn-test-secret-key 
  10.   AWS_ENDPOINTS: aHR0cHM6Ly9taW5pby1zZXJ2aWNlLmRlZmF1bHQ6OTAwMA== # https://minio-service.default:9000 
  11.   AWS_CERT: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSURMRENDQWhTZ0F3SUJBZ0lSQU1kbzQycGhUZXlrMTcvYkxyWjVZRHN3RFFZSktvWklodmNOQVFFTEJRQXcKR2pFWU1CWUdBMVVFQ2hNUFRHOXVaMmh2Y200Z0xTQlVaWE4wTUNBWERUSXdNRFF5TnpJek1EQXhNVm9ZRHpJeApNakF3TkRBek1qTXdNREV4V2pBYU1SZ3dGZ1lEVlFRS0V3OU1iMjVuYUc5eWJpQXRJRlJsYzNRd2dnRWlNQTBHCkNTcUdTSWIzRFFFQkFRVUFBNElCRHdBd2dnRUtBb0lCQVFEWHpVdXJnUFpEZ3pUM0RZdWFlYmdld3Fvd2RlQUQKODRWWWF6ZlN1USs3K21Oa2lpUVBvelVVMmZvUWFGL1BxekJiUW1lZ29hT3l5NVhqM1VFeG1GcmV0eDBaRjVOVgpKTi85ZWFJNWRXRk9teHhpMElPUGI2T0RpbE1qcXVEbUVPSXljdjRTaCsvSWo5Zk1nS0tXUDdJZGxDNUJPeThkCncwOVdkckxxaE9WY3BKamNxYjN6K3hISHd5Q05YeGhoRm9tb2xQVnpJbnlUUEJTZkRuSDBuS0lHUXl2bGhCMGsKVHBHSzYxc2prZnFTK3hpNTlJeHVrbHZIRXNQcjFXblRzYU9oaVh6N3lQSlorcTNBMWZoVzBVa1JaRFlnWnNFbQovZ05KM3JwOFhZdURna2kzZ0UrOElXQWRBWHExeWhqRDdSSkI4VFNJYTV0SGpKUUtqZ0NlSG5HekFnTUJBQUdqCmF6QnBNQTRHQTFVZER3RUIvd1FFQXdJQ3BEQVRCZ05WSFNVRUREQUtCZ2dyQmdFRkJRY0RBVEFQQmdOVkhSTUIKQWY4RUJUQURBUUgvTURFR0ExVWRFUVFxTUNpQ0NXeHZZMkZzYUc5emRJSVZiV2x1YVc4dGMyVnlkbWxqWlM1awpaV1poZFd4MGh3Ui9BQUFCTUEwR0NTcUdTSWIzRFFFQkN3VUFBNElCQVFDbUZMMzlNSHVZMzFhMTFEajRwMjVjCnFQRUM0RHZJUWozTk9kU0dWMmQrZjZzZ3pGejFXTDhWcnF2QjFCMVM2cjRKYjJQRXVJQkQ4NFlwVXJIT1JNU2MKd3ViTEppSEtEa0Jmb2U5QWI1cC9VakpyS0tuajM0RGx2c1cvR3AwWTZYc1BWaVdpVWorb1JLbUdWSTI0Q0JIdgpnK0JtVzNDeU5RR1RLajk0eE02czNBV2xHRW95YXFXUGU1eHllVWUzZjFBWkY5N3RDaklKUmVWbENtaENGK0JtCmFUY1RSUWN3cVdvQ3AwYmJZcHlERFlwUmxxOEdQbElFOW8yWjZBc05mTHJVcGFtZ3FYMmtYa2gxa3lzSlEralAKelFadHJSMG1tdHVyM0RuRW0yYmk0TktIQVFIcFc5TXUxNkdRakUxTmJYcVF0VEI4OGpLNzZjdEg5MzRDYWw2VgotLS0tLUVORCBDRVJUSUZJQ0FURS0tLS0tCg== 

有关创建 secret 的更多信息,请参阅 Kubernetes 文档。 secret 必须在 longhorn-system 命名空间中创建,以便 Longhorn 访问它。

Note: 生成 base64 编码时一定要使用 echo -n,否则会在字符串末尾添加新行,访问 S3 时会出错。

单击 UI 中的 Backup 选项卡。它应该报告一个没有任何错误的空列表。

Result: Longhorn 可以在 S3 中存储备份。

使用自签名 SSL 证书进行 S3 通信

如果要使用自签名 SSL 证书,可以在提供给 Longhorn 的 Kubernetes secret 中指定 AWS_CERT。 请参阅设置本地测试备份存储中的示例。 需要注意的是,证书需要采用 PEM 格式,并且必须是其自己的 CA。 或者必须包含一个包含 CA 证书的证书链。 要包含多个证书,只需连接不同的证书(PEM 文件)即可。

为 S3 兼容的备份存储启用 virtual-hosted-style 访问

在以下情况下,您可能需要为 S3 兼容的备份存储启用这种新的寻址方法

  1. 您想立即切换到这种新的访问方式,这样您就无需担心 Amazon S3 路径弃用计划;
  2. 您使用的 backupstore 只支持 virtual-hosted-style 的访问,例如:Alibaba Cloud(Aliyun) OSS;
  3. 您已配置 MINIO_DOMAIN 环境变量以启用 MinIO 服务器的 virtual-host-style 请求;
  4. 这个错误 ...... error: AWS Error: SecondLevelDomainForbidden Please use virtual hosted style to access. ..... 被触发。

启用 virtual-hosted-style 访问的方法

将值为 true 的新字段 VIRTUAL_HOSTED_STYLE 添加到您的备份目标 secret。例如:

  1. apiVersion: v1 
  2. kind: Secret 
  3. metadata: 
  4.   name: s3-compatible-backup-target-secret 
  5.   namespace: longhorn-system 
  6. type: Opaque 
  7. data: 
  8.   AWS_ACCESS_KEY_ID: bG9uZ2hvcm4tdGVzdC1hY2Nlc3Mta2V5 
  9.   AWS_SECRET_ACCESS_KEY: bG9uZ2hvcm4tdGVzdC1zZWNyZXQta2V5 
  10.   AWS_ENDPOINTS: aHR0cHM6Ly9taW5pby1zZXJ2aWNlLmRlZmF1bHQ6OTAwMA== 
  11.   VIRTUAL_HOSTED_STYLE: dHJ1ZQ== # true 

部署/更新(Deploy/update) secret,并在 Settings/General/BackupTargetSecret 中设置它。

NFS 备份存储

要将 NFS 服务器用作备份存储,NFS 服务器必须支持 NFSv4。

目标 URL 应如下所示:

  1. nfs://longhorn-test-nfs-svc.default:/opt/backupstore 

Result: Longhorn 可以在 NFS 中存储备份。

创建备份

Longhorn 中的 Backups 是集群外备份存储中的对象。快照的备份被复制到备份存储,访问备份存储的端点是备份目标。

先决条件: 必须设置备份目标。有关更多信息,请参阅设置备份目标。如果尚未设置 BackupTarget,则会出现错误。

要创建备份,

  1. 导航到 Volume 菜单。
  2. 选择要备份的卷。
  3. 单击 Create Backup。
  4. 添加适当的标签并单击 OK。

Result: 备份已创建。要查看它,请单击顶部导航栏中的 Backup。

从备份恢复

Longhorn 可以轻松地将备份恢复到一个卷。

还原备份时,默认情况下会创建一个同名的卷。如果已存在与备份同名的卷,则不会恢复备份。

要恢复备份,

  1. 导航到 Backup 菜单
  2. 选择您要恢复的备份,然后单击 Restore Latest Backup
  3. 在 Name 字段中,选择要恢复的卷
  4. 单击 OK

Result: 恢复的卷在 Volume 页面上可用。

为 Kubernetes StatefulSets 恢复卷

Longhorn 支持恢复备份,该特性的一个用例是恢复 Kubernetes StatefulSet 中使用的数据,这需要为备份的每个副本恢复一个卷。

要恢复,请按照以下说明操作。下面的示例使用一个 StatefulSet,其中一个卷附加到每个 Pod 和两个副本。

连接到 Web 浏览器中的 Longhorn UI 页面。在 Backup 选项卡下,选择 StatefulSet 卷的名称。单击卷条目的下拉菜单并恢复它。将卷命名为稍后可以轻松引用的 Persistent Volumes。

Backup Name Restored Volume
pvc-01a statefulset-vol-0
pvc-02b statefulset-vol-1

对需要恢复的每个卷重复此步骤。

例如,如果使用具有名为 pvc-01a 和 pvc-02b 的卷的两个副本恢复 StatefulSet,则恢复可能如下所示:

在 Kubernetes 中,为每个创建的 Longhorn 卷创建一个 Persistent Volume。将卷命名为稍后可以轻松引用的 Persistent Volume Claims。storage 容量、numberOfReplicas、storageClassName 和 volumeHandle 必须在下面替换。在这个例子中,我们在 Longhorn 中引用了 statefulset-vol-0 和 statefulset-vol-1,并使用 longhorn 作为我们的 storageClassName。

  1. apiVersion: v1 
  2. kind: PersistentVolume 
  3. metadata: 
  4.   name: statefulset-vol-0 
  5. spec: 
  6.   capacity: 
  7.     storage: <size> # must match size of Longhorn volume 
  8.   volumeMode: Filesystem 
  9.   accessModes: 
  10.     - ReadWriteOnce 
  11.   persistentVolumeReclaimPolicy: Delete 
  12.   csi: 
  13.     driver: driver.longhorn.io # driver must match this 
  14.     fsType: ext4 
  15.     volumeAttributes: 
  16.       numberOfReplicas: <replicas> # must match Longhorn volume value 
  17.       staleReplicaTimeout: '30' # in minutes 
  18.     volumeHandle: statefulset-vol-0 # must match volume name from Longhorn 
  19.   storageClassName: longhorn # must be same name that we will use later 
  20. --- 
  21. apiVersion: v1 
  22. kind: PersistentVolume 
  23. metadata: 
  24.   name: statefulset-vol-1 
  25. spec: 
  26.   capacity: 
  27.     storage: <size>  # must match size of Longhorn volume 
  28.   volumeMode: Filesystem 
  29.   accessModes: 
  30.     - ReadWriteOnce 
  31.   persistentVolumeReclaimPolicy: Delete 
  32.   csi: 
  33.     driver: driver.longhorn.io # driver must match this 
  34.     fsType: ext4 
  35.     volumeAttributes: 
  36.       numberOfReplicas: <replicas> # must match Longhorn volume value 
  37.       staleReplicaTimeout: '30' 
  38.     volumeHandle: statefulset-vol-1 # must match volume name from Longhorn 
  39.   storageClassName: longhorn # must be same name that we will use later 

在 namespace 中,将部署 StatefulSet,为每个 Persistent Volume 创建 PersistentVolume Claims。Persistent Volume Claim 的名称必须遵循以下命名方案:

  1. <name of Volume Claim Template>-<name of StatefulSet>-<index

StatefulSet Pod 是零索引(zero-indexed)的。 在这个例子中,Volume Claim Template 的名字是 data,StatefulSet 的名字是 webapp, 并且有两个副本,分别是索引 0 和 1。

  1. apiVersion: v1 
  2. kind: PersistentVolumeClaim 
  3. metadata: 
  4.   name: data-webapp-0 
  5. spec: 
  6.   accessModes: 
  7.   - ReadWriteOnce 
  8.   resources: 
  9.     requests: 
  10.       storage: 2Gi # must match size from earlier 
  11. storageClassName: longhorn # must match name from earlier 
  12. volumeName: statefulset-vol-0 # must reference Persistent Volume 
  13. --- 
  14. apiVersion: v1 
  15. kind: PersistentVolumeClaim 
  16. metadata: 
  17.   name: data-webapp-1 
  18. spec: 
  19.   accessModes: 
  20.   - ReadWriteOnce 
  21.   resources: 
  22.     requests: 
  23.       storage: 2Gi # must match size from earlier 
  24. storageClassName: longhorn # must match name from earlier 
  25. volumeName: statefulset-vol-1 # must reference Persistent Volume 

创建 StatefulSet:

  1. apiVersion: apps/v1beta2 
  2. kind: StatefulSet 
  3. metadata: 
  4.   name: webapp # match this with the PersistentVolumeClaim naming scheme 
  5. spec: 
  6.   selector: 
  7.     matchLabels: 
  8.       app: nginx # has to match .spec.template.metadata.labels 
  9.   serviceName: "nginx" 
  10.   replicas: 2 # by default is 1 
  11.   template: 
  12.     metadata: 
  13.       labels: 
  14.         app: nginx # has to match .spec.selector.matchLabels 
  15.     spec: 
  16.       terminationGracePeriodSeconds: 10 
  17.       containers: 
  18.       - name: nginx 
  19.         image: k8s.gcr.io/nginx-slim:0.8 
  20.         ports: 
  21.         - containerPort: 80 
  22.           name: web 
  23.         volumeMounts: 
  24.         - name: data 
  25.           mountPath: /usr/share/nginx/html 
  26.   volumeClaimTemplates: 
  27.   - metadata: 
  28.       name: data # match this with the PersistentVolumeClaim naming scheme 
  29.     spec: 
  30.       accessModes: [ "ReadWriteOnce" ] 
  31.       storageClassName: longhorn # must match name from earlier 
  32.       resources: 
  33.         requests: 
  34.           storage: 2Gi # must match size from earlier 

Result: 现在应该可以从 StatefulSet Pods 内部访问恢复的数据。

在集群上启用 CSI 快照支持

先决条件

CSI 快照支持可用于 Kubernetes 版本 >= 1.17。

Kubernetes 发行版负责部署快照控制器(snapshot controller)以及相关的自定义资源定义。

有关更多信息,请参阅 CSI 卷快照。

添加一个默认的 VolumeSnapshotClass

确保 Snapshot Beta CRD 的可用性。然后创建一个默认的 VolumeSnapshotClass。

  1. kind: VolumeSnapshotClass 
  2. apiVersion: snapshot.storage.k8s.io/v1beta1 
  3. metadata: 
  4.   name: longhorn 
  5. driver: driver.longhorn.io 
  6. deletionPolicy: Delete 

如果您在 Air Gap 环境中从以前的 Longhorn 版本进行更新

  • 更新 csi-provisioner 镜像到 longhornio/csi-provisioner:v1.6.0
  • 更新 csi-snapshotter 镜像到 longhornio/csi-snapshotter:v2.1.1

如果您的 Kubernetes 发行版未捆绑 Snapshot Controller

您可以通过执行以下步骤手动安装这些组件。

请注意,下面提到的 snapshot controller YAML 文件部署到 default 命名空间中。

先决条件

对于一般用途,请在安装之前使用适当的 namespace 更新 snapshot controller YAML。

例如,在 vanilla Kubernetes 集群上,在发出 kubectl create 命令之前,将命名空间从 default 更新为 kube-system。

安装 Snapshot Beta CRDs:

从 https://github.com/kubernetes-csi/external-snapshotter/tree/release-4.0/client/config/crd 下载文件

运行 kubectl create -f client/config/crd.

每个集群执行一次。

安装 Common Snapshot Controller:

从 https://github.com/kubernetes-csi/external-snapshotter/tree/release-4.0/deploy/kubernetes/snapshot-controller 下载文件

将 namespace 更新为适合您环境的值(例如:kube-system)

运行 kubectl create -f deploy/kubernetes/snapshot-controller

每个集群执行一次。

有关其他信息,请参阅 kubernetes external-snapshotter git repo 中的 Usage 部分。

通过 CSI 创建备份

Longhorn 中的 Backups 是集群外备份存储(backupstore)中的对象,访问备份存储的端点是备份目标。

要以编程方式创建 backups,您可以使用通用的 Kubernetes CSI 快照机制。

先决条件: 需要在您的集群上启用 CSI snapshot 支持。 如果您的 kubernetes 发行版没有提供 kubernetes snapshot controller 以及快照相关的自定义资源定义,您需要手动部署它们 更多信息,参阅 Enable CSI Snapshot Support

通过 CSI Mechanism 创建备份

要使用 CSI 机制创建备份,请通过 kubectl 创建一个 Kubernetes VolumeSnapshot 对象。

Result: 已创建备份。VolumeSnapshot 对象的创建导致了 VolumeSnapshotContent Kubernetes 对象的创建。

VolumeSnapshotContent 是指其 VolumeSnapshotContent.snapshotHandle 字段中名为 bs://backup-volume/backup-name 的 Longhorn backup。

CSI Mechanism 工作原理

当使用 kubectl 创建 VolumeSnapshot 对象时,VolumeSnapshot.uuid 字段用于标识 Longhorn snapshot 和关联的 VolumeSnapshotContent 对象。

这将创建一个名为 snapshot-uuid 的新 Longhorn snapshot。

然后启动该 snapshot 的 backup,并返回 CSI request。

然后创建一个名为 snapcontent-uuid 的 VolumeSnapshotContent 对象。

CSI snapshotter sidecar 定期查询 Longhorn CSI 插件以评估备份状态(backup status)。

备份完成后,VolumeSnapshotContent.readyToUse 标志设置为 true。

查看备份

要查看备份,请单击顶部导航栏中的 Backup 并导航到 VolumeSnapshotContent.snapshotHandle 中提到的备份卷(backup-volume)。

VolumeSnapshot 示例

下面是一个示例 VolumeSnapshot 对象。source 需要指向应为其创建备份的 Longhorn volume 的 PVC。

volumeSnapshotClassName 字段指向一个 VolumeSnapshotClass。

我们创建了一个名为 longhorn 的默认类,它使用 Delete 作为它的 deletionPolicy。

  1. apiVersion: snapshot.storage.k8s.io/v1beta1 
  2. kind: VolumeSnapshot 
  3. metadata: 
  4.   name: test-snapshot-pvc 
  5. spec: 
  6.   volumeSnapshotClassName: longhorn 
  7.   source: 
  8.     persistentVolumeClaimName: test-vol 

如果您希望在删除 VolumeSnapshot 时保留卷的关联备份,请创建一个新的 VolumeSnapshotClass,并将 Retain 设置为 deletionPolicy。

有关快照类的更多信息,请参阅 VolumeSnapshotClasses 的 kubernetes 文档。

通过 CSI 恢复备份

Longhorn 可以轻松地将备份恢复到一个卷。

要以编程方式恢复备份,您可以使用通用的 kubernetes csi 快照机制。

先决条件

需要在您的集群上启用 CSI 快照支持。

如果您的 Kubernetes 发行版未提供 Kubernetes snapshot controller 以及与快照相关的自定义资源定义,则您需要手动部署它们。

通过 VolumeSnapshot 对象恢复备份

创建一个 PersistentVolumeClaim 对象,其中 dataSource 字段指向现有的 VolumeSnapshot 对象。

csi-provisioner 将获取它并指示 Longhorn CSI driver 使用关联备份(associated backup)中的数据来配置新卷。

您可以使用相同的机制来恢复尚未通过 CSI 机制创建的 Longhorn 备份。

下面是一个 PersistentVolumeClaim 示例。 dataSource 字段需要指向现有的 VolumeSnapshot 对象。

  1. apiVersion: v1 
  2. kind: PersistentVolumeClaim 
  3. metadata: 
  4.   name: test-restore-snapshot-pvc 
  5. spec: 
  6.   storageClassName: longhorn 
  7.   dataSource: 
  8.     name: test-snapshot-pvc 
  9.     kind: VolumeSnapshot 
  10.     apiGroup: snapshot.storage.k8s.io 
  11.   accessModes: 
  12.     - ReadWriteOnce 
  13.   resources: 
  14.     requests: 
  15.       storage: 2Gi 

还原没有关联 VolumeSnapshot 的备份

要恢复未通过 CSI 机制创建的 Longhorn 备份,您必须首先手动为备份创建 VolumeSnapshot 和 VolumeSnapshotContent 对象。

创建一个 VolumeSnapshotContent 对象,并将 snapshotHandle 字段设置为 bs://backup-volume/backup-name。

backup-volume 和 backup-name 值可以从 Longhorn UI 的 Backup 页面检索。

  1. apiVersion: snapshot.storage.k8s.io/v1beta1 
  2. kind: VolumeSnapshotContent 
  3. metadata: 
  4.   name: test-existing-backup 
  5. spec: 
  6.   volumeSnapshotClassName: longhorn 
  7.   driver: driver.longhorn.io 
  8.   deletionPolicy: Delete 
  9.   source: 
  10.     # NOTE: change this to point to an existing backup on the backupstore 
  11.     snapshotHandle: bs://test-vol/backup-625159fb469e492e 
  12.   volumeSnapshotRef: 
  13.     name: test-snapshot-existing-backup 
  14.     namespace: default 

创建关联的 VolumeSnapshot 对象,并将 name 字段设置为 test-snapshot-existing-backup,其中 source 字段通过 volumeSnapshotContentName 字段引用 VolumeSnapshotContent 对象。

这与创建 backup 不同,在这种情况下,source 字段通过 persistentVolumeClaimName 字段引用 PerstistentVolumeClaim。

只能为 VolumeSnapshot 对象设置一种类型的引用。

  1. apiVersion: snapshot.storage.k8s.io/v1beta1 
  2. kind: VolumeSnapshot 
  3. metadata: 
  4.   name: test-snapshot-existing-backup 
  5. spec: 
  6.   volumeSnapshotClassName: longhorn 
  7.   source: 
  8.     volumeSnapshotContentName: test-existing-backup 

 

现在您可以创建一个引用新创建的 VolumeSnapshot 对象的 PerstistentVolumeClaim 对象。

 

责任编辑:武晓燕 来源: 黑客下午茶
相关推荐

2021-08-24 05:02:34

云原生容器分布式

2021-08-26 00:23:14

分布式存储高可用

2021-08-26 23:54:46

分布式存储负载

2021-08-28 05:04:19

存储云原生分布式

2021-09-03 05:00:28

分布式存储云原生

2021-08-29 23:53:32

存储Air Gap安装

2021-10-18 23:49:50

云原生分布式存储

2021-08-18 14:33:53

存储云原生容器

2021-08-17 00:24:38

块存储云原生分布式

2022-02-21 10:17:33

Rancher开源云原生

2021-08-17 12:36:21

Longhorn云原生存储

2023-09-14 15:38:55

云原生分布式架构

2014-03-03 09:23:43

Zabbix分布式系统监控

2020-12-16 20:07:18

容器技术

2009-10-26 14:10:46

分布式设计

2019-01-24 14:49:15

深信服

2009-08-25 13:25:00

Java企业级应用架构分布式结构

2022-02-23 21:10:53

LonghornKubernetes快照

2014-03-10 17:21:00

IT技术周刊
点赞
收藏

51CTO技术栈公众号