简述 Kubernetes 集群日志基础

云计算
在本文中,我将讨论 Kubernetes 中不同容器日志记录模式的工作原理。

服务器和应用程序日志记录是开发人员、运维人员和安全团队了解应用程序在其生产环境中运行状态的重要工具。

日志记录使运维人员能够确定应用程序和所需组件是否运行平稳,并检测是否发生了异常情况,以便他们能够对这种情况做出反应。

对于开发人员,日志记录提供了在开发期间和之后对代码进行故障排除的可见性。在生产环境中,开发人员通常依赖于没有调试工具的日志记录工具。在加上系统的日志记录,开发人员可以与运维人员携手合作,有效地解决问题。

日志记录工具最重要的受益者是安全团队,尤其是在云原生的环境中。能够从应用程序和系统日志中收集信息使得安全团队能够分析来自身份验证、应用程序访问恶意软件活动的数据,并在需要时进行响应。

Kubernetes 是领先的容器平台,越来越多的应用程序通过 Kubernetes 部署到生产环境。我相信了解 Kubernetes 的日志架构是一项非常重要的工作,每个开发、运维和安全团队都需要认真对待。

在本文中,我将讨论 Kubernetes 中不同容器日志记录模式的工作原理。

系统日志记录和应用日志记录

在深入研究 Kubernetes 日志记录架构之前,我想探索不同的日志记录方法以及这两种功能如何成为 Kubernetes 日志记录的关键特性。

有两种类型的系统组件:在容器中运行的组件和不在容器中运行的组件。例如:

  • Kubernetes 调度者和 kube-proxy 运行在容器中。
  • kubelet 和容器运行时不在容器中运行。

与容器日志类似,系统容器日志存储在 /var/log 目录中,你应该定期轮换它们。

在这里,我研究的是容器日志记录。首先,我看一下集群级别的日志记录以及为什么它对集群运维人员很重要。集群日志提供有关集群如何执行的信息。诸如为什么 吊舱Pod 被下线或节点死亡之类的信息。集群日志记录还可以捕获诸如集群和应用程序访问以及应用程序如何利用计算资源等信息。总体而言,集群日志记录工具为集群运维人员提供操作集群和安全有用的信息。

捕获容器日志的另一种方法是通过应用程序的本机日志记录工具。现代应用程序设计很可能具有日志记录机制,可帮助开发人员通过标准输出 (stdout) 和错误流 (stderr) 解决应用程序性能问题。

为了拥有有效的日志记录工具,Kubernetes 实现需要应用程序和系统日志记录组件。

Kubernetes 容器日志的 3 种类型

如今,在大多数的 Kubernetes 实现中,你可以看到三种主要的集群级日志记录方法。

  • 节点级日志代理
  • 用于日志记录的挎斗Sidecar容器应用程序
  • 将应用程序日志直接暴露给日志后端

节点级日志代理

我想考虑节点级日志代理。你通常使用 DaemonSet 作为部署策略来实现这些,以便在所有 Kubernetes 节点中部署一个吊舱(充当日志代理)。然后,该日志代理被配置为从所有 Kubernetes 节点读取日志。你通常将代理配置为读取节点 /var/logs 目录捕获 stdout/stderr 流并将其发送到日志记录后端存储。

下图显示了在所有节点中作为代理运行的节点级日志记录。

Node-level logging agent

以使用 fluentd 方法为例设置节点级日志记录,你需要执行以下操作:

(1) 首先,你需要创建一个名为 fluentdd 的服务账户。Fluentd 吊舱使用此服务账户来访问 Kubernetes API,你需要在日志命名空间中使用标签 app: fluentd 创建它们:

  1. #fluentd-SA.yaml 
  2. apiVersion: v1 
  3. kind: ServiceAccount 
  4. metadata: 
  5.   name: fluentd 
  6.   namespace: logging 
  7.   labels: 
  8.     app: fluentd   

你可以在此 仓库 中查看完整示例。

(2) 接着,你需要创建一个名称为 fluentd-configmap 的 ConfigMap。这为 fluentd daemonset 提供了一个配置文件,其中包含所有必需的属性。

  1. #fluentd-daemonset.yaml 
  2. apiVersion: extensions/v1beta1 
  3. kind: DaemonSet 
  4. metadata: 
  5.   name: fluentd 
  6.   namespace: logging 
  7.   labels: 
  8.     app: fluentd 
  9.     kubernetes.io/cluster-service: "true" 
  10. spec: 
  11.   selector: 
  12.     matchLabels: 
  13.       app: fluentd 
  14.       kubernetes.io/cluster-service: "true" 
  15.   template: 
  16.     metadata: 
  17.       labels: 
  18.         app: fluentd 
  19.         kubernetes.io/cluster-service: "true" 
  20.     spec: 
  21.       serviceAccount: fluentd 
  22.       containers: 
  23.       - name: fluentd 
  24.         image: fluent/fluentd-kubernetes-daemonset:v1.7.3-debian-elasticsearch7-1.0 
  25.         env: 
  26.           - name: FLUENT_ELASTICSEARCH_HOST 
  27.             value: "elasticsearch.logging.svc.cluster.local" 
  28.           - name: FLUENT_ELASTICSEARCH_PORT 
  29.             value: "9200" 
  30.           - name: FLUENT_ELASTICSEARCH_SCHEME 
  31.             value: "http" 
  32.           - name: FLUENT_ELASTICSEARCH_USER 
  33.             value: "elastic" 
  34.           - name: FLUENT_ELASTICSEARCH_PASSWORD 
  35.             valueFrom: 
  36.               secretKeyRef: 
  37.                 name: efk-pw-elastic 
  38.                 key: password 
  39.           - name: FLUENT_ELASTICSEARCH_SED_DISABLE 
  40.             value: "true" 
  41.         resources: 
  42.           limits: 
  43.             memory: 512Mi 
  44.           requests: 
  45.             cpu: 100m 
  46.             memory: 200Mi 
  47.         volumeMounts: 
  48.         - name: varlog 
  49.           mountPath: /var/log 
  50.         - name: varlibdockercontainers 
  51.           mountPath: /var/lib/docker/containers 
  52.           readOnly: true 
  53.         - name: fluentconfig 
  54.           mountPath: /fluentd/etc/fluent.conf 
  55.           subPath: fluent.conf 
  56.       terminationGracePeriodSeconds: 30 
  57.       volumes: 
  58.       - name: varlog 
  59.         hostPath: 
  60.           path: /var/log 
  61.       - name: varlibdockercontainers 
  62.         hostPath: 
  63.           path: /var/lib/docker/containers 
  64.       - name: fluentconfig 
  65.         configMap: 
  66.           name: fluentdconf 

你可以在此 仓库 中查看完整示例。

现在,我们来看看如何将 fluentd daemonset 部署为日志代理的代码。

  1. #fluentd-daemonset.yaml 
  2. apiVersion: extensions/v1beta1 
  3. kind: DaemonSet 
  4. metadata: 
  5.   name: fluentd 
  6.   namespace: logging 
  7.   labels: 
  8.     app: fluentd 
  9.     kubernetes.io/cluster-service: "true" 
  10. spec: 
  11.   selector: 
  12.     matchLabels: 
  13.       app: fluentd 
  14.       kubernetes.io/cluster-service: "true" 
  15.   template: 
  16.     metadata: 
  17.       labels: 
  18.         app: fluentd 
  19.         kubernetes.io/cluster-service: "true" 
  20.     spec: 
  21.       serviceAccount: fluentd 
  22.       containers: 
  23.       - name: fluentd 
  24.         image: fluent/fluentd-kubernetes-daemonset:v1.7.3-debian-elasticsearch7-1.0 
  25.         env: 
  26.           - name: FLUENT_ELASTICSEARCH_HOST 
  27.             value: "elasticsearch.logging.svc.cluster.local" 
  28.           - name: FLUENT_ELASTICSEARCH_PORT 
  29.             value: "9200" 
  30.           - name: FLUENT_ELASTICSEARCH_SCHEME 
  31.             value: "http" 
  32.           - name: FLUENT_ELASTICSEARCH_USER 
  33.             value: "elastic" 
  34.           - name: FLUENT_ELASTICSEARCH_PASSWORD 
  35.             valueFrom: 
  36.               secretKeyRef: 
  37.                 name: efk-pw-elastic 
  38.                 key: password 
  39.           - name: FLUENT_ELASTICSEARCH_SED_DISABLE 
  40.             value: "true" 
  41.         resources: 
  42.           limits: 
  43.             memory: 512Mi 
  44.           requests: 
  45.             cpu: 100m 
  46.             memory: 200Mi 
  47.         volumeMounts: 
  48.         - name: varlog 
  49.           mountPath: /var/log 
  50.         - name: varlibdockercontainers 
  51.           mountPath: /var/lib/docker/containers 
  52.           readOnly: true 
  53.         - name: fluentconfig 
  54.           mountPath: /fluentd/etc/fluent.conf 
  55.           subPath: fluent.conf 
  56.       terminationGracePeriodSeconds: 30 
  57.       volumes: 
  58.       - name: varlog 
  59.         hostPath: 
  60.           path: /var/log 
  61.       - name: varlibdockercontainers 
  62.         hostPath: 
  63.           path: /var/lib/docker/containers 
  64.       - name: fluentconfig 
  65.         configMap: 
  66.           name: fluentdconf 

将这些放在一起执行:

  1. kubectl apply -f fluentd-SA.yaml \ 
  2.               -f fluentd-configmap.yaml \ 
  3.               -f fluentd-daemonset.yaml 

用于日志记录的挎斗容器应用程序

另一种方法是使用带有日志代理的专用挎斗容器。容器最常见的实现是使用 Fluentd 作为日志收集器。在企业部署中(你无需担心一点计算资源开销),使用 fluentd(或类似)实现的挎斗容器提供了集群级日志记录的灵活性。这是因为你可以根据需要捕获的日志类型、频率和其它可能的调整来调整和配置收集器代理。

下图展示了作为日志代理的挎斗容器。

Sidecar container as logging agent例如,一个吊舱运行单个容器,容器使用两种不同的格式写入两个不同的日志文件。吊舱的配置文件如下:

  1. #log-sidecar.yaml 
  2. apiVersion: v1 
  3. kind: Pod 
  4. metadata: 
  5.   name: counter 
  6. spec: 
  7.   containers: 
  8.   - name: count 
  9.     image: busybox 
  10.     args: 
  11.    - /bin/sh 
  12.     - -c 
  13.     - > 
  14.      i=0
  15.       while true; 
  16.       do 
  17.         echo "$i: $(date)" >> /var/log/1.log; 
  18.         echo "$(date) INFO $i" >> /var/log/2.log; 
  19.         i=$((i+1)); 
  20.         sleep 1; 
  21.       done 
  22.     volumeMounts: 
  23.     - name: varlog 
  24.       mountPath: /var/log 
  25.   - name: count-log 
  26.     image: busybox 
  27.     args: [/bin/sh, -c, 'tail -n+1 -f /var/log/1.log'] 
  28.     volumeMounts: 
  29.     - name: varlog 
  30.       mountPath: /var/log 
  31.   volumes: 
  32.   - name: varlog 
  33.     emptyDir: {} 

把它们放在一起,你可以运行这个吊舱:

  1. $ kubectl apply -f log-sidecar.yaml 

要验证挎斗容器是否用作日志代理,你可以执行以下操作:

  1. $ kubectl logs counter count-log 

预期的输出如下所示:

  1. $ kubectl logs counter count-log-1 
  2. Thu 04 Nov 2021 09:23:21 NZDT 
  3. Thu 04 Nov 2021 09:23:22 NZDT 
  4. Thu 04 Nov 2021 09:23:23 NZDT 
  5. Thu 04 Nov 2021 09:23:24 NZDT 

将应用程序日志直接暴露给日志后端

第三种方法(在我看来)是 Kubernetes 容器和应用程序日志最灵活的日志记录解决方案,是将日志直接推送到日志记录后端解决方案。尽管此模式不依赖于原生 Kubernetes 功能,但它提供了大多数企业需要的灵活性,例如:

  • 扩展对网络协议和输出格式的更广泛支持。
  • 提供负载均衡能力并提高性能。
  • 可配置为通过上游聚合接受复杂的日志记录要求。

因为这第三种方法通过直接从每个应用程序推送日志来依赖非 Kubernetes 功能,所以它超出了 Kubernetes 的范围。

结论

Kubernetes 日志记录工具是企业部署 Kubernetes 集群的一个非常重要的组件。我讨论了三种可能的可用模式。你需要找到适合你需求的模式。

如上所述,使用 daemonset 的节点级日志记录是最容易使用的部署模式,但它也有一些限制,可能不适合你的组织的需要。另一方面,挎斗 模式提供了灵活性和自定义,允许你自定义要捕获的日志类型,但是会提高计算机的资源开销。最后,将应用程序日志直接暴露给后端日志工具是另一种允许进一步定制的诱人方法。

选择在你,你只需要找到适合你组织要求的方法。

责任编辑:赵宁宁 来源: Linux中国
相关推荐

2020-04-02 15:10:57

Kubernetes集群安全

2023-06-27 17:37:08

Kubernete容器集群

2020-07-08 08:03:37

KubernetesLens集群

2023-03-30 09:17:42

KubesprayKubernetesLinux

2015-08-14 09:47:36

Linux日志基础

2021-11-22 08:50:20

Kubernetes网络策略云原生应用程序

2021-02-07 08:00:00

Kubernetes集群云原生

2022-05-24 09:00:00

云计算Kubernetes安全

2022-07-24 21:11:19

KubernetesLinux

2021-12-24 10:47:49

Kubernetes容器化微服务

2020-07-16 21:00:05

树莓派Kubernetes集Linux

2015-07-17 10:25:43

kubernetesDocker集群系统

2021-09-27 05:42:44

VeleroKubernetes 公有云

2022-01-17 11:05:11

CFSSLKubernetesLinux

2022-05-02 18:45:33

Kubernetes网络模型

2023-08-31 07:46:54

KubernetesLoki

2019-07-04 13:10:53

Docker设计云计算

2019-08-23 13:10:39

美团点评Kubernetes集群管理

2014-12-24 09:35:29

Docker集群管理kubernetes

2021-07-01 11:29:45

KubernetesGrafana监控
点赞
收藏

51CTO技术栈公众号