我们如何结合OpenTelemetry跟踪和Prometheus指标构建强大的警报机制?

译文
开源
利用开源项目和创造性思维帮助我们快速有效地为客户交付基于跟踪的警报。

译者 | 布加迪

审校 | 重楼

工程团队卓越的品质之一是另辟蹊径找到解决难题创造。作为开发领导者,我们有责任向下一代开发人员传授技巧,帮助他们尽可能透过表面解决复杂的业务问题,并充分利用开源社区的力量。

在Helios,这种基因最近引导我们将复杂的逻辑委托给一个经过验证的开源项目Prometheus。我们竭力为产品添加警报机制。现在,警报不是新鲜事——许多软件产品提供警报向用户通知系统/产品中的事件但事实,它不是新鲜事并不意味着没有挑战性。我们利用Prometheus具体地说是AWS托管Prometheus,我们选择用它来减少内部管理的维护开销解决了这个挑战——OpenTelemetry收集器度量管道已经在使用Prometheus,以构建警报机制,既满足了用户的产品需求,又节省了开发和维护它的大量时间和精力。

本文将介绍这一解决方案,并希望它能够激励开发者创造性地思考可能遇到的日常挑战。希望我们的经验展示了我们如何使用开源项目构建种大大提高了效率的解决方案,以便工程团队可以花宝贵的时间解决更多的业务挑战。

构建警报机制:不需要重新发明轮子

OpenTelemetryOTel是一开源可观察性框架,可以帮助开发人员生成、收集和导出来自分布式应用程序中遥测数据。我们用OTel收集的数据包括几种不同的信号分布式跟踪数据(比如HTTP请求、DB调用以及发送到各种通信基础设施的消息以及指标(比如CPU使用情况、内存消耗OOM事件等

我们开始基于这些数据以及来自其他源的数据构建警报机制,使用户能够根据系统中的事件来配置条件。比如说,用户可能会收到关于API失、DB查询所花时间比预期长或Lambda出现OOM的警报他们可以根据想要的精细度和想要的通知频率来设置警报。

如前所述,许多软件产品都需要提供警报机制,以便用户能够了解应用程序或其他重要业务KPI发生的事件方面最新情况。这是一常见特性,但构建起来依然很复杂。

我们希望解决方案实现三个目标

1. 无缝地基于分布式跟踪数据实施警报不需要太力!

2. 使一切内容OTel数据模型而言都是原生的

3. 快速进入市场

为此,我们转向开源工具:我们利用了Prometheus的Alerts Manager模块。Prometheus是用于监视和警报的开源行业标准,旨在跟踪应用程序和基础设施的性能和运行状况。Prometheus从各种来源收集指标,并提供灵活的查询语言分析和可视化数据。它是收集OTel指标最常见后端之一,我们的后端已经有了Prometheus来支持指标收集。

我们依靠像Prometheus这样的开源工具为我们做这些工作,因为这解决方案是由许多聪明而有经验的开发人员构建的,他们多年的丰富经验调整改动解决方案以支持许多用例,已碰到过该领域的所有或至少大部分陷阱。我们对警报机制的设计进行了内部讨论,利用Prometheus的想法是由团队的一些成员根据他们以前的经验提出的。

图1. 设置基于分布式跟踪数据的警报——由Prometheus Alert Manager提供支持这个标签可以在Helios Sandbox中访问

图2. 这个例子表明了Prometheus中如何配置来自Helios Sandbox的不同警报

深入探讨:我们如何构建警报机制?

有了Prometheus,我们开始着手添加警报机制。我们想从跟踪警报入手,或者更准确地说从跟踪的基本模块:span入手(比如HTTP请求或DB查询的结果。Prometheus提供了指标警报,但我们需要跟踪警报。来自跟踪的数据不会按原样抵达Prometheus——它需要转换数据模型。因此,为了让Prometheus实际发出span警报,我们需要获取span,将其转换成指标,并配置由触发的警报。当跟踪span匹配警报条件时(比如DB查询耗时超过5秒,我们将span转换Prometheus指标

Prometheus模型符合我们旨在实现的目标。针对每个事件,我们从OTel获得原始数据,并通过Prometheus其作为指标来馈送。然后我们可以说,如果某个特定的操作错误在五分钟内出现超过三次,就应该激活警报。

我们没有止步于此。在Helios中,对我们用户来说一大好处是我们可以从分布式跟踪数据到一个指标,也可以从一个指标返回到特定的跟踪,因为我们维护指标上下文。用户可以设置基于跟踪的警报,然后从警报返回到E2E流,以便快速分析根本原因。这为用户提供了终极可见性,以便深入了解应用程序性能和运行状况。可用的上下文基于测量数据可帮助用户轻松确定应用程序流中的问题和瓶颈,以便快速排除故障缩短平均解决时间MTTR

基于跟踪的警报

在警报机制中,我们构建的机制旨在对可以根据跟踪数据定义的行为发出警报,比如服务A向服务B发出的失败的HTTP请求,MongoDB对特定集合的查询超过500毫秒,或者Lambda函数调用失败。

以上每一项都可以描述为基于标准OTel属性(比如HTTP状态码、span持续时间等)span过滤器。在这些过滤器之上,我们支持各种聚合逻辑(比如,如果匹配span的数量在Y时间内达到X。因此,警报定义实际上是过滤器和聚合逻辑。

实施包括三个部分

1. 为每个警报定义创建唯一的指标。

2. 将聚合逻辑转换PromQL查询,并使用警报定义更新Prometheus Alert Manager

3. 将匹配警报过滤器的span持续转换Prometheus时间序列,这将符合警报聚合定义并触发警报

我们希望尽可能保持OTel原生,因此基于OTel收集器构建警报管道,具体做法如下:

1. 创建alert matcher collector,它使用kafka receiver来处理从“一线”收集器(接收来自客户的OTel SDK数据发送的OTLP格式的span。

2. kafka receiver连接作为跟踪管道的一部分到alert matcher processor,这是我们构建的自定义处理程序,它加载我们的客户在Helios UI中配置的过滤器,并相应地过滤span。

3. 在过滤相关的span之后,我们需要将它们作为指标导出到Prometheus。为此,我们实施了连接器这是一项比较新的OTel收集器特性,允许连接不同类型的管道本例中是跟踪和指标)。spans-to-metrics连接器将每个匹配的span转换成指标,具有以下属性

  • 它的名称是根据数据库中的客户ID和警报定义ID构建的。
  • 它的标签跟踪ID、span ID、时间戳服务名称等。

4. 使用Prometheus远程写导出器将指标导出到托管的AWS Prometheus。

Prometheus几乎直接就能发挥功效,我们注意几个小细节,因为它是AWS管理的(比如只能使用SNS-SQS报告警报)

从警报到根本原因

我们基于跟踪的警报,但为了确保快速分析根本原因,我们还希望在触发警报时提供完整的应用程序上下文。触发警报后,我们向Prometheus查询警报定义的时间序列客户和警报定义ID的组合,并获得作为警报查询实例的指标列表——每个指标都有匹配的span和跟踪ID。比如说,如果警报针对长时间运行的DB查询配置,示例跟踪将含查询本身及整个跟踪。

整个机制看起来是这样的

3. Helios的警报机制架构——从客户的OpenTelemetry SDK报告的span到Slack中的警报

图4. Helios Alerts Collector架构——从跟踪管道到度量管道的转换

使用Prometheus警报作为我们方法的利弊

我们用于警报机制的方法是将OTel跟踪数据转换Prometheus指标,以便利用Prometheus的Alert Manager,因而不需要实施我们自己的警报后端。不妨看看这种方法的一些优点。

尽管优点多多,但有时使用开源工具或团队无法控制的任何外部组件可能很棘手,因为您实际上得到的是“黑盒子”——如果其API和集成机制不适合您的架构,您可能需要做更多的工作,甚至完全受阻。

不妨看一个例子。在Prometheus中,可以通过使用API调用更新YAML定义配置警报。然而,我们使用的AWS Managed Prometheus支持使用AWS API调用来更新这些定义,不直接更新Prometheus,而是在周期性同步中进行实际更新。为了防止这种行为方面的问题(比如由于第一次更新还没有同步,持续更新警报定义失败,我们必须实施自己的定期同步机制,封装更新。如果我们从头开始构建这个解决方案,就可以全面控制这个机制,可以随时进行更新。在这里,由于AWS Managed Prometheus,我们没有这种控制,这迫使我们构建一个额外的同步机制。

此外,您可能希望调整解决方案的些特性——比如在该中,我们希望在发送警报时提供精度更细的数据——这可能是个繁琐的过程。比如在接收到警报(作为Prometheus报告的警报的有效负载的一部分时为它们直接触发的警报获取匹配的span ID在默认情况下不适用于我们,因此我们必须向Prometheus发送另一个API调用并查询它们,这增加了一些小小的开销。

尽管存在这些挑战,但我们知道在不依赖Prometheus的情况下自己实施功能要困难得多。我们有一个开箱即用的解决方案,节省了大量的开发时间而不是从头开始开发警报逻辑,不然需要设计不同的组件存储等)、实施,可能还需要几次错误修复和反馈的迭代

有了Prometheus这个功能丰富的成熟开源工具,我们就省心多了。我们知道未来的用例会得到这款工具的支持它已准备好用于生产环境,许多用户会对它进行微调,这给了我们很大的信心,同时节省了时间。我们知道,我们将来可能想到的任何警报逻辑都可能已经在Prometheus中实现了。如果我们自构建,错误的设计选择可能意味着我们不得不破坏设计或编写糟糕的代码来支持新用例。

此外,我们这种方法的好处之一是使所有内容OTel数据模型而言都是原生的。这意味着OTel收集器将过滤、处理、导出和接收所有内容,至于它是span(比如失败的HTTP请求)还是指标(比如高CPU使用都无关紧要。

结论

Helios开发警报机制可能很困难,但借助一些创造性思维和开源协作,我们高效而从容完成了这项任务。我们利用OTel和Prometheus,在稳定的周转时间内提供了复杂的警报机制。我们找到了一种关联span和指标的方法,这样当我们获取span并将其转换成指标时,就知道如何将警报重新与业务逻辑联系起来

但愿这段经历不仅能激励开发者利用开源解决复杂的问题,还能成为我们用户的好伙伴。创新是关键,但除了为了创新而创新之外,我们还希望对用户产生影响,改善他们的体验希望也能这样做。

原文标题:How we combined OpenTelemetry traces with Prometheus metrics to build a powerful alerting mechanism,作者:Ran Nozik

责任编辑:华轩 来源: 51CTO
相关推荐

2023-03-07 14:49:22

机器学习ML

2019-05-05 11:20:06

PythonPrometheus跟踪天气

2022-11-07 07:54:05

微服务数据库网关

2023-08-30 07:20:58

2023-11-21 08:57:16

2010-05-24 13:24:26

Redmine和SVN

2021-06-08 14:21:51

恢复策略数据备份存储元素

2022-03-03 10:40:25

VSaaS视频监控人工智能

2021-03-26 20:37:14

Prometheus监控指标

2022-01-13 06:59:40

广告Cookie项目

2021-12-22 10:29:23

Prometheus elasticsear运维

2020-08-30 16:29:12

数据科学团队数据团队CIO

2017-05-04 08:00:54

2020-04-15 10:30:39

人工智能深度学习计算力

2022-07-08 08:00:31

Prometheus监控

2013-02-21 10:40:39

大数据云计算

2015-08-19 09:58:03

数据中心高效数据中心

2023-09-06 08:46:47

2023-11-27 08:28:37

SpEL表达式

2022-05-12 08:01:26

vmagentprometheus
点赞
收藏

51CTO技术栈公众号