Apache Beam 是什么,它为什么比其他选择更受欢迎?

开发 前端
在本教程中,我们将介绍 Apache Beam 并探讨其基本概念。我们将首先演示使用 Apache Beam 的用例和好处,然后介绍基本概念和术语。之后,我们将通过一个简单的例子来说明 Apache Beam 的所有重要方面。

 [[355156]]

1. 概述

在本教程中,我们将介绍 Apache Beam 并探讨其基本概念。我们将首先演示使用 Apache Beam 的用例和好处,然后介绍基本概念和术语。之后,我们将通过一个简单的例子来说明 Apache Beam 的所有重要方面。

2. Apache Beam是个啥?

Apache Beam(Batch+strEAM)是一个用于批处理和流式数据处理作业的统一编程模型。它提供了一个软件开发工具包,用于定义和构建数据处理管道以及执行这些管道的运行程序。

Apache Beam旨在提供一个可移植的编程层。事实上,Beam管道运行程序将数据处理管道转换为与用户选择的后端兼容的API。目前,支持这些分布式处理后端有:

  • Apache Apex
  • Apache Flink
  • Apache Gearpump (incubating)
  • Apache Samza
  • Apache Spark
  • Google Cloud Dataflow
  • Hazelcast Jet

3. 为啥选择 Apache Beam

Apache Beam 将批处理和流式数据处理融合在一起,而其他组件通常通过单独的 API 来实现这一点 。因此,很容易将流式处理更改为批处理,反之亦然,例如,随着需求的变化。

Apache Beam 提高了可移植性和灵活性。我们关注的是逻辑,而不是底层的细节。此外,我们可以随时更改数据处理后端。

Apache Beam 可以使用 Java、Python、Go和 Scala等SDK。事实上,团队中的每个人都可以使用他们选择的语言。

4. 基本概念

使用 Apache Beam,我们可以构建工作流图(管道)并执行它们。编程模型中的关键概念是:

  • PCollection–表示可以是固定批处理或数据流的数据集
  • PTransform–一种数据处理操作,它接受一个或多个 PCollections 并输出零个或多个 PCollections。
  • Pipeline–表示 PCollection 和 PTransform 的有向无环图,因此封装了整个数据处理作业。
  • PipelineRunner–在指定的分布式处理后端上执行管道。

简单地说,PipelineRunner 执行一个管道,管道由 PCollection 和 PTransform 组成。

5. 字数统计示例

现在我们已经学习了 Apache Beam 的基本概念,让我们设计并测试一个单词计数任务。

5.1 建造梁式管道

设计工作流图是每个 Apache Beam 作业的第一步,单词计数任务的步骤定义如下:

  • 1.从原文中读课文。
  • 2.把课文分成单词表。
  • 3.所有单词都小写。
  • 4.删去标点符号。
  • 5.过滤停止语。
  • 6.统计唯一单词数量。

为了实现这一点,我们需要使用 PCollection 和 PTransform 抽象将上述步骤转换为 管道 。

5.2. 依赖

在实现工作流图之前,先添加 Apache Beam的依赖项 到我们的项目:

 

  1. <dependency> 
  2.     <groupId>org.apache.beam</groupId> 
  3.     <artifactId>beam-sdks-java-core</artifactId> 
  4.     <version>${beam.version}</version> 
  5. </dependency> 

Beam管道运行程序依赖于分布式处理后端来执行任务。我们添加 DirectRunner 作为运行时依赖项:

 

  1. <dependency> 
  2.     <groupId>org.apache.beam</groupId> 
  3.     <artifactId>beam-runners-direct-java</artifactId> 
  4.     <version>${beam.version}</version> 
  5.     <scope>runtime</scope> 
  6. </dependency> 

与其他管道运行程序不同,DirectRunner 不需要任何额外的设置,这对初学者来说是个不错的选择。

5.3. 实现

Apache Beam 使用 Map-Reduce 编程范式 ( 类似 Java Stream)。讲下面内容之前,最好 对 reduce(), filter(), count(), map(), 和 flatMap() 有个基础概念和认识。

首先要做的事情就是 创建管道:

 

  1. PipelineOptions options = PipelineOptionsFactory.create(); 
  2. Pipeline p = Pipeline.create(options); 

六步单词计数任务:

 

  1. PCollection<KV<String, Long>> wordCount = p 
  2.     .apply("(1) Read all lines",  
  3.       TextIO.read().from(inputFilePath)) 
  4.     .apply("(2) Flatmap to a list of words",  
  5.       FlatMapElements.into(TypeDescriptors.strings()) 
  6.       .via(line -> Arrays.asList(line.split("\\s")))) 
  7.     .apply("(3) Lowercase all",  
  8.       MapElements.into(TypeDescriptors.strings()) 
  9.       .via(word -> word.toLowerCase())) 
  10.     .apply("(4) Trim punctuations",  
  11.       MapElements.into(TypeDescriptors.strings()) 
  12.       .via(word -> trim(word))) 
  13.     .apply("(5) Filter stopwords",  
  14.       Filter.by(word -> !isStopWord(word))) 
  15.     .apply("(6) Count words",  
  16.       Count.perElement()); 

apply() 的第一个(可选)参数是一个String,它只是为了提高代码的可读性。下面是上述代码中每个 apply() 的作用:

首先,我们使用 TextIO 逐行读取输入文本文件。

将每一行按空格分开,把它映射到一个单词表上。

单词计数不区分大小写,所以我们将所有单词都小写。

之前,我们用空格分隔行,但是像“word!“和”word?"这样的,就需要删除标点符号。

像“is”和“by”这样的停止词在几乎每一篇英语文章中都很常见,所以我们将它们删除。

最后,我们使用内置函数 Count.perElement() 计算唯一单词数量。

如前所述,管道是在分布式后端处理的。不可能在内存中的PCollection上迭代,因为它分布在多个后端。相反,我们将结果写入外部数据库或文件。

首先,我们将PCollection转换为String。然后,使用TextIO编写输出:

 

  1. wordCount.apply(MapElements.into(TypeDescriptors.strings()) 
  2.     .via(count -> count.getKey() + " --> " + count.getValue())) 
  3.     .apply(TextIO.write().to(outputFilePath)); 

现在管道 已经定义好了,接下来做个简单的测试。

5.4. 运行测试

到目前为止,我们已为单词计数任务定义了管道,现在运行管道:

  1. p.run().waitUntilFinish(); 

在这行代码中,Apache Beam 将把我们的任务发送到多个 DirectRunner 实例。因此,最后将生成几个输出文件。它们将包含以下内容:

 

  1. ... 
  2. apache --> 3 
  3. beam --> 5 
  4. rocks --> 2 
  5. ... 

在 Apache Beam 中定义和运行分布式作业是如此地简单。为了进行比较,单词计数实现在 Apache Spark, Apache Flink 和 Hazelcast-Jet 上也有

6. 结语

在本教程中,我们了解了 Apache Beam 是什么,以及它为什么比其他选择更受欢迎。我们还通过一个单词计数示例演示了 Apache Beam 的基本概念。

本文转载自微信公众号「锅外的大佬」,可以通过以下二维码关注。转载本文请联系锅外的大佬公众号。

 

责任编辑:武晓燕 来源: 锅外的大佬
相关推荐

2020-02-16 20:43:49

Python数据科学R

2017-07-26 10:21:46

DockerLinux容器

2021-03-02 16:25:13

手机iPhone安卓

2020-06-16 14:13:50

Kubernetes容器Linux

2020-06-02 19:14:59

Kubernetes容器开发

2021-03-19 11:10:51

比特币外汇加密货币

2015-10-14 18:08:53

2022-06-16 20:56:53

边缘计算

2015-07-31 16:29:15

DockerJavaLinux

2019-04-24 08:00:00

HTTPSHTTP前端

2021-12-27 07:10:26

ClassmethodStaticmetho函数

2024-02-21 14:28:09

智能家居物联网安全

2020-09-15 15:53:31

边缘计算云计算5G

2021-06-02 10:52:01

HTTP3Linux

2024-01-23 11:31:24

模型AI

2023-09-17 23:01:39

Python编程语言

2020-03-18 14:08:48

Windows操作系统功能

2023-01-10 15:00:44

2014-07-24 09:50:55

Unix开源系统

2009-12-25 09:41:51

点赞
收藏

51CTO技术栈公众号