五分钟了解Flink状态管理

开发 架构
本文主要介绍了Flink的状态和状态管理,以及Demo和相关代码,希望对你有帮助!

什么叫做Flink的有状态计算呢?说白了就是将之前的中间结果暂时存储起来,等待后续的事件数据过来后,可以使用之前的中间结果继续计算。本文主要介绍Flink状态计算和管理、代码示例。

1、有状态的计算

什么是Flink的有状态的计算。在流式计算过程中将算子的中间结果保存在内存或者文件系统中,等下一个事件进入算子后可以从之前的状态中获取中间结果,以便计算当前的结果,从而无需每次都基于全部的原始数据来统计结果,极大地提升了系统性能。

每一个具有一定复杂度的流计算应用都是有状态的,任何运行基本业务逻辑的流处理应用都需要在一定时间内存储所接受的事件或者中间结果。

2、状态管理

Flink如何管理状态?主要就是:本地访问和存储、容错性(可以自动按一定的时间间隔产生快照,并且在任务失败后进行恢复)。

状态(State)操作是指需要把当前数据和历史计算结果进行累加计算,即当前数据的处理需要使用之前的数据或中间结果。

例如,对数据流中的实时单词进行计数,每当接收到新的单词时,需要将当前单词数量累加到之前的结果中。这里单词的数量就是状态,对单词数量的更新就是状态的更新。如下图:

状态的计算模型,如下图:

如下图,Source、map()、keyBy()/window()/apply()算子的并行度为2,Sink算子的并行度为1。keyBy()/window()/apply()算子是有状态的,并且map()与keyBy()/window()/apply()算子之间通过网络进行数据分发。

Flink应用程序的状态访问都在本地进行,这样有助于提高吞吐量和降低延迟。通常情况下,Flink应用程序都是将状态存储在JVM堆内存中,但如果状态数据太大,也可以选择将其以结构化数据格式存储在高速磁盘中。

通过状态快照,Flink能够提供可容错的、精确一次的计算语义。Flink应用程序在执行时会获取并存储分布式Pipeline(流处理管道)中整体的状态,它会将数据源中消费数据的偏移量记录下来,并将整个作业图中算子获取到该数据(记录的偏移量对应的数据)时的状态记录并存储下来。

当发生故障时,Flink作业会恢复上次存储的状态,重置数据源从状态中记录的上次消费的偏移量,开始重新进行消费处理。而且状态快照在执行时会异步获取状态并存储,并不会阻塞正在进行的数据处理逻辑。这个机制跟Kafka等消息中间件的消费方式很像。

Flink需要知道状态,以便可以使用Checkpoint和Savepoint来保证容错(下一篇会继续介绍)。状态还允许重新调整Flink应用程序,这意味着Flink负责在并行实例之间重新分配状态。

3、Keyed State

Keyed State是Flink提供的按照Key进行分区的状态机制。

在通过keyBy()分组的KeyedStream上使用,对每个Key的数据进行状态存储和管理,状态是跟每个Key绑定的,即每个Key对应一个状态对象。

Keyed State支持的状态数据类型如下:ValueState、ListState、ReducingState、AggregatingState<IN, OUT>、MapState<UK, UV>。下文以ValueState为例,介绍如何使用。

4、状态管理示例和代码

我们来模拟这样一个场景:如果某个用户1分钟内连续两次退款,第二次则发出告警。

模拟订单对象:

public class OrderBO {
    /**
     * ID
     */
    private Integer id;
    /***
     * 订单标题
     */
    private String title;
    /**
     * 订单金额
     */
    private Integer amount;
    /**
     * 订单状态:1-已支付,2-已退款
     */
    private Integer state;
    /**
     * 用户ID
     */
    private String userId;
}

利用状态管理,处理告警逻辑:

/**
* 告警处理逻辑
**/
private static class AlarmLogic extends KeyedProcessFunction<String, OrderBO, OrderBO> {
    // 是否已经出现退款的标记
    private ValueState<Boolean> flagState;
    // 定时器,时间到了会清掉状态
    private ValueState<Long> timerState;
    private static final long ONE_MINUTE = 60 * 1000;

    @Override
    public void open(Configuration parameters) throws Exception {
        ValueStateDescriptor<Boolean> flagDescriptor = new ValueStateDescriptor<>(
                "flag",
                Types.BOOLEAN);
        flagState = getRuntimeContext().getState(flagDescriptor);

        ValueStateDescriptor<Long> timerDescriptor = new ValueStateDescriptor<>(
                "timer-state",
                Types.LONG);
        timerState = getRuntimeContext().getState(timerDescriptor);
    }

    @Override
    public void processElement(OrderBO value, KeyedProcessFunction<String, OrderBO, OrderBO>.Context context, Collector<OrderBO> collector) throws Exception {
        Boolean refundFlag = flagState.value();

        // 如果已经退款过一次了,如果再出现退款则发射给下个算子,然后清理掉定时器。状态2代表退款
        if (refundFlag != null && refundFlag) {
            if (value.getState() == 2) {
                collector.collect(value);
            }
            cleanUp(context);
        } else {
            // 如果第一次出现退款,则写入状态,同时开启定时器。状态2代表退款
            if (value.getState() == 2) {
                flagState.update(true);
                long timer = context.timerService().currentProcessingTime() + ONE_MINUTE;
                context.timerService().registerProcessingTimeTimer(timer);
                timerState.update(timer);
            }
        }
    }

    /**
     * 定时器到了之后,清理状态值
     */
    @Override
    public void onTimer(long timestamp, KeyedProcessFunction<String, OrderBO, OrderBO>.OnTimerContext ctx, Collector<OrderBO> out) throws Exception {
        timerState.clear();
        flagState.clear();
    }

    /**
     * 手动清理状态值
     *
     * @param ctx
     * @throws Exception
     */
    private void cleanUp(Context ctx) throws Exception {
        Long timer = timerState.value();
        ctx.timerService().deleteProcessingTimeTimer(timer);

        timerState.clear();
        flagState.clear();
    }
}

模式生成数据和主流程代码:

public static void main(String[] args) throws Exception {
    // 1、执行环境创建
    StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();
    // 2、读取Socket数据端口。实际根据具体业务对接数据来源
    DataStreamSource<String> orderStream = environment.socketTextStream("localhost", 9527);
    // 3、数据读取个切割方式
    SingleOutputStreamOperator<OrderBO> resultDataStream = orderStream
            .flatMap(new CleanDataAnd2Order()) // 清洗和处理数据
            .keyBy(x -> x.getUserId()) // 分区
            .process(new AlarmLogic()); // 处理告警逻辑

    // 4、打印分析结果
    resultDataStream.print("告警===>");
    // 5、环境启动
    environment.execute("OrderAlarmApp");
}

模拟数据:

模拟场景:某个用户1分钟内连续两次退款,第二次发出告警。
示例数据:
1,aaa,100,1,user1
2,bbb,200,1,user2
3,ccc,300,2,user1
4,ddd,400,2,user1

5,ddd,400,2,user1
6,bbb,200,2,user2
7,bbb,400,2,user2

完整代码地址:https://github.com/yclxiao/flink-blog/blob/7eb84d18aa71d8f2023d6158796de34d331b9b3f/src/main/java/top/mangod/flinkblog/demo005/OrderAlarmApp.java#L43

责任编辑:赵宁宁 来源: 不焦躁的程序员
相关推荐

2009-11-05 14:53:54

Visual Stud

2021-10-19 07:27:08

HTTP代理网络

2022-12-16 09:55:50

网络架构OSI

2009-11-06 10:25:34

WCF元数据交换

2009-10-26 15:45:43

VB.NET类构造

2020-02-19 19:26:27

K8S开源平台容器技术

2020-05-12 09:10:24

浏览器服务器网络

2023-07-26 07:11:50

LVM底层抽象

2009-11-02 18:07:58

Oracle数据库

2020-03-06 10:45:48

机器学习人工智能神经网络

2021-09-18 11:36:38

混沌工程云原生故障

2009-11-16 10:53:30

Oracle Hint

2023-12-12 08:00:50

节点哈希算法

2018-05-06 16:26:03

关联规则数据分析关联规则推荐

2018-03-12 21:31:24

区块链

2020-06-16 08:47:53

磁盘

2018-02-02 16:08:32

互联网大数据数据分析

2021-04-30 16:23:58

WebRTC实时音频

2020-10-13 18:22:58

DevOps工具开发

2019-08-09 10:33:36

开发技能代码
点赞
收藏

51CTO技术栈公众号