从网络I/O模型到Netty,先深入了解下I/O多路复用

网络 网络管理
上一篇文章我们了解了Unix标准的5种网络I/O模型,知道了它们的核心区别与各自的优缺点。尤其是I/O多路复用模型,在高并发场景下,有着非常好的优势。而Netty也采用了I/O多路复用模型。

 上一篇文章我们了解了Unix标准的5种网络I/O模型,知道了它们的核心区别与各自的优缺点。尤其是I/O多路复用模型,在高并发场景下,有着非常好的优势。而Netty也采用了I/O多路复用模型。

那Netty是如何实现I/O多路复用的呢?

Netty实际上也是一个封装好的框架,它的本质上还是使用了Java的NIO包(New IO,不是网络I/O模型的NIO,Nonblocking IO)包,Java NIO包里面使用了I/O多路复用。

所以,本文作为一个 前置知识 + 高频面试题 章节(手动狗头),一起来深入了解下I/O多路复用模型吧。

[[381555]]

本文预计阅读时间 5分钟,将重点回答以下两个问题:

  • I/O多路复用模式有哪些实现?select/poll/epoll
  • select/poll/epoll有什么区别

1.I/O多路复用模式的实现

这是我们上一篇讲I/O多路复用使用的图,可以再回顾一下I/O多路复用模型。


多个的进程的IO可以注册到一个复用器(selector)上,然后用一个进程调用select,select会监听所有注册进来的IO。

举个例子。

在BIO模式中,一个老师(应用进程/线程)只能同时处理一个同学(IO流)的问题。如果有10个同学,就需要配置10个老师来做一对一的讲解。

在IO多路复用模型中。我们给 老师 配置了一个 班长(复用器Selector)。班长 负责观察班级里的10个同学谁要提问,一旦有同学举手,班长就反馈老师去处理这个举手同学的问题。

这样一来,只需要1个老师,老师 只需要注意 班长 的反馈,就能及时处理对应的 同学 的问题了。

下面我们具体来看看I/O多路复用的三种实现:select、poll、epoll。

  • 需要注意的是,select,poll,epoll都是IO多路复用的实现方式,而且本质上都是同步I/O,因为它们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的。
  • 而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。

2. select

Linux系统提供了一个函数select来供开发者使用select多路复用机制。


该函数的作用是:

通过轮询,可以同时监视多个文件描述符是否发生了读、写、异常这三类IO事件。

最后返回发生IO事件的文件描述符数量,以及读事件、写事件、异常事件这三种事件分别发生在哪些文件描述符中(readfds、writefds、errorfds三个参数)。

  • 文件描述符(File descriptor)是计算机中的一个术语,用于表述指向文件的引用的抽象化概念。
  • Linux下一切皆文件,包括IO设备也是。因此要对某个设备进行操作,就需要打开此设备文件,打开文件就会获得该文件的文件描述符fd( file discriptor),它就是一个很小的整数。

我们结合 老师-班长-同学 的模型来理解下这个过程。

  • 老师把学生名单(xxxxfds)给班长,让班长关注班级里的所有同学。
  • 班长时刻轮训班级里每个同学的状态(轮训所有fd_set),直到 超时 或者 有同学举手。
  • 一旦有同学举手,班长就会把学生名单上有变化的学生名字做标记,并把一共多少个学生有变化返回给 老师。
  • 老师可以获得举手同学的数量,并在学生名单(xxxxfds)上看的有哪几个同学发生了事件(读、写、异常)。
  • 老师拿到学生名单后,轮训班级里面的每个同学状态,根据具体的 读、写、异常事件 来进行IO处理。

特别注意,在select函数下,老师仅仅知道有学生发生变化了,但到底是哪些学生发生变化,他需要 轮询 一遍同学名单(xxxfds),找出举手的同学,然后和他进行交流。

select的缺点比较明显:

  • 具有O(n)的无差别轮询时间复杂度,每次调用需要轮询fd_set,同时处理得越多,轮询时间就越长。
  • 每次调用select函数,都需要把 所有 fd_set从 用户态 拷贝到 内核态 进行轮训,如果fd_set比较大,对性能影响就非常大。

3. poll

poll的实现和select非常相似,我们就不重复说明了,直接介绍一下区别。poll函数如下:


主要是描述fd集合的方式不同,poll使用pollfd结构而不是fd_set结构,pollfd结构使用链表而非数组,这导致pollfd的长度没有限制。但是如果pollfd长度过大,会导致性能下降。

除此之外,二者的原理基本一致,即对多个描述符也是进行轮询,根据描述符的状态进行处理。

因此,二者的缺陷也基本一致。

4. epoll

epoll的全称是eventpoll,它是基于event事件进行实现的,是linux特有的I/O复用函数。

它在实现和使用上和select\poll有很大差别:

  • epoll通过 一组函数 来完成任务,而不是单个函数。
  • epoll把用户关心的文件描述符fd放在一个 事件表 中,而不是像select/poll那样把所有文件描述符集合(fds)传来传去。
  • epoll需要一个额外的文件描述符fd来表示这个 事件表。

不同于select使用三个fd_set来对应读/写/异常的IO变化,epoll专门定义了一个epoll_event结构体,将其作为读/写/异常的IO变化的逻辑封装,称为事件(event)。


4.1 epoll的三个核心函数

epoll把原先的select/poll调用分成了3个函数。


  • 调用int epoll_create(int size)建立一个epoll句柄对象,返回一个文件描述符fd,指向 事件表。在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。
  • 参数size并不是限制了epoll所能监听的描述符最大个数,只是对内核初始分配内部数据结构的一个建议。

  • 调用epoll_ctl向epoll对象中添加连接的套接字。
  • epfd就是epoll_creat返回的事件表id。
  • op表示具体操作。包括添加fd的监听事件EPOLL_CTL_ADD、删除fd的监听事件EPOLL_CTL_DEL、修改fd的监听事件EPOLL_CTL_MOD。
  • fd是需要监听的fd(文件描述符)
  • event是告诉内核需要监听哪个事件

  • 调用epoll_wait收集发生的事件的连接
  • 返回值表示已经准备继续的文件描述符的总数。
  • epfd表示事件表id。
  • events表示 准备就绪的事件数组。event_wait如果检测到事件,就把就绪的事件从 事件表 中复制到这个数组中。(比select/poll高效的地方!!)
  • maxevents表示最多监听多少事件。

4.2 epoll的实现原理

当某一进程调用 epoll_create()方法 时,内核空间会创建一个eventpoll结构体,这个结构体中有两个成员变量与epoll的使用方式密切相关,结构体如下所示:


  • 红黑树根节点rbr:红黑树的根节点,这颗树中存储着所有添加到epoll中的需要监控的事件
  • 链表rdlist:链表中则存放着将要通过epoll_wait返回给用户的满足条件的事件

epoll_ctl()方法 将新添加的监控事件event加入到 红黑树rbr 中。还会给内核中断处理程序注册一个 回调函数,告诉内核,如果这个句柄的中断到了,就把它放到准备就绪list链表里。

一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,被触发的事件会被 回调函数 加入eventpoll的 链表rdlist 中。

当调用 epoll_wait()方法 检查是否有事件发生时,只需要检查eventpoll对象中的rdlist链表中是否有元素即可。如果链表中有数据的话,就把对应有修改的事件event复制到epoll_wait()方法的events数组变量中,用户就能获得了。

  • 对比select/poll,我们可以看到此处不需要遍历监听的文件描述符,这正是epoll的魅力所在。

如此一来,epoll_wait的效率就非常高了。因为调用epoll_wait时,不需要向操作系统复制所有的连接的句柄数据,内核也不需要去遍历全部的连接。

4.3 epoll中有使用共享内存吗?

很多博客提到了这点:

  • epoll_wait返回时,对于就绪的事件,epoll使用的是共享内存的方式,即用户态和内核态都指向了就绪链表,所以就避免了内存拷贝消耗

但是事实确实如此吗?

源码面前无密码,我们直接看下源码吧。

参考eventpoll.c的源码。

https://github.com/torvalds/linux/blob/master/fs/eventpoll.c

具体的epoll_wait调用关系如下图所示。


我们可以在put_user中看到具体的说明。


因此,事件确实是从内核空间拷贝到用户空间的,并没有使用共享内存。

5.三种实现对比

通过上面的分析,相信大家都已经了解了select/poll/epoll的实现。

下面通过一个表格来总结他们的主要区别。

从整体来看,epoll的实现性能是比select/poll更好的。

当然,如果保持活跃的连接一直非常多,epoll_wait的效率就不一定高了,因为此时epoll_wait的回调函数触发过于频繁。

因此,epoll最适合的场景是连接数量很多,但是活跃连接数量不多的情况。

参考书目:

《Linux高性能服务器编程》

往期热门笔记合集推荐:

  • HBase原理与实战笔记合集
  • MySQL实战笔记合集
  • Canal/Otter源码与实战笔记合集
  • Java实战技巧笔记合集

 

责任编辑:姜华 来源: 阿丸笔记
相关推荐

2021-03-24 08:03:38

NettyJava NIO网络技术

2023-05-08 00:06:45

Go语言机制

2020-10-13 07:51:03

五种IO模型

2017-01-19 19:24:29

Linux重定向

2021-03-17 16:53:51

IO多路

2019-12-23 14:53:26

IO复用

2021-06-09 19:25:13

IODubbo

2023-11-08 09:22:14

I/ORedis阻塞

2020-12-11 11:04:07

NettyIO

2021-01-19 06:43:10

Netty框架网络技术

2022-12-08 09:10:11

I/O模型Java

2023-08-07 08:52:03

Java多路复用机制

2020-06-03 17:30:42

LinuxIO

2015-02-09 16:01:18

服务器

2020-12-01 07:08:23

Linux网络I

2023-01-09 10:04:47

IO多路复用模型

2021-10-13 06:49:15

网络 IO

2020-08-07 08:03:37

IONetty

2018-11-05 11:20:54

缓冲IO

2013-05-28 10:08:41

IO输出
点赞
收藏

51CTO技术栈公众号