【计算机网络笔记九】I/O 多路复用

阻塞 IO 和 非阻塞 IO

阻塞 I/O 和 非阻塞 I/O 的主要区别:

  • 阻塞 I/O 执行用户程序操作是同步的,调用线程会被阻塞挂起,会一直等待内核的 I/O 操作完成才返回用户进程,唤醒挂起线程
  • 非阻塞 I/O 执行用户程序操作是异步的,读写操作调用后内核会立即返回给用户一个状态值,用户可以立即执行其他操作。

阻塞 IO 模型

应用程序调用一个 IO 函数,导致应用程序阻塞,等待数据准备好。 如果数据没有准备好,一直等待….数据准备好了,从内核拷贝到用户空间,IO 函数返回成功指示。

在这里插入图片描述

  • 当调用 read() 函数时,系统首先查是否有准备好的数据。如果数据没有准备好,那么系统就处于等待状态。当数据准备好后,将数据从系统缓冲区复制到用户空间,然后该函数返回。在套接应用程序中,当调用 read() 函数时,未必用户空间就已经存在数据,那么此时 read() 函数就会处于等待状态。

在这里插入图片描述

非阻塞 IO 模型

我们把一个 SOCKET 接口设置为非阻塞就是告诉内核,当所请求的 I/O 操作无法完成时,不要将进程睡眠,而是返回一个错误。这样我们的 I/O 操作函数将不断的测试数据是否已经准备好,如果没有准备好,继续测试,直到数据准备好为止。在这个不断测试的过程中,会大量的占用 CPU 的时间。该模型不被
推荐。

在这里插入图片描述
在这里插入图片描述

IO 复用模型

I/O 复用模型会用到 select、poll、epoll 函数,这几个函数也会使进程阻塞,但是和阻塞 I/O 所不同的的,这两个函数可以同时阻塞多个 I/O 操作。而且可以同时对多个读操作,多个写操作的 I/O 函数进行检测,直到有数据可读或可写时,才真正调用 I/O 操作函数。

在这里插入图片描述
在这里插入图片描述

当用户进程调用了 select,那么整个进程会被 block;而同时,kernel 会“监视”所有 select 负责的 socket;当任何一个 socket 中的数据准备好了,select 就会返回。这个时候,用户进程再调用 read 操作,将数据从 kernel 拷贝到用户进程。

这个图和 blocking IO 的图其实并没有太大的不同,事实上还更差一些。因为这里需要使用两个系统调用,而 blocking IO 只调用了一个系统调用。但是,用 select 的优势在于它可以同时处理多个 connection。

(所以,如果处理的连接数不是很高的话,使用 select/epoll 的 web server 不一定比使用 multi-threading + blocking IO 的 web server 性能更好,可能延迟还更大。select/epoll 的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)

信号驱动 IO 模型

简介:两次调用,两次返回

在这里插入图片描述

首先我们允许套接口进行信号驱动 I/O,并安装一个信号处理函数,进程继续运行并不阻塞。当数据准备好时,进程会收到一个 SIGIO 信号,可以在信号处理函数中调用 I/O 操作函数处理数据。

异步 IO 模型

在这里插入图片描述

当一个异步过程调用发出后,调用者不能立刻得到结果。实际处理这个调用的部件在完成后,通过状态、通知和回调来通知调用者的输入输出操作。

多路复用的概念

先看一个例子

在这里插入图片描述

这里一旦使用 fgets() 方法等待标准输入,就没有办法在 Socket 有数据的时候读出数据:

在这里插入图片描述

I/O 多路复用:把标准输入Socket等都看做 I/O 的一路,多路复用的意思,就是在任何一路 I/O 有事件发生的情况下,通知应用程序去处理相应的 I/O 事件

在这里插入图片描述

多路中的每一路本质上就是一个 fd:

在这里插入图片描述

什么是 I/O 事件,例如:

  • I/O 事件一:fd 对应的内核缓冲区来了数据,可读;
  • I/O 事件二:fd 对应的内核缓冲区空闲,可写;
  • I/O 事件三:fd 出现异常

多路复用技术的实现主要有:

  • ① select
  • ② poll
  • ③ epoll

I/O 多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但 select,poll,epoll 本质上都是同步 I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步 I/O 则无需自己负责进行读写,异步 I/O 的实现会负责把数据从内核拷贝到用户空间。

select 多路复用

首先,应用进程需要告诉内核它感兴趣的 I/O 事件,然后,内核感知设备发生的 I/O 事件,然后通知应用进程:你感兴趣的 fd 发生了你感兴趣的 I/O 事件类型。

在这里插入图片描述

多路中的每一路本质上就是一个 fd。

select函数定义如下:

/* According to POSIX.1-2001 */
#include <sys/select.h>
/* According to earlier standards */ 
#include <sys/time.h>
#include <sys/types.h> 
#include <unistd.h>

int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout); 

fd_set

其中 fd_set 结构体定义如下:

#define __FD_SETSIZE 1024 

typedef struct {
    
    
    unsigned long fds_bits[__FD_SETSIZE / (8 * sizeof(long))]; 
} __kernel_fd_set; 

这里一个 long8 个字节(64位系统),一个字节占 8 位,8 * sizeof(long) 总共占 64 位。

因此 __FD_SETSIZE / (8 * sizeof(long)) 的值是 1024/64 = 16,即数组大小16个(0-15),16long 数组总共有 64*16 = 1024 位 。

所以,fd_set 是长度为 1024 的比特位数组,数组索引表示文件描述符。

在这里插入图片描述

如何设置这些描述符集合
void FD_CLR(int fd, fd_set *set); 
int FD_ISSET(int fd, fd_set *set); 
void FD_SET(int fd, fd_set *set);
void FD_ZERO(fd_set *set); 
  • FD_ZERO:用来将这个 set 的所有元素都设置成0
  • FD_SETset[fd] = 1;
  • FD_CLRset[fd] = 0;
  • FD_ISSETset[fd] == 1 ? true : false

timeval

struct timeval {
    
    
    long tv_sec; /* seconds */ 
    long tv_usec; /* microseconds */ 
};

最后一个参数是 timeval 时间结构体

  • ① 设置成空(NULL),表示如果没有 I/O 事件发生,则 select 一直等待下去。
  • ② 设置一个非零的值,这个表示等待固定的一段时间后从 select 阻塞调用中返回
  • ③ 将 tv_sectv_usec都设置成0,表示根本不等待,检测完毕立即返回。这种情况使用得比较少。

select 执行流程

select 底层调用流程图https://www.processon.com/view/link/62d3fdfce401fd259605006d

下面是简要描述:

int select (int n, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);

  • select 函数监视的文件描述符分 3 类,分别是 writefdsreadfdsexceptfds
  • 调用后 select 函数会阻塞,直到有描述符就绪(可读/可写/有except),或者超时(timeout 指定等待时间,如果立即返回设为 null 即可),函数返回。
  • select 函数返回后,可以通过遍历 fdset,来找到就绪的描述符。
  • fd_set是一个只包含长度为1024的比特位数组的结构体,数组的索引表示文件描述符,数组的值用10表示是否对当前索引的fd的 I/O 事件感兴趣。
  • 将这三个fd_set文件描述符拷贝到内核态的三个数组,并创建三个对应的结果数组
  • 内核中for循环不断遍历 3 个fd_set数组中所有的fd,看其是否有可读/可写 I/O 事件发生,如果有,将结果数组的对应比特位设置为1,如果没有 I/O 事件发生,将该fd对应进程放入等待队列中(每个fd都有一个进程等待队列,当fd发生 I/O 事件时会唤醒这个进程)
  • for循环结束后,如果一个fd都没有 I/O 事件发生,则当前调用select的进程进入休眠,让出 CPU 使用权,如果有某个fd发生 I/O 事件,就将结果数组返回,拷贝到用户态空间的三个fd_set的数组中

select 缺点

  • ① 支持的文件描述符的个数是有限的。在 Linux 系统中,select 的默认最大值为 1024

  • ② 内核会修改用户态传递的 readfdswritefds 参数的值

最佳实践:多路复用 + 非阻塞 IO

在这里插入图片描述

在这里插入图片描述

poll 多路复用

#include <poll.h>

int poll(struct pollfd *fds, nfds_t nfds, int timeout); 
  • fdspollfd 数组,存放应用进程所有感兴趣的fd及其相应的 IO 事件
  • nfdspollfd 数组的大小,可以大于1024,突破文件描述符个数限制
  • timeout:超时时间
    如果是一个 < 0 的数,表示在有事件发生之前永远等待;
    如果是 0,表示不阻塞进程,立即返回;
    如果是一个 > 0 的数,表示poll调用方等待指定的毫秒数后返回。

其中 pollfd 结构体定义如下:

struct pollfd {
    
     
    int fd;         /* file descriptor */ 
    short events;   /* requested events */ 
    short revents;  /* returned events */ 
};
  • fd:感兴趣的文件描述符
  • events:注册这个 fd 下感兴趣的 I/O 事件(可读事件、可写事件等)
  • revents:内核通知的这个fd下发生的 I/O 事件,称为 returned events

poll 中感兴趣的 IO 事件有哪些:

#define POLLIN Θx0001   /* any readable data available */
#define POLLPRI 0x0002  /* 00B/Urgent readable data */
#define POLLOUT 0x0004  /* file descriptor is writeable */

#define POLLERR 0x0008   /* 一些错误发送 */
#define POLLHUP Θx0010   /* 描述符挂起 */
#define POLLNVAL Θx0020  /* 请求的事件无效 */

在这里插入图片描述
在这里插入图片描述

poll 执行流程

poll 底层调用流程图:https://www.processon.com/view/link/62d3fe350e3e74607274c241

其大致流程跟 select 相似

select vs poll

int poll (struct pollfd *fds, unsigned int nfds, int timeout);

  • 不同于 select 使用三个位图来表示三个 fdset 的方式,poll 使用一个 pollfd 数组实现。
  • pollfd 结构体包含了要监视的文件描述符 fd, 对该fd感兴趣的 IO 事件 events 和内核通知 fd 下发生的 IO 事件 revents
  • 使用nfds设置数组pollfd的大小,没有最大数量限制。
  • select 函数一样,poll 返回后,需要轮询 pollfd 来获取就绪的描述符。

最主要的区别是以下两点:

  1. select 支持最大的 fds1024poll 则没有这个限制
  2. select 还需要遍历不感兴趣的 fd, 但是 poll 只关心感兴趣的 fd (不感兴趣的fd不存在pollfd数组中)

select/poll 的缺点

  • 每次调用 select/poll 时,都需要在用户态和内核态之间拷贝数据
  • 在内核中,select/poll 在检测 IO 事件时,只要有一个 fd 有事件发生,就会线性扫描所有的 fds,时间复杂度 O(n)

epoll 多路复用

epoll 是在 Linux 2.6 内核中提出的,是之前的 selectpoll 的增强版本。相对于 selectpoll 来说,epoll 更加灵活,没有描述符限制

在这里插入图片描述

从图中可以明显地看到,epoll 的性能是最好的,即使在多达 10000 个文件描述的情况下,其性能的下降和有10个文件描述符的情况相比,差别也不是很大。而随着文件描述符的增大,常规的 selectpoll 方法性能逐渐变得很差。

epoll 的使用

epoll_create:创建 epoll 实例
#include <sys/epoll.h> 

int epoll_create(int size); 

创建一个 epoll 实例,从 Linux 2.6.8 开始,参数 size 被忽略,但是必须大于0

关于这个参数size,在一开始的 epoll_create 实现中,是用来告知内核期望监控fd的数量,然后内核使用这部分的信息来初始化内核数据结构,在新的实现中,这个参数不再被需要,因为内核可以动态分配需要的内核数据结构。

我们只需要注意,每次将 size 设置成一个大于0的整数就可以了。

epoll_create() 返回一个文件描述符,这个文件描述符对应着这个epoll实例。Linux 中一切皆文件,epoll 也被看成是一个文件,在内核中也有 file 实例与之对应。

epoll_ctl:操作 epoll 实例中的 IO 事件
#include <sys/epoll.h>

int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); 
  • epfdepoll_create 创建的 epoll 实例对应的文件描述符
  • op:对 IO 事件的操作类型
    EPOLL_CTL_ADD: 向 epoll 实例添加 fd 对应的事件;
    EPOLL_CTL_DEL: 向 epoll 实例删除 fd 对应的事件;
    EPOLL_CTL_MOD:修改 fd 对应的事件。
  • fd:注册的事件的文件描述符,比如一个监听套接字(socket)
  • event:表示注册的事件类型

其中 epoll_event 结构体定义如下:

struct epoll_event {
    
     
    uint32_t events;   /* Epoll events */
    epoll_data_t data; /* User data variable*/ 
};

events 就表示事件类型,Epoll 中的 IO 事件类型主要有以下几种:

  • EPOLLIN:表示对应的文件描述字可以读
  • EPOLLOUT:表示对应的文件描述字可以写
  • EPOLLRDHUP:表示套接字的一端已经关闭,或者半关闭
  • EPOLLHUP:表示对应的文件描述字被挂起
  • EPOLLET:设置为edge-triggered,默认为 level-triggered
epoll_wait:等待内核 I/O 事件的分发
#include <sys/epoll.h>

int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
  • epfdepoll_create 创建的 epoll 实例对应的文件描述符

  • events: 接口的返回参数,内核返回给用户态应用进程所有需要处理的 I/O 事件,这是一个数组,数组中的每个元素都是一个需要待处理的 I/O 事件。epoll 会把发生的事件的集合从内核复制到 events 数组中。

    events数组是一个用户分配好大小的数组,数组长度大于等于maxevents。(events不可以是空指针,内核只负责把数据复制到这个 events 数组中,不会去帮助我们在用户态中分配内存)

    其中 events 表示具体的事件类型,事件类型取值和 epoll_ctl 可设置的值一样

  • maxevents:一个大于0的整数,表示本次 epoll_wait 可以返回的最大事件值。通常maxevents参数与预分配的events数组的大小是相等的。

  • timeout:超时事件,如果这个值设置为-1,表示不超时;如果设置为0则立即返回,即使没有任何 I/O 事件发生。设置 > 0 的数值,则表示等待一段时间内没有事件发生,则超时。

范例程序

参见目录 linux-C-net\nio 下的 C 代码,这份代码未经调试,不保证能正常运行,意在表述 Linux 下 IO 复用网络通信代码的基本模式。

epoll 执行流程

epoll 原理图https://www.processon.com/view/link/62d3fe5a7d9c08119ce3bbbc

  • epoll_cteate() : 内核会创建一个 eventpoll 结构体实例,返回一个文件描述符与 eventpoll 实例相对应

  • epoll_ctl():注册感兴趣的 fd,以及对该 fd 感兴趣的事件类型

  • epoll_wait():等待内核 IO 事件分发,返回值表示要处理 IO 事件的数量,最大不超过 maxevents,需要返回给用户态的所有需要处理的 IO 事件存放在events数组中,events数组的大小由epoll_wait()返回值决定。

  • 用户注册的fd有 IO 事件发生时,就会将其对应的 epitem 挂到一个双向链表rdllist中(位于eventpoll 结构体中)

  • epoll_wait 就是在一个循环中不断查看这个rdllist链表中是否有就绪事件,如果有,就将就绪事件返回,拷贝到用户空间中,如果没有,当前进程就进入休眠,CPU 被调度给其他进程使用

  • 进程被唤醒的条件:
    1)进程超时
    2)进程收到一个signal信号
    3)某个fd上有事件发生
    4)当前进程被CPU重新调度

epoll vs select/poll

select/poll 的缺点:

  • ① 每次调用 select/poll 时都需要在用户态/内核态之间进行拷贝数据

  • ② 在内核中,select/poll 在检测 IO 事件时,只要有一个 fd 有事件发生,就会线性扫描所有的 fds,时间复杂度 O(n)

与 select/poll 的缺点相比,epoll 的高效之处是:

  • 将应用进程关心的 fd 直接维护在内核中,不再进行用户态和内核态间的拷贝(使用红黑树维护,高效增删改)
  • epoll 只处理有 IO 事件发生的 fd,不会扫描所有的 fds,时间复杂度 O(1)

在这里插入图片描述

条件触发 和 边缘触发

条件触发(Level_triggered):又叫水平触发,当被监控的文件描述符上有可读写事件发生时,epoll_wait()会通知处理程序去读写。如果这次没有把数据一次性全部读写完(如读写缓冲区太小),那么下次调用 epoll_wait() 时,它还会通知你在上没读写完的文件描述符上继续读写,当然如果你一直不去读写,它会一直通知你!!!如果系统中有大量你不需要读写的就绪文件描述符,而它们每次都会返回,这样会大大降低处理程序检索自己关心的就绪文件描述符的效率!!!

边缘触发(Edge_triggered):当被监控的文件描述符上有可读写事件发生时,epoll_wait() 会通知处理程序去读写。如果这次没有把数据全部读写完(如读写缓冲区太小),那么下次调用 epoll_wait() 时,它不会通知你,也就是它只会通知你一次,直到该文件描述符上出现第二次可读写事件才会通知你!!!这种模式比水平触发效率高,系统不会充斥大量你不关心的就绪文件描述符!!

总结:

  • 条件触发:只要满足事件的条件,比如有数据需要读,就一直不断的把这个事件传递给用户
  • 边缘触发:只有第一次满足条件的时候才触发,之后就不会再传递同样的事件了
  • 边缘触发的效率比条件触发的效率高,epoll 支持边缘触发和条件触发,默认是条件触发,select 和 poll 都是条件触发

epoll 高效原理和底层机制详细分析

总述:

  • 当某一进程调用 epoll_create() 方法时,Linux 内核会创建一个 eventpoll 结构体,在内核 cache 里建了个红黑树用于存储以后 epoll_ctl() 传来的 socket 外,还会再建立一个 rdllist 双向链表,用于存储准备就绪的事件,当 epoll_wait() 调用时,仅仅观察这个 rdllist 双向链表里有没有数据即可。有数据就返回,没有数据就 sleep,等到 timeout 时间到后即使链表没数据也返回。

  • 同时,所有添加到 epoll 中的事件都会与设备(如网卡)驱动程序建立回调关系,也就是说相应事件的发生时会调用这里的回调方法。这个回调方法在内核中叫做 ep_poll_callback,它会把这样的事件放到上面的 rdllist 双向链表中。

  • 当调用 epoll_wait() 检查是否有发生事件的连接时,只是检查 eventpoll 对象中的 rdllist 双向链表是否有 epitem 元素而已,如果 rdllist 链表不为空,则这里的事件复制到用户态内存(使用共享内存提高效率)中,同时将事件数量返回给用户。因此 epoll_wait() 效率非常高,可以轻易地处理百万级别的并发连接。

从网卡接收数据说起

一个典型的计算机结构图,计算机由 CPU、存储器(内存)、网络接口等部件组成。了解 epoll 本质的第一步,要从硬件的角度看计算机怎样接收网络数据。

在这里插入图片描述

网卡接收数据的过程:网卡收到网线传来的数据;经过硬件电路的传输;最终将数据写入到内存中的某个地址上。这个过程涉及到 DMA 传输、IO 通路选择等硬件有关的知识,但我们只需知道:网卡会把接收到的数据写入内存。操作系统就可以去读取它们。

如何知道接收了数据?

CPU 的如何知道网络上有数据要接收?很简单,使用中断机制

进程阻塞

了解 epoll 本质,要从操作系统进程调度的角度来看数据接收。阻塞是进程调度的关键一环,指的是进程在等待某事件(如接收到网络数据)发生之前的等待状态,recv、select 和 epoll 都是阻塞方法。了解“进程阻塞为什么不占用 cpu资源?”,也就能够了解这一步。

为简单起见,我们从普通的 recv 接收开始分析,先看看下面代码:

int s = socket(AF_INET, SOCK_STREAM, 0); // 创建 socket
bind(s, ...)   // 绑定
listen(s, ...) // 监听
int c = accept(s, ...) // 接受客户端连接
recv(c, ...); // 接收客户端数据
printf(...)  // 将数据打印出来

这是一段最基础的网络编程代码,先新建 socket 对象,依次调用 bindlistenaccept,最后调用 recv 接收数据。recv 是个阻塞方法,当程序运行到 recv 时,它会一直等待,直到接收到数据才往下执行。

那么阻塞的原理是什么?

操作系统为了支持多任务,实现了进程调度的功能,会把进程分为“运行”和“等待”等几种状态。运行状态是进程获得 cpu 使用权,正在执行代码的状态;等待状态是阻塞状态,比如上述程序运行到 recv 时,程序会从运行状态变为等待状态,接收到数据后又变回运行状态。操作系统会分时执行各个运行状态的进程,由于速度很快,看上去就像是同时执行多个任务。

下图中的计算机中运行着 A、B、C 三个进程,其中进程 A 执行着上述基础网络程序,一开始,这 3 个进程都被操作系统的工作队列所引用,处于运行状态,会分时执行。
在这里插入图片描述

当进程 A 执行到创建 socket 的语句时,操作系统会创建一个由文件系统管理的 socket 对象。这个 socket 对象包含了发送缓冲区、接收缓冲区、等待队列等成员。等待队列是个非常重要的结构,它指向所有需要等待该 socket 事件的进程。

当程序执行到 recv 时,操作系统会将进程 A 从工作队列移动到该 socket 的等待队列中(如下图)。由于工作队列只剩下了进程 B 和 C,依据进程调度,cpu 会轮流执行这两个进程的程序,不会执行进程 A 的程序。所以进程 A 被阻塞,不会往下执行代码,也不会占用 cpu 资源。

在这里插入图片描述

操作系统添加等待队列只是添加了对这个“等待中”进程的引用,以便在接收到数据时获取进程对象、将其唤醒,而非直接将进程管理纳入自己之下。上图为了方便说明,直接将进程挂到等待队列之下。

当 socket 接收到数据后,操作系统将该 socket 等待队列上的进程重新放回到工作队列,该进程变成运行状态,继续执行代码。也由于 socket 的接收缓冲区已经有了数据,recv 可以返回接收到的数据。

内核接收网络数据全过程

在这里插入图片描述

进程在 recv 阻塞期间,计算机收到了对端传送的数据(步骤①)。数据经由网卡传送到内存(步骤②),然后网卡通过中断信号通知 cpu 有数据到达,cpu 执行中断程序(步骤③)。此处的中断程序主要有两项功能,先将网络数据写入到对应 socket 的接收缓冲区里面(步骤④),再唤醒进程 A(步骤⑤),重新将
进程 A 放入工作队列中。

思考下,操作系统如何知道网络数据对应于哪个 socket?

  • 因为一个 socket 对应着一个端口号,而网络数据包中包含了 ip端口的信息,内核可以通过端口号找到对应的 socket。当然,为了提高处理速度,操作系统会维护端口号到 socket 的索引结构,以快速读取。

思考下,如何同时监视多个 socket 的数据?

同时监视多个 socket 的简单方法

服务端需要管理多个客户端连接,而 recv 只能监视单个 socket,这种矛盾下,人们开始寻找监视多个 socket 的方法。epoll 的要义是高效的监视多个 socket。从历史发展角度看,必然先出现一种不太高效的方法,人们再加以改进。只有先理解了不太高效的方法,才能够理解 epoll 的本质。

假如能够预先传入一个 socket 列表,如果列表中的 socket 都没有数据,挂起进程,直到有一个 socket 收到数据,唤醒进程。这种方法很直接,也是 select 的设计思想。

为方便理解,我们先复习 select 的用法。在如下的代码中,先准备一个数组(下面代码中的 fds),让 fds 存放着所有需要监视的 socket。然后调用 select,如果 fds 中的所有 socket 都没有数据,select 会阻塞,直到有一个 socket 接收到数据,select 返回,唤醒进程。用户可以遍历 fds,通过 FD_ISSET 判断具体哪个socket 收到数据,然后做出处理。

int fds[] = 存放需要监听的 socket
while(1) {
    
    
    int n = select(..., fds, ...)
    for(int i=0; i < fds.count; i++) {
    
    
        if (FD_ISSET(fds[i], ...)) {
    
    
            // fds[i]的数据处理
        }
    }
}

select 的实现思路很直接。假如程序同时监视 sock1、sock2 和 sock3 三个socket,那么在调用 select 之后,操作系统把进程 A 分别加入这三个 socket 的等待队列中。

在这里插入图片描述

当任何一个 socket 收到数据后,中断程序将唤起进程。所谓唤起进程,就是将进程从所有的等待队列中移除,加入到工作队列里面。

经由这些步骤,当进程 A 被唤醒后,它知道至少有一个 socket 接收了数据。程序只需遍历一遍 socket 列表,就可以得到就绪的 socket。

这种简单方式行之有效,在几乎所有操作系统都有对应的实现。

但是简单的方法往往有缺点,主要是:

  • 其一,每次调用 select 都需要将进程加入到所有被监视 socket 的等待队列,每次唤醒都需要从每个队列中移除,都必须要进行遍历。而且每次都要将整个 fds 列表传递给内核,有一定的开销。正是因为遍历操作开销大,出于效率的考量,才会规定 select 的最大监视数量,默认只能监视 1024 个 socket。

  • 其二,进程被唤醒后,程序并不知道哪些 socket 收到数据,还需要遍历一次。

那么,有没有减少遍历的方法?有没有保存就绪 socket 的方法?这两个问题便是 epoll 技术要解决的。

当然,当程序调用 select 时,内核会先遍历一遍 socket,如果有一个以上的 socket 接收缓冲区有数据,那么 select 直接返回,不会阻塞。这也是为什么 select 的返回值有可能大于 1 的原因之一。如果没有 socket 有数据,进程才会阻塞。

epoll 的设计思路

epoll 是在 select 出现 N 多年后才被发明的,是 select 和 poll 的增强版本。

epoll 通过以下一些措施来改进效率:

  • 措施一:功能分离

    select 低效的原因之一是将“维护等待队列”和“阻塞进程”两个步骤合二为一。每次调用 select 都需要这两步操作,然而大多数应用场景中,需要监视的 socket 相对固定,并不需要每次都修改。epoll 将这两个操作分开,先用 epoll_ctl 维护等待队列,再调用 epoll_wait 阻塞进程。显而易见的,效率就能得到提升。

相比 select,epoll 拆分了功能。

为方便理解后续的内容,我们先复习下 epoll 的用法。如下的代码中,先用 epoll_create 创建一个 epoll 对象 epfd,再通过 epoll_ctl 将需要监视的 socket 添加到 epfd 中,最后调用 epoll_wait 等待数据。

int epfd = epoll_create(...);
epoll_ctl(epfd, ...); // 将所有需要监听的 socket 添加到 epfd 中
while(1) {
    
    
    int n = epoll_wait(...)
    for (接收到数据的 socket) {
    
    
        // 处理
    }
}

功能分离,使得 epoll 有了优化的可能。

  • 措施二:就绪列表

    select 低效的另一个原因在于程序不知道哪些 socket 收到数据,只能一个个遍历。如果内核维护一个“就绪列表”,引用收到数据的 socket,就能避免遍历。

epoll 的原理和流程

当某个进程调用 epoll_create 方法时,内核会创建一个 eventpoll 对象(也就是程序中 epfd 所代表的对象)。eventpoll 对象也是文件系统中的一员,和 socket 一样,它也会有等待队列。

创建 epoll 对象后,可以用 epoll_ctl 添加或删除所要监听的 socket。以添加 socket 为例,如下图,如果通过 epoll_ctl 添加 sock1、sock2 和 sock3 的监视,内核会将 eventpoll 添加到这三个 socket 的等待队列中。

在这里插入图片描述

当 socket 收到数据后,中断程序会操作 eventpoll 对象,而不是直接操作进程。中断程序会给 eventpoll 的“就绪列表”添加 socket 引用。如下图展示的是 sock2 和 sock3 收到数据后,中断程序让 rdlist 引用这两个 socket。

在这里插入图片描述

eventpoll 对象相当于是 socket 和进程之间的中介,socket 的数据接收并不直接影响进程,而是通过改变 eventpoll 的就绪列表来改变进程状态

当程序执行到 epoll_wait 时,如果 rdlist 已经引用了 socket,那么 epoll_wait 直接返回,如果 rdlist 为空,阻塞进程。

假设计算机中正在运行进程 A 和进程 B,在某时刻进程 A 运行到了 epoll_wait 语句。如下图所示,内核会将进程 A 放入 eventpoll 的等待队列中,阻塞进程。

在这里插入图片描述

当 socket 接收到数据,中断程序一方面修改 rdlist,另一方面唤醒 eventpoll 等待队列中的进程,进程 A 再次进入运行状态。也因为 rdlist 的存在,进程 A 可以知道哪些 socket 发生了变化。

epoll 的实现细节

现在对 epoll 的本质已经有一定的了解。但我们还留有一个问题,eventpoll 的数据结构是什么样子?

思考两个问题,就绪队列应该应使用什么数据结构?eventpoll 应使用什么数据结构来管理通过 epoll_ctl 添加或删除的 socket?

struct eventpoll {
    
    
    /*
    * This mutex is used to ensure that files are not removed
    * while epoll is using them. This is held during the event 
    * collection loop, the file cleanup path, the epoll file exit
    * code and the ctl operations. 
    */
    struct mutex mtx;

    /* Wait queue used by sys_epoll_wait()*/ 
    wait_queue_head_t wq;

    /* Wait queue used by file->pol1()*/ 
    wait_queue_head_t poll_wait;

    /* List of ready file descriptors */ 
    struct list_head rdllist;

    /* Lock which protects rdllist and ovflist */ 
    rwlock_t lock;

    /* RB tree root used to store monitored fd structs */ 
    struct rb_root_cached rbr;

    /*
    * This is a single linked list that chains all the "struct epitem" that
    * happened while transferring ready events to userspace w/out
    * holding ->lock.
    */
    struct epitem *ovflist;

    /* wakeup_source used when ep_scan_ready_list is running */ 
    struct wakeup_source *wsj
    /* The user that created the eventpoll descriptor */ 
    struct user_struct *user;

    struct file *file;

    /* used to optimize loop detection check */ 
    u64 gen;
}

就绪列表引用着就绪的 socket,所以它应能够快速的插入数据。

程序可能随时调用 epoll_ctl 添加监视 socket,也可能随时删除。当删除时,若该 socket 已经存放在就绪列表中,它也应该被移除。

所以就绪列表应是一种能够快速插入和删除的数据结构。双向链表就是这样一种数据结构,epoll 使用双向链表来实现就绪队列,也就是 Linux 源码中的rdllist

/* List of ready file descriptors */ 
struct list_head rdllist;

既然 epoll 将“维护监视队列”和“进程阻塞”分离,也意味着需要有个数据结构来保存监视的 socket。至少要方便的添加和移除,还要便于搜索,以避免重复添加。红黑树是一种自平衡二叉查找树,搜索、插入和删除时间复杂度都是 O(log(N)),效率较好。epoll 使用了红黑树作为索引结构,也就是 Linux 源码中的rbr

/* RB tree root used to store monitored fd structs */ 
struct rb_root_cached rbr;

eventpoll中的rbr成员变量指向红黑树的根节点,而rdlist成员变量指向双链表的头结点

因为操作系统要兼顾多种功能,以及由更多需要保存的数据,rdlist 并非直接引用 socket,而是通过 epitem 间接引用,红黑树的节点也是 epitem 对象

struct epitem {
    
    
	RB_ENTRY(epitem) rbn;
	/*  RB_ENTRY(epitem) rbn等价于
	struct {											
		struct type *rbe_left;		//指向左子树
		struct type *rbe_right;		//指向右子树
		struct type *rbe_parent;	//指向父节点
		int rbe_color;			    //该节点的颜色
	} rbn
	*/
 
	LIST_ENTRY(epitem) rdlink;
	/* LIST_ENTRY(epitem) rdlink等价于
	struct {									
		struct type *le_next;	//指向下个元素
		struct type **le_prev;	//前一个元素的地址
	}*/
 
	int rdy; //判断该节点是否同时存在与红黑树和双向链表中
	
	int sockfd; //socket句柄
	struct epoll_event event;  //存放用户填充的事件
};

在这里插入图片描述

结论

epoll 在 select 和 poll(poll 和 select 基本一样,有少量改进)的基础引入了 eventpoll 作为中间层,使用了红黑树和双向链表等先进的数据结构,是一种高效的多路复用技术。

猜你喜欢

转载自blog.csdn.net/lyabc123456/article/details/133345799
今日推荐