linux网络编程IO模型

   构建现代的服务器应用程序需要以某种方法同时接收数百、数千甚至数万个事件,无论它们是内部请求还是网络连接,都要有效地处理它们的操作。

     有许多解决方案,但事件驱动也被广泛应用到网络编程中。并大规模部署在高连接数高吞吐量的服务器程序中,如 http 服务器程序、ftp 服务器程序等。相比于传统的网络编程方式,事件驱动能够极大的降低资源占用,增大服务接待能力,并提高网络传输效率。

       这些事件驱动模型中, libevent 库和 libev库能够大大提高性能和事件处理能力。在本文中,我们要讨论在 UNIX/Linux 应用程序中使用和部署这些解决方案所用的基本结构和方法。libev 和 libevent 都可以在高性能应用程序中使用。

      在讨论libev 和 libevent之前,我们看看I/O模型演进变化历史

1、阻塞网络接口:处理单个客户端

      我们  第一次接触到的网络编程一般都是从  listen() send() recv() 等接口开始的。使用这些接口可以很方便的构建服务器  / 客户机的模型。

       阻塞I/O模型图:在调用recv()函数时,发生在内核中等待数据和复制数据的过程。


     当调用recv()函数时,系统首先查是否有准备好的数据。如果数据没有准备好,那么系统就处于等待状态。当数据准备好后,将数据从系统缓冲区复制到用户空间,然后该函数返回。在套接应用程序中,当调用recv()函数时,未必用户空间就已经存在数据,那么此时recv()函数就会处于等待状态。

       我们注意到,大部分的 socket 接口都是阻塞型的。所谓阻塞型接口是指系统调用(一般是 IO 接口)不返回调用结果并让当前线程一直阻塞,只有当该系统调用获得结果或者超时出错时才返回。

     实际上,除非特别指定,几乎所有的 IO 接口 ( 包括 socket 接口 ) 都是阻塞型的。这给网络编程带来了一个很大的问题,如在调用 send() 的同时,线程将被阻塞,在此期间,线程将无法执行任何运算或响应任何的网络请求。这给多客户机、多业务逻辑的网络编程带来了挑战。这时,很多程序员可能会选择多线程的方式来解决这个问题。

  使用阻塞模式的套接字,开发网络程序比较简单,容易实现。当希望能够立即发送和接收数据,且处理的套接字数量比较少的情况下,即一个一个处理客户端,服务器没什么压力,使用阻塞模式来开发网络程序比较合适。

      阻塞模式给网络编程带来了一个很大的问题,如在调用 send()的同时,线程将被阻塞,在此期间,线程将无法执行任何运算或响应任何的网络请求。如果很多客户端同时访问服务器,服务器就不能同时处理这些请求。这时,我们可能会选择多线程的方式来解决这个问题。

2、多线程/进程处理多个客户端

         应对多客户机的网络应用,最简单的解决方式是在服务器端使用多线程(或多进程)。多线程(或多进程)的目的是让每个连接都拥有独立的线程(或进程),这样任何一个连接的阻塞都不会影响其他的连接。

       具体使用多进程还是多线程,并没有一个特定的模式。传统意义上,进程的开销要远远大于线程,所以,如果需要同时为较多的客户机提供服务,则不推荐使用多进程;如果单个服务执行体需要消耗较多的 CPU 资源,譬如需要进行大规模或长时间的数据运算或文件访问,则进程较为安全。通常,使用 pthread_create () 创建新线程,fork() 创建新进程。即:

     (1)    a new Connection 进来,用 fork() 产生一个 Process 处理。 
     (2)   a new Connection 进来,用 pthread_create() 产生一个 Thread 处理。 

      多线程/进程服务器同时为多个客户机提供应答服务。模型如下:

     

       

    主线程持续等待客户端的连接请求,如果有连接,则创建新线程,并在新线程中提供为前例同样的问答服务。

  1. #include <stdio.h>
  2. #include <stdlib.h>
  3. #include <string.h>
  4. #include <unistd.h>
  5. #include <sys/socket.h>
  6. #include <netinet/in.h>
  7. #include <arpa/inet.h>
  8. void do_service(int conn);
  9. void err_log(string err, int sockfd) {
  10. perror( "binding"); close(sockfd); exit( -1);
  11. }
  12. int main(int argc, char *argv[])
  13. {
  14. unsigned short port = 8000;
  15. int sockfd;
  16. sockfd = socket(AF_INET, SOCK_STREAM, 0); // 创建通信端点:套接字
  17. if(sockfd < 0) {
  18. perror( "socket");
  19. exit( -1);
  20. }
  21. struct sockaddr_in my_addr;
  22. bzero(&my_addr, sizeof(my_addr));
  23. my_addr.sin_family = AF_INET;
  24. my_addr.sin_port = htons(port);
  25. my_addr.sin_addr.s_addr = htonl(INADDR_ANY);
  26. int err_log = bind(sockfd, (struct sockaddr*)&my_addr, sizeof(my_addr));
  27. if( err_log != 0) err_log( "binding");
  28. err_log = listen(sockfd, 10);
  29. if(err_log != 0) err_log( "listen");
  30. struct sockaddr_in peeraddr; //传出参数
  31. socklen_t peerlen = sizeof(peeraddr); //传入传出参数,必须有初始值
  32. int conn; // 已连接套接字(变为主动套接字,即可以主动connect)
  33. pid_t pid;
  34. while ( 1) {
  35. if ((conn = accept(sockfd, (struct sockaddr *)&peeraddr, &peerlen)) < 0) //3次握手完成的序列
  36. err_log( "accept error");
  37. printf( "recv connect ip=%s port=%d/n", inet_ntoa(peeraddr.sin_addr),ntohs(peeraddr.sin_port));
  38. pid = fork();
  39. if (pid == -1)
  40. err_log( "fork error");
  41. if (pid == 0) { // 子进程
  42. close(listenfd);
  43. do_service(conn);
  44. exit(EXIT_SUCCESS);
  45. }
  46. else
  47. close(conn); //父进程
  48. }
  49. return 0;
  50. }
  51. void do_service(int conn) {
  52. char recvbuf[ 1024];
  53. while ( 1) {
  54. memset(recvbuf, 0, sizeof(recvbuf));
  55. int ret = read(conn, recvbuf, sizeof(recvbuf));
  56. if (ret == 0) { //客户端关闭了
  57. printf( "client close/n");
  58. break;
  59. }
  60. else if (ret == -1)
  61. ERR_EXIT( "read error");
  62. fputs(recvbuf, stdout);
  63. write(conn, recvbuf, ret);
  64. }
  65. }


   很多初学者可能不明白为何一个 socket 可以 accept 多次。实际上,socket 的设计者可能特意为多客户机的情况留下了伏笔,让 accept() 能够返回一个新的 socket。下面是 accept 接口的原型:

int accept(int s, struct sockaddr *addr, socklen_t *addrlen);

     输入参数 s 是从 socket(),bind() 和 listen() 中沿用下来的 socket 句柄值。执行完 bind() 和 listen() 后,操作系统已经开始在指定的端口处监听所有的连接请求,如果有请求,则将该连接请求加入请求队列。调用 accept() 接口正是从 socket s 的请求队列抽取第一个连接信息,创建一个与 s 同类的新的 socket 返回句柄。新的 socket 句柄即是后续 read() 和 recv() 的输入参数。如果请求队列当前没有请求,则 accept() 将进入阻塞状态直到有请求进入队列。

     上述多线程的服务器模型似乎完美的解决了为多个客户机提供问答服务的要求,但其实并不尽然。如果要同时响应成百上千路的连接请求,则无论多线程还是多进程都会严重占据系统资源,降低系统对外界响应效率,而线程与进程本身也更容易进入假死状态。

      因此其缺点:

     1)用 fork() 的问题在于每一个 Connection 进来时的成本太高,如果同时接入的并发连接数太多容易进程数量很多,进程之间的切换开销会很大,同时对于老的内核(Linux)会产生雪崩效应。 

      2)用 Multi-thread 的问题在于 Thread-safe 与 Deadlock 问题难以解决,另外有 Memory-leak 的问题要处理,这个问题对于很多程序员来说无异于恶梦,尤其是对于连续服务器的服务器程序更是不可以接受。 如果才用 Event-based 的方式在于实做上不好写,尤其是要注意到事件产生时必须 Nonblocking,于是会需要实做 Buffering 的问题,而 Multi-thread 所会遇到的 Memory-leak 问题在这边会更严重。而在多 CPU 的系统上没有办法使用到所有的 CPU resource。 

       由此可能会考虑使用“线程池”或“连接池”。“线程池”旨在减少创建和销毁线程的频率,其维持一定合理数量的线程,并让空闲的线程重新承担新的执行任务。“连接池”维持连接的缓存池,尽量重用已有的连接、减少创建和关闭连接的频率。这两种技术都可以很好的降低系统开销,都被广泛应用很多大型系统,如apache,mysql数据库等。

      但是,“线程池”和“连接池”技术也只是在一定程度上缓解了频繁调用 IO 接口带来的资源占用。而且,所谓“池”始终有其上限,当请求大大超过上限时,“池”构成的系统对外界的响应并不比没有池的时候效果好多少。所以使用“池”必须考虑其面临的响应规模,并根据响应规模调整“池”的大小。

      对应上例中的所面临的可能同时出现的上千甚至上万次的客户端请求,“线程池”或“连接池”或许可以缓解部分压力,但是不能解决所有问题。因为多线程/进程导致过多的占用内存或 CPU等系统资源


3、非阻塞的服务器模型

        以上面临的很多问题,一定程度是 IO 接口的阻塞特性导致的。多线程是一个解决方案,还一个方案就是使用非阻塞的接口。

非阻塞的接口相比于阻塞型接口的显著差异在于,在被调用之后立即返回。使用如下的函数可以将某句柄 fd 设为非阻塞状态。

我们可以使用 fcntl(fd, F_SETFL, flag | O_NONBLOCK); 将套接字标志变成非阻塞:

fcntl( fd, F_SETFL, O_NONBLOCK );

下面将给出只用一个线程,但能够同时从多个连接中检测数据是否送达,并且接受数据。

使用非阻塞的接收数据模型:
       

      在非阻塞状态下,recv() 接口在被调用后立即返回,返回值代表了不同的含义。

   调用recv,如果设备暂时没有数据可读就返回-1,同时置errno为EWOULDBLOCK(或者EAGAIN,这两个宏定义的值相同),表示本来应该阻塞在这里(would block,虚拟语气),事实上并没有阻塞而是直接返回错误,调用者应该试着再读一次(again)。这种行为方式称为轮询(Poll),调用者只是查询一下,而不是阻塞在这里死等

如在本例中,

  • recv() 返回值大于 0,表示接受数据完毕,返回值即是接受到的字节数;
  • recv() 返回 0,表示连接已经正常断开;
  • recv() 返回 -1,且 errno 等于 EAGAIN,表示 recv 操作还没执行完成;
  • recv() 返回 -1,且 errno 不等于 EAGAIN,表示 recv 操作遇到系统错误 errno。

这样可以同时监视多个设备

while(1){

  非阻塞read(设备1);

  if(设备1有数据到达)

      处理数据;

  非阻塞read(设备2);

  if(设备2有数据到达)

     处理数据;

   ..............................

}

如果read(设备1)是阻塞的,那么只要设备1没有数据到达就会一直阻塞在设备1的read调用上,即使设备2有数据到达也不能处理,使用非阻塞I/O就可以避免设备2得不到及时处理。

类似一个快递的例子:这里使用忙轮询的方法:每隔1微妙(while(1)几乎不间断)到A楼一层(内核缓冲区)去看快递来了没有。如果没来,立即返回。而快递来了,就放在A楼一层,等你去取。

非阻塞I/O有一个缺点,如果所有设备都一直没有数据到达,调用者需要反复查询做无用功,如果阻塞在那里,操作系统可以调度别的进程执行,就不会做无用功了,在实际应用中非阻塞I/O模型比较少用。

       可以看到服务器线程可以通过循环调用 recv() 接口,可以在单个线程内实现对所有连接的数据接收工作。

       但是上述模型绝不被推荐。因为,循环调用 recv() 将大幅度推高 CPU 占用率;此外,在这个方案中,recv() 更多的是起到检测“操作是否完成”的作用,实际操作系统提供了更为高效的检测“操作是否完成“作用的接口,例如 select()。

4、IO复用事件驱动服务器模型

     简介:主要是select和epoll;对一个IO端口,两次调用,两次返回,比阻塞IO并没有什么优越性;关键是能实现同时对多个IO端口进行监听;

      I/O复用模型会用到select、poll、epoll函数,这几个函数也会使进程阻塞,但是和阻塞I/O所不同的的,这两个函数可以同时阻塞多个I/O操作。而且可以同时对多个读操作,多个写操作的I/O函数进行检测,直到有数据可读或可写时,才真正调用I/O操作函数

      我们先详解select:

        SELECT函数进行IO复用服务器模型的原理是:当一个客户端连接上服务器时,服务器就将其连接的fd加入fd_set集合,等到这个连接准备好读或写的时候,就通知程序进行IO操作,与客户端进行数据通信。

        大部分 Unix/Linux 都支持 select 函数,该函数用于探测多个文件句柄的状态变化。

4.1 select 接口的原型:

  1. FD_ZERO( int fd, fd_set* fds)
  2. FD_SET( int fd, fd_set* fds)
  3. FD_ISSET( int fd, fd_set* fds)
  4. FD_CLR( int fd, fd_set* fds)
  5. int select(
  6. int maxfdp, //Winsock中此参数无意义
  7. fd_set* readfds, //进行可读检测的Socket
  8. fd_set* writefds, //进行可写检测的Socket
  9. fd_set* exceptfds, //进行异常检测的Socket
  10. const struct timeval* timeout //非阻塞模式中设置最大等待时间
  11. )

参数列表:
int maxfdp :是一个整数值,意思是“最大fd加1(max fd plus 1). 在三个描述符集(readfds, writefds, exceptfds)中找出最高描述符  

编号值,然后加 1也可将maxfdp设置为 FD_SETSIZE,这是一个< sys/types.h >中的常数,它说明了最大的描述符数(经常是    256或1024) 。但是对大多数应用程序而言,此值太大了。确实,大多数应用程序只应用 3 ~ 1 0个描述符。如果将第三个参数设置为最高描述符编号值加 1,内核就只需在此范围内寻找打开的位,而不必在数百位的大范围内搜索。

fd_set *readfds: 是指向fd_set结构的指针,这个集合中应该包括文件描述符,我们是要监视这些文件描述符的读变化的,即我们关

心是否可以从这些文件中读取数据了,如果这个集合中有一个文件可读,select就会返回一个大于0的值,表示有文件可读,如果没有可读的文件,则根据timeout参数再判断是否超时,若超出timeout的时间,select返回0,若发生错误返回负值。可以传入NULL值,表示不关心任何文件的读变化。 

fd_set *writefds: 是指向fd_set结构的指针,这个集合中应该包括文件描述符,我们是要监视这些文件描述符的写变化的,即我们关

心是否可以向这些文件中写入数据了,如果这个集合中有一个文件可写,select就会返回一个大于0的值,表示有文件可写,如果没有可写的文件,则根据timeout参数再判断是否超时,若超出timeout的时间,select返回0,若发生错误返回负值。可以传入NULL值,表示不关心任何文件的写变化。 

fd_set *errorfds:  同上面两个参数的意图,用来监视文件错误异常。 

      readfds , writefds,*errorfds每个描述符集存放在一个fd_set 数据类型中.如图:

      

struct timeval* timeout :是select的超时时间,这个参数至关重要,它可以使select处于三种状态:
第一,若将NULL以形参传入,即不传入时间结构,就是将select置于阻塞状态,一定等到监视文件描述符集合中某个文件描述符发生变化为止;
第二,若将时间值设为0秒0毫秒,就变成一个纯粹的非阻塞函数,不管文件描述符是否有变化,都立刻返回继续执行,文件无变化返回0,有变化返回一个正值;
第三,timeout的值大于0,这就是等待的超时时间,即 select在timeout时间内阻塞,超时时间之内有事件到来就返回了,否则在超时后不管怎样一定返回,返回值同上述。

4.2 使用select库的步骤是

(1)创建所关注的事件的描述符集合(fd_set),对于一个描述符,可以关注其上面的读(read)、写(write)、异常(exception)事件,所以通常,要创建三个fd_set, 一个用来收集关注读事件的描述符,一个用来收集关注写事件的描述符,另外一个用来收集关注异常事件的描述符集合。
(2)调用select(),等待事件发生。这里需要注意的一点是,select的阻塞与是否设置非阻塞I/O是没有关系的。
(3)轮询所有fd_set中的每一个fd ,检查是否有相应的事件发生,如果有,就进行处理。
  1. /* 可读、可写、异常三种文件描述符集的申明和初始化。*/
  2. fd_set readfds, writefds, exceptionfds;
  3. FD_ZERO(&readfds);
  4. FD_ZERO(&writefds);
  5. FD_ZERO(&exceptionfds);
  6. int max_fd;
  7. /* socket配置和监听。*/
  8. sock = socket(...);
  9. bind(sock, ...);
  10. listen(sock, ...);
  11. /* 对socket描述符上发生关心的事件进行注册。*/
  12. FD_SET(&readfds, sock);
  13. max_fd = sock;
  14. while( 1) {
  15. int i;
  16. fd_set r,w,e;
  17. /* 为了重复使用readfds 、writefds、exceptionfds,将它们拷贝到临时变量内。*/
  18. memcpy(&r, &readfds, sizeof(fd_set));
  19. memcpy(&w, &writefds, sizeof(fd_set));
  20. memcpy(&e, &exceptionfds, sizeof(fd_set));
  21. /* 利用临时变量调用select()阻塞等待,timeout=null表示等待时间为永远等待直到发生事件。*/
  22. select(max_fd + 1, &r, &w, &e, NULL);
  23. /* 测试是否有客户端发起连接请求,如果有则接受并把新建的描述符加入监控。*/
  24. if(FD_ISSET(&r, sock)){
  25. new_sock = accept(sock, ...);
  26. FD_SET(&readfds, new_sock);
  27. FD_SET(&writefds, new_sock);
  28. max_fd = MAX(max_fd, new_sock);
  29. }
  30. /* 对其它描述符发生的事件进行适当处理。描述符依次递增,最大值各系统有所不同(比如在作者系统上最大为1024),
  31. 在linux可以用命令ulimit -a查看(用ulimit命令也对该值进行修改)。
  32. 在freebsd下,用sysctl -a | grep kern.maxfilesperproc来查询和修改。*/
  33. for(i= sock+ 1; i <max_fd+ 1; ++i) {
  34. if(FD_ISSET(&r, i))
  35. doReadAction(i);
  36. if(FD_ISSET(&w, i))
  37. doWriteAction(i);
  38. }
  39. }

   

4.3 和select模型紧密结合的四个宏

FD_ZERO(int fd, fd_set* fds)  //清除其所有位
FD_SET(int fd, fd_set* fds)  //在某 fd_set 中标记一个fd的对应位为1
FD_ISSET(int fd, fd_set* fds) // 测试该集中的一个给定位是否仍旧设置
FD_CLR(int fd, fd_set* fds)  //删除对应位

      这里,fd_set 类型可以简单的理解为按 bit 位标记句柄的队列,例如要在某 fd_set 中标记一个值为 16 的句柄,则该 fd_set 的第 16 个 bit 位被标记为 1。具体的置位、验证可使用 FD_SET、FD_ISSET 等宏实现。

        

      例如,编写下列代码: 

  1. fd_setreadset,writeset;
  2. FD_ZERO(&readset);
  3. FD_ZERO(&writeset);
  4. FD_SET( 0,&readset);
  5. FD_SET( 3,&readset);
  6. FD_SET( 1,&writeset);
  7. FD_SET( 2,&writeset);
  8. select( 4,&readset,&writeset, NULL, NULL);
然后,下图显示了这两个描述符集的情况:

       

因为描述符编号从0开始,所以要在最大描述符编号值上加1。第一个参数实际上是要检查的描述符数(从描述符0开始)。

4.4  select有三个可能的返回值

(1)返回值-1表示出错。这是可能发生的,例如在所指定的描述符都没有准备好时捕捉到一个信号。
(2)返回值0表示没有描述符准备好。若指定的描述符都没有准备好,而且指定的时间已经超过,则发生这种情况。
(3)返回一个正值说明了已经准备好的描述符数,在这种情况下,三个描述符集中仍旧打开的位是对应于已准备好的描述符位。


4.5 使用select()的接收数据模型图:     

     下面将重新模拟上例中从多个客户端接收数据的模型。

     使用select()的接收数据模型
     

       上述模型只是描述了使用 select() 接口同时从多个客户端接收数据的过程;由于 select() 接口可以同时对多个句柄进行读状态、写状态和错误状态的探测,所以可以很容易构建为多个客户端提供独立问答服务的服务器系统。

      使用select()接口的基于事件驱动的服务器模型

      


    这里需要指出的是,客户端的一个 connect() 操作,将在服务器端激发一个“可读事件”,所以 select() 也能探测来自客户端的 connect() 行为。

       上述模型中,最关键的地方是如何动态维护 select() 的三个参数 readfds、writefds 和 exceptfds。作为输入参数,readfds 应该标记所有的需要探测的“可读事件”的句柄,其中永远包括那个探测 connect() 的那个“母”句柄;同时,writefds 和 exceptfds 应该标记所有需要探测的“可写事件”和“错误事件”的句柄 ( 使用 FD_SET() 标记 )。

       作为输出参数,readfds、writefds 和 exceptfds 中的保存了 select() 捕捉到的所有事件的句柄值。程序员需要检查的所有的标记位 ( 使用 FD_ISSET() 检查 ),以确定到底哪些句柄发生了事件。

         上述模型主要模拟的是“一问一答”的服务流程,所以,如果 select() 发现某句柄捕捉到了“可读事件”,服务器程序应及时做 recv() 操作,并根据接收到的数据准备好待发送数据,并将对应的句柄值加入 writefds,准备下一次的“可写事件”的 select() 探测。同样,如果 select() 发现某句柄捕捉到“可写事件”,则程序应及时做 send() 操作,并准备好下一次的“可读事件”探测准备。下图描述的是上述模型中的一个执行周期。

        一个执行周期

       

      这种模型的特征在于每一个执行周期都会探测一次或一组事件,一个特定的事件会触发某个特定的响应。我们可以将这种模型归类为“事件驱动模型”。

4.6 select的优缺点

      相比其他模型,使用 select() 的事件驱动模型只用单线程(进程)执行,占用资源少,不消耗太多 CPU,同时能够为多客户端提供服务。如果试图建立一个简单的事件驱动的服务器程序,这个模型有一定的参考价值。但这个模型依旧有着很多问题。

      select的缺点:

   (1)单个进程能够监视的文件描述符的数量存在最大限制

   (2)select需要复制大量的句柄数据结构,产生巨大的开销 

    (3)select返回的是含有整个句柄的列表,应用程序需要消耗大量时间去轮询各个句柄才能发现哪些句柄发生了事件

    (4)select的触发方式是水平触发,应用程序如果没有完成对一个已经就绪的文件描述符进行IO操作,那么之后每次select调用还是会将这些文件描述符通知进程。相对应方式的是边缘触发。

       (6)   该模型将事件探测和事件响应夹杂在一起,一旦事件响应的执行体庞大,则对整个模型是灾难性的。如下例,庞大的执行体 1 的将直接导致响应事件 2 的执行体迟迟得不到执行,并在很大程度上降低了事件探测的及时性。

      庞大的执行体对使用select()的事件驱动模型的影响
      


       很多操作系统提供了更为高效的接口,如 linux 提供了 epoll,BSD 提供了 kqueue,Solaris 提供了 /dev/poll …。如果需要实现更高效的服务器程序,类似 epoll 这样的接口更被推荐。


4.7 poll事件模型

poll库是在linux2.1.23中引入的,windows平台不支持poll. poll与select的基本方式相同,都是先创建一个关注事件的描述符的集合,然后再去等待这些事件发生,然后再轮询描述符集合,检查有没有事件发生,如果有,就进行处理。因此,poll有着与select相似的处理流程:
(1)创建描述符集合,设置关注的事件
(2)调用poll(),等待事件发生。下面是poll的原型:
        int poll(struct pollfd * fds, nfds_t  nfds, int  timeout);
        类似select,poll也可以设置等待时间,效果与select一样。
(3)轮询描述符集合,检查事件,处理事件。
  在这里要说明的是,poll与select的主要区别在与,select需要为读、写、异常事件分别创建一个描述符集合,最后 轮询的时候,需要分别轮询这三个集合。而poll只需要一个集合,在每个描述符对应的结构上分别设置读、写、异常事件,最后 轮询的时候,可以同时检查三种事件。

4.7 epoll事件模型

epoll是和上面的poll和select不同的一个事件驱动库,它是在linux 2.5.44中引入的,它属于poll的一个变种。
poll和select库,它们的最大的问题就在于效率。它们的处理方式都是创建一个事件列表,然后把这个列表发给 内核,返回的时候,再去 轮询检查这个列表,这样在描述符比较多的应用中,效率就显得比较低下了。
 epoll是一种比较好的做法,它把描述符列表交给 内核,一旦有事件发生,内核把发生事件的描述符列表通知给进程,这样就避免了 轮询整个描述符列表。下面对epoll的使用进行说明:
(1).创建一个epoll描述符,调用epoll_create()来完成,epoll_create()有一个整型的参数size,用来告诉 内核,要创建一个有size个描述符的事件列表(集合)
int epoll_create(int  size)
(2).给描述符设置所关注的事件,并把它添加到内核的事件列表中去,这里需要调用epoll_ctl()来完成。
int epoll_ctl(int  epfd, int  op, int  fd, struct epoll_event * event)
这里op参数有三种,分别代表三种操作:
a. EPOLL_CTL_ADD, 把要关注的描述符和对其关注的事件的结构,添加到内核的事件列表中去
b. EPOLL_CTL_DEL,把先前添加的描述符和对其关注的事件的结构,从 内核的事件列表中去除
c. EPOLL_CTL_MOD,修改先前添加到 内核的事件列表中的描述符的关注的事件
(3). 等待 内核通知事件发生,得到发生事件的描述符的结构列表,该过程由epoll_wait()完成。得到事件列表后,就可以进行事件处理了。
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout)
在使用epoll的时候,有一个需要特别注意的地方,那就是epoll触发事件的文件有两种方式:
(1)Edge Triggered(ET),在这种情况下,事件是由数据到达边界触发的。所以要在处理读、写的时候,要不断的调用read/write,直到它们返回EAGAIN,然后再去epoll_wait(),等待下次事件的发生。这种方式适用要遵从下面的原则:
       a. 使用非阻塞的I/O;b.直到read/write返回EAGAIN时,才去等待下一次事件的发生。
(2)Level Triggered(LT), 在这种情况下,epoll和poll类似,但处理速度上可能比poll快。在这种情况下,只要有数据没有读、写完,调用epoll_wait()的时候,就会有事件被触发。
         
  1. /* 新建并初始化文件描述符集。*/
  2. struct epoll_event ev;
  3. struct epoll_event events[MAX_EVENTS];
  4. /* 创建epoll句柄。*/
  5. int epfd = epoll_create(MAX_EVENTS);
  6. /* socket配置和监听。*/
  7. sock = socket(...);
  8. bind(sock, ...);
  9. listen(sock, ...);
  10. /* 对socket描述符上发生关心的事件进行注册。*/
  11. ev.events = EPOLLIN;
  12. ev.data.fd = sock;
  13. epoll_ctl(epfd, EPOLL_CTL_ADD, sock, &ev);
  14. while(1) {
  15. int i;
  16. /*调用epoll_wait()阻塞等待,等待时间为永远等待直到发生事件。*/
  17. int n = epoll_wait(epfd, events, MAX_EVENTS, -1);
  18. for(i=0; i <n; ++i) {
  19. /* 测试是否有客户端发起连接请求,如果有则接受并把新建的描述符加入监控。*/
  20. if(events.data.fd == sock) {
  21. if(events.events & POLLIN){
  22. new_sock = accept(sock, ...);
  23. ev.events = EPOLLIN | POLLOUT;
  24. ev.data.fd = new_sock;
  25. epoll_ctl(epfd, EPOLL_CTL_ADD, new_sock, &ev);
  26. }
  27. }else{
  28. /* 对其它描述符发生的事件进行适当处理。*/
  29. if(events.events & POLLIN)
  30. doReadAction(i);
  31. if(events.events & POLLOUT)
  32. doWriteAction(i);
  33. }
  34. }
  35. }

       epoll支持水平触发和边缘触发,理论上来说边缘触发性能更高,但是使用更加复杂,因为任何意外的丢失事件都会造成请求处理错误。Nginx就使用了epoll的边缘触发模型。
       这里提一下水平触发和边缘触发就绪通知的区别:

     这两个词来源于计算机硬件设计。它们的区别是只要句柄满足某种状态,水平触发就会发出通知;而只有当句柄状态改变时,边缘触发才会发出通知。例如一个socket经过长时间等待后接收到一段100k的数据,两种触发方式都会向程序发出就绪通知。假设程序从这个socket中读取了50k数据,并再次调用监听函数,水平触发依然会发出就绪通知,而边缘触发会因为socket“有数据可读”这个状态没有发生变化而不发出通知且陷入长时间的等待。
因此在使用边缘触发的 api 时,要注意每次都要读到 socket返回 EWOULDBLOCK为止


       遗憾的是不同的操作系统特供的 epoll 接口有很大差异,所以使用类似于 epoll 的接口实现具有较好跨平台能力的服务器会比较困难。

      幸运的是,有很多高效的事件驱动库可以屏蔽上述的困难,常见的事件驱动库有 libevent 库,还有作为 libevent 替代者的 libev 库。这些库会根据操作系统的特点选择最合适的事件探测接口,并且加入了信号 (signal) 等技术以支持异步响应,这使得这些库成为构建事件驱动模型的不二选择。下章将介绍如何使用 libev 库替换 select 或 epoll 接口,实现高效稳定的服务器模型。

     

猜你喜欢

转载自blog.csdn.net/iot_shun/article/details/80922556