什么是心跳包

心跳包就是在客户端和服务器间定时通知对方自己状态的一个自己定义的命令字,按照一定的时间间隔发送,类似于心跳,所以叫做心跳包。

   
用来判断对方(设备,进程或其它网元)是否正常运行,采用定时发送简单的通讯包,如果在指定时间段内未收到对方响应,则判断对方已经离线。用于检测TCP的异常断开。基本原因是服务器端不能有效的判断客户端是否在线,也就是说,服务器无法区分客户端是长时间在空闲,还是已经掉线的情况。所谓的心跳包就是客户端定时发送简单的信息给服务器端告诉它我还在而已。代码就是每隔几分钟发送一个固定信息给服务端,服务端收到后回复一个固定信息如果服务端几分钟内没有收到客户端信息则视客户端断开。

比如有些通信软件长时间不使用,要想知道它的状态是在线还是离线就需要心跳包,定时发包收包。发包方:可以是客户也可以是服务端,看哪边实现方便合理,一般是客户端。服务器也可以定时发心跳下去。一般来说,出于效率的考虑,是由客户端主动向服务器端发包,而不是服务器向客户端发。客户端每隔一段时间发一个包,使用TCP的,用send发,使用UDP的,用sendto发,服务器收到后,就知道当前客户端还处于“活着”的状态,否则,如果隔一定时间未收到这样的包,则服务器认为客户端已经断开,进行相应的客户端断开逻辑处理。

服务器实现心跳机制的两种策略

大部分CS的应用需要心跳机制。心跳机制一般在Server和Client都要实现,两者实现原理基本一样。Client不关心性能,怎么做都行。

如果应用是基于TCP的,可以简单地通过SO_KEEPALIVE实现心跳。TCP在设置的KeepAlive定时器到达时向对端发一个检测TCP segment,如果没收到ACK或RST,尝试几次后,就认为对端已经不存在,最后通知应用程序。这里有个缺点是,Server主动发出检测包,对性能有点影响。

应用自己实现

Client启动一个定时器,不断发心跳;

Server收到心跳后,给个回应;

Server启动一个定时器,判断Client是否存在,判断方法这里列两种:时间差和简单标志。

1. 时间差策略

收到一个心跳后,记录当前时间(记为recvedTime)。

判断定时器时间到达,计算多久没收到心跳的时间(T)=当前时间 - recvedTime(上面记录的时间)。如果T大于某个设定值,就可以认为Client超时了。

2. 简单标志

收到一个心跳后,设置连接标志为true;

判断定时器时间到达,查看所有的标志,false的,认为对端超时了;true的将其设成false。

上面这种方法比上面简单一些,但检测某个Client是否离线的误差有点大。

您还有心跳吗?超时机制分析

问题描述

在C/S模式中,有时我们会长时间保持一个连接,以避免频繁地建立连接,但同时,一般会有一个超时时间,在这个时间内没发起任何请求的连接会被断开,以减少负载,节约资源。并且该机制一般都是在服务端实现,因为client强制关闭或意外断开连接,server端在此刻是感知不到的,如果放到client端实现,在上述情况下,该超时机制就失效了。本来这问题很普通,不太值得一提,但最近在项目中看到了该机制的一种糟糕的实现,故在此深入分析一下。

问题分析及解决方案

服务端一般会保持很多个连接,所以,一般是创建一个定时器,定时检查所有连接中哪些连接超时了。此外我们要做的是,当收到客户端发来的数据时,怎么去刷新该连接的超时信息?

最近看到一种实现方式是这样做的:

  1. public class Connection {
  2. private long lastTime;
  3. public void refresh () {
  4. lastTime = System.currentTimeMillis();
  5. }
  6. public long getLastTime () {
  7. return lastTime;
  8. }
  9. //......
  10. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

在每次收到客户端发来的数据时,调用refresh方法。

然后在定时器里,用当前时间跟每个连接的getLastTime()作比较,来判定超时:

  1. public class TimeoutTask extends TimerTask{
  2. public void run () {
  3. long now = System.currentTimeMillis();
  4. for(Connection c: connections){
  5. if(now - c.getLastTime()> TIMEOUT_THRESHOLD)
  6. ; //timeout, do something
  7. }
  8. }
  9. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

看到这,可能不少读者已经看出问题来了,那就是内存可见性问题,调用refresh方法的线程跟执行定时器的线程肯定不是一个线程,那run方法中读到的lastTime就可能是旧值,即可能将活跃的连接判定超时,然后被干掉。

有读者此时可能想到了这样一个方法,将lastTime加个volatile修饰,是的,这样确实解决了问题,不过,作为服务端,很多时候对性能是有要求的,下面来看下在我电脑上测出的一组数据,测试代码如下,供参考

  1. public class PerformanceTest {
  2. private static long i;
  3. private volatile static long vt;
  4. private static final int TEST_SIZE = 10000000;
  5. public static void main (String[] args) {
  6. long time = System.nanoTime();
  7. for ( int n = 0; n < TEST_SIZE; n++)
  8. vt = System.currentTimeMillis();
  9. System. out.println(-time + (time = System.nanoTime()));
  10. for ( int n = 0; n < TEST_SIZE; n++)
  11. i = System.currentTimeMillis();
  12. System. out.println(-time + (time = System.nanoTime()));
  13. for ( int n = 0; n < TEST_SIZE; n++)
  14. synchronized (PerformanceTest.class) {
  15. }
  16. System. out.println(-time + (time = System.nanoTime()));
  17. for ( int n = 0; n < TEST_SIZE; n++)
  18. vt++;
  19. System. out.println(-time + (time = System.nanoTime()));
  20. for ( int n = 0; n < TEST_SIZE; n++)
  21. vt = i;
  22. System. out.println(-time + (time = System.nanoTime()));
  23. for ( int n = 0; n < TEST_SIZE; n++)
  24. i = vt;
  25. System. out.println(-time + (time = System.nanoTime()));
  26. for ( int n = 0; n < TEST_SIZE; n++)
  27. i++;
  28. System. out.println(-time + (time = System.nanoTime()));
  29. for ( int n = 0; n < TEST_SIZE; n++)
  30. i = n;
  31. System. out.println(-time + (time = System.nanoTime()));
  32. }
  33. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34

测试一千万次,结果是(耗时单位:纳秒,包含循环本身的时间): 
238932949 volatile写+取系统时间 
144317590 普通写+取系统时间 
135596135 空的同步块(synchronized) 
80042382 volatile变量自增 
15875140 volatile写 
6548994 volatile读 
2722555 普通自增 
2949571 普通读写

从上面的数据看来,volatile写+取系统时间的耗时是很高的,取系统时间的耗时也比较高,跟一次无竞争的同步差不多了,接下来分析下如何优化该超时时机。

首先:同步问题是肯定得考虑的,因为有跨线程的数据操作;另外,取系统时间的操作比较耗时,能否不在每次刷新时都取时间?因为刷新调用在高负载的情况下很频繁。如果不在刷新时取时间,那又该怎么去判定超时?

我想到的办法是,在refresh方法里,仅设置一个volatile的boolean变量reset(这应该是成本最小的了吧,因为要处理同步问题,要么同步块,要么volatile,而volatile读在此处是没什么意义的),对时间的掌控交给定时器来做,并为每个连接维护一个计数器,每次加一,如果reset被设置为true了,则计数器归零,并将reset设为false(因为计数器只由定时器维护,所以不需要做同步处理,从上面的测试数据来看,普通变量的操作,时间成本是很低的),如果计数器超过某个值,则判定超时。 下面给出具体的代码:

  1. public class Connection {
  2. int count = 0;
  3. volatile boolean reset = false;
  4. public void refresh () {
  5. if (reset == false)
  6. reset = true;
  7. }
  8. }
  9. public class TimeoutTask extends TimerTask {
  10. public void run () {
  11. for (Connection c : connections) {
  12. if (c.reset) {
  13. c.reset = false;
  14. c.count = 0;
  15. } else if (++c.count >= TIMEOUT_COUNT)
  16. ; // timeout, do something
  17. }
  18. }
  19. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

代码中的TIMEOUT_COUNT 等于超时时间除以定时器的周期,周期大小既影响定时器的执行频率,也会影响实际超时时间的波动范围(这个波动,第一个方案也存在,也不太可能避免,并且也不需要多么精确)。

代码很简洁,下面来分析一下。

reset加上了volatile,所以保证了多线程操作的可见性,虽然有两个线程都对变量有写操作,但无论这两个线程怎么穿插执行,都不会影响其逻辑含义。

再说下refresh方法,为什么我在赋值语句上多加了个条件?这不是多了一次volatile读操作吗?我是这么考虑的,高负载下,refresh会被频繁调用,意味着reset长时间为true,那么加上条件后,就不会执行写操作了,只有一次读操作,从上面的测试数据来看,volatile变量的读操作的性能是显著优于写操作的。只不过在reset为false的时候,多了一次读操作,但此情况在定时器的一个周期内最多只会发一次,而且对高负载情况下的优化显然更有意义,所以我认为加上条件还是值得的。

————————————- 
补充一下:一般情况下,也可用特定的心跳包来刷新,而不是每次收到消息都刷新,这样一来,刷新频率就很低了,也就没必要太在乎性能开销。

猜你喜欢

转载自blog.csdn.net/lrxmrlirixing/article/details/80864920