Tomcat+Redis+Nginx实现负载均衡(session共享)

Session共享肯定是Tomcat集群必不可少的步骤,而在内存服务器中Redis又是很强势的一个服务器,所以今天特地使用Tomcat+Nginx+Redis做了一个负载均衡的Tomcat集群demo,以供参考。

其中,Tomcat的作用就不必多说了,Nginx作为一个万能的中间件,也是经常可以在真实项目中看到他的身影,nginx可以做静态资源服务器、负载均衡、反向代理等等,在这里我们用到的主要是他的反向代理功能和负载均衡功能;Redis是一个存取速度极快、存储类型多样化、支持集群、还可以用来实现队列功能的内存数据库,有兴趣的话可以多了解一点。

首先放出所需材料:

Nginx : http://www.runoob.com/linux/nginx-install-setup.html

Redis : http://www.runoob.com/redis/redis-tutorial.html

Tomcat : http://tomcat.apache.org/

所需jar :https://download.csdn.net/download/w_dongqiang/10875067

jar也可自行下载(上面jar包含):commons-pool2-2.2.jar     jedis-2.5.2.jar       tomcat-redis-session-manage-tomcat7.jar

另外不同tomcat请下载对应版本的jar,这里测试的为tomcat7

第一步:

首先安装redis服务端,安装打开redis,解压tomcat并复制出相同的一份,修改tomcat的conf/server.xml配置文件,保证端口不会冲突,(可参考:https://jingyan.baidu.com/article/adc815139b12def722bf7377.html);

第二步:

修改tomcat下webapp/Root/WEB-INF/web.xml,加上默认欢迎页面,

<welcome-file-list>
    <welcome-file>index.jsp</welcome-file>
</welcome-file-list>

然后找到webapp/Root下的index.jsp文件,修改为如下内容(用于测试):

<%@ page language="java" contentType="text/html; charset=UTF-8"
    pageEncoding="UTF-8"%>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1">
<title>Tomcat02</title>
</head>
<body>
    Session Id : <%= request.getSession().getId() %>
</body>
</html>

sessionId是tomcat记录用户会话的标识,如果sessionId一致则可以视为同一个会话,另外一个tomcat也执行同样操作。

第三步:

把需要的jar包全部下载并分别放到两个tomcat的lib下,并向tomcat的conf/context.xml中添加如下代码:

<Valve className="com.orangefunction.tomcat.redissessions.RedisSessionHandlerValve" />
<Manager className="com.orangefunction.tomcat.redissessions.RedisSessionManager"
       host="localhost"
       port="6379"
       database="0"
       maxInactiveInterval="60" />

这个实例只是介绍集成方式,如果需要redis集群的话请另行搜索并修改<Manager>标签下的配置。

修改完了以后启动两个tomcat,正常情况下应该会正常启动。

第四步:

解压下载的Nginx文件,修改该文件下的conf/nginx.conf文件,使两台tomcat用nginx配置的虚拟路径关联到一起,(可参考:https://www.cnblogs.com/lfjjava/p/6092727.html)下面贴上我的nginx.conf配置:


#运行用户
#user  nobody;
#启动进程,通常设置成和cpu的数量相等
worker_processes  1;

#全局错误日志及PID文件
#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

#工作模式及连接数上限
events {
	#epoll是多路复用IO(I/O Multiplexing)中的一种方式,
    #仅用于linux2.6以上内核,可以大大提高nginx的性能
    #use   epoll; 
 
    #单个后台worker process进程的最大并发链接数    
    worker_connections  1024;
 
    # 并发总数是 worker_processes 和 worker_connections 的乘积
    # 即 max_clients = worker_processes * worker_connections
    # 在设置了反向代理的情况下,max_clients = worker_processes * worker_connections / 4  为什么
    # 为什么上面反向代理要除以4,应该说是一个经验值
    # 根据以上条件,正常情况下的Nginx Server可以应付的最大连接数为:4 * 8000 = 32000
    # worker_connections 值的设置跟物理内存大小有关
    # 因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数
    # 而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右
    # 我们来看看360M内存的VPS可以打开的文件句柄数是多少:
    # $ cat /proc/sys/fs/file-max
    # 输出 34336
    # 32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内
    # 所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置
    # 使得并发总数小于操作系统可以打开的最大文件数目
    # 其实质也就是根据主机的物理CPU和内存进行配置
    # 当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。
    # ulimit -SHn 65535
}


http {
	#设定mime类型,类型由mime.type文件定义
    include    mime.types;
    default_type  application/octet-stream;
	
	#设定日志格式
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
	#设置日志路径
    #access_log  logs/access.log  main;
	
	#sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,
    #对于普通应用,必须设为 on,
    #如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,
    #以平衡磁盘与网络I/O处理速度,降低系统的uptime.
    sendfile        on;
    #tcp_nopush     on;
	
	#连接超时时间
    #keepalive_timeout  0;
    keepalive_timeout  65;
	
	#开启gzip压缩 -- 可以大大压缩传输的内容,但是有一些浏览器不支持,所以根据浏览器不同则不适用压缩传输。
    #gzip  on;
	#gzip_disable "MSIE [1-6]."; #不进行压缩传输的浏览器。
	
	#定义分散并发压力的代理真实服务器ip(访问时访问wgf。com)  
	#ip_hash;
	upstream wgf.com{ 
        server 192.168.7.141:8080 weight=1;    #真实服务器A(sxwgf-PC)    
        server 192.168.7.141:8888 weight=1;    #真实服务器B(hzdk-vpc) 
    } 
	
	
	#设定虚拟主机配置
    server {
		#服务的端口号
        listen       80;
		#定义使用 www.nginx.cn访问
        server_name  localhost;
		#设置访问及传输的内容编码格式
        #charset koi8-r;
		#访问日期
        #access_log  logs/host.access.log  main;
		
		
		#默认请求
        location / {
			#定义服务器的默认网站根目录位置
            root   html;
			#默认访问的首页
            index  index.html index.htm;
            proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 
            proxy_pass  http://wgf.com;    #反向代理地址
        }
		#错误404跳转的页面
        #error_page  404              /404.html;

        
        #50x 错误跳转的页面
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

}

nginx可以隐藏项目的真实路径,使用一个虚拟路径进行代理,这样不论用户怎么访问展现给用户的都会是同一个地址,而请求压力则会根据配置的权重分配给不同的tomcat,配置完nginx.conf后,点击nginx.exe启动nginx,打开浏览器访问nginx.conf中配置的代理地址,我这里是localhost,效果如下:

从两次请求可以看出我们虽然访问的是同一个地址,但处理请求的却是两个tomcat,虽然处理请求的是两个tomcat,但是用户的session却能保持一致,保证了用户信息的完整性,这个这正是我们所需要的效果。

demo代码:https://download.csdn.net/download/w_dongqiang/10875343

猜你喜欢

转载自blog.csdn.net/W_DongQiang/article/details/85247456